BBC gets a new director general: how others have fared in the hardest job in UK media

Source: The Conversation – UK – By Simon Potter, Professor of Modern History, University of Bristol

Matt Brittin has been named the new director general of the BBC. He joins the broadcaster after almost two decades working at Google: he was its president in Europe, the Middle East and Africa before leaving in 2024. He is already on the board of the Guardian Media Group.

The director general is the most senior executive at the BBC. The first director general was John Reith (later Lord Reith), a near legendary figure who dominated the organisation during its foundational period in the 1920s and 1930s.

Reith played a key role in establishing broadcasting in Britain and creating the BBC. He had an obsession with controlling all elements of the BBC’s work and was determined to increase his own power at the expense of subordinates and of the BBC’s board of governors.

Reith made the director general the most powerful office in the BBC. That power has since been diluted over the decades, but in theory the director general still has oversight of all the varied aspects of the BBC’s work. They must also defend the corporation from public criticism and take responsibility when things go wrong. Given the amount of criticism that the BBC has faced in recent years, this may be the hardest job in the UK media.

Crucially, the director general is regarded as editor-in-chief of BBC news content, and ultimately carries the can when problems arise in its current affairs coverage. This has brought down several directors general in the past.

In 2011, George Entwistle resigned over revelations concerning the BBC and the Jimmy Savile sexual abuse scandal, and his mishandling of unfounded allegations broadcast by the BBC concerning Lord McAlpine. Entwistle only served 54 days in post.

Tim Davie resigned from the top job last year amid accusations that BBC current affairs coverage had breached its own editorial code on impartiality. Most notably, footage of a speech by Donald Trump had been misleadingly edited when shown on Panorama. The BBC still faces an unprecedented $10bn (£7.5bn) lawsuit from the US president.

Brittin will need to deal with these editorial issues. One of his first tasks will be to hire a new CEO of News, as Deborah Turness resigned along with Davie.

He will also have to lead the BBC into a brave new world. The TV licence system, which provides the BBC with most of its funding, is likely to be drastically reformed or abolished entirely. This may be accompanied with major changes in how the BBC is run and functions, as its royal charter is renewed over the coming year.

More and more of us are replacing analogue radio and live television with streaming. With his tech background, Brittin may be well placed to lead the BBC through this transition. He also faces the unenviable task of defending the BBC against inevitably escalating criticism during the charter review period. Candidates for the job do not seem to have been lining up at the doors of Broadcasting House.

Changing the BBC

How have previous directors general fared in times of profound change? The BBC struggled to find an effective leader during the second world war until William Haley, an experienced newspaper editor and director, was appointed. Haley expertly steered the BBC through the final stages of the war and into peacetime, navigating difficult questions about government intervention, possible commercial competition and, with the rise of TV, technological change.

Haley significantly altered the BBC’s radio offering to provide listeners with more choice, and set out to reestablish its television service, fending off the threat of commercial competition for almost a decade.

In the 1960s, Hugh Carleton Greene (brother of the novelist Graham Greene), shook up British broadcasting yet again, helping the BBC adapt to the possibly existential challenge posed by a young and feisty ITV. Greene focused on providing crowd-pleasing entertainment, but also pushed the boundaries of taste and opinion by establishing the political satire show That Was The Week That Was, and supporting hard-hitting dramas like Cathy Come Home and Up The Junction.

Haley and Greene both demonstrated what a confident director general, intent on securing the changes that would allow the BBC to survive, could achieve.

Old BBC microphone
Past directors general have navigated the BBC through times of peace, and war.
seeshooteatrepeat/shutterstock

A more divisive figure was John Birt, later Baron Birt, who held the post from 1992 to 2000. Birt had made his name working for the BBC’s competitors in commercial TV. He was a devotee of new ideologies of corporate leadership and change. At the BBC he was determined to break up the dominance of its powerful departmental leaders and to impose central control.

In the wake of scandals over public affairs coverage that toppled one of his predecessors, Alasdair Milne, Birt demanded adherence to a new editorial code. And in order to prevent Margaret Thatcher’s government privatising the BBC, he set up a complex system of internal markets and external programme commissioning. Business consultants and highly-paid senior managers were recruited from the private sector to spearhead reform. Over 10,000 staff were laid off. Some people thought that Birt saved the BBC, but the playwright Dennis Potter likened him to a Dalek.

Brittin, like Birt, is an outsider to the BBC. Will he be a Dalek, or The Doctor that the BBC needs to vanquish its political and commercial adversaries? Appointing a leader from the world of big tech might give the BBC a valuable weapon in a media landscape dominated by the US-based streaming giants.

Brittin may also have the corporate leadership skills needed to bring a large, fiendishly complex organisation full of independently minded people through the massive changes that seem necessary if the BBC is to survive and flourish. Whether he has the equally crucial skills needed to be the public face of the BBC, defending it on-air and in the press against its many assailants, remains to be seen.

The Conversation

Simon Potter does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. BBC gets a new director general: how others have fared in the hardest job in UK media – https://theconversation.com/bbc-gets-a-new-director-general-how-others-have-fared-in-the-hardest-job-in-uk-media-279263

God on their side: how the US, Israel and Iran are all using religion to garner support

Source: The Conversation – UK – By Toby Matthiesen, Senior Lecturer in Global Religious Studies, University of Bristol

America’s secretary of defense, Pete Hegseth, sports an array of tattoos with Christian messaging, including one which reads “Deus Vult”, God wills it, and is associated with the medieval crusades. So perhaps it shouldn’t come as a surprise that, while leading a Christian service at the Pentagon on March 25, Hegseth reached for biblical language to describe the war against Iran.

He called on God to “break the teeth” and kill the “wicked” enemies “who deserve no mercy” and should be “delivered to the eternal damnation prepared for them”. In other words, for Hegseth this is a holy war in which he calls on god to “grant this task force clear and righteous targets for violence”.

This war is not primarily about religion. But leaders on all sides have used religion to justify their actions. Not for decades have political leaders of all three major Abrahamic faith traditions invoked parts of their respective traditions to legitimise war in this way. The way faith and religious scripture and doctrine have been used by the US and Israel to justify launching their war in Iran is a worrying development, and one that highlights the growing relationship between religion and authoritarian nationalism.

It has also deepened the animosity with Iran, where politicians and religious leaders have themselves invoked religious and messianic narratives. But Iran is an Islamic Republic in which religion has a significant constitutional role.

The Israeli prime minister used religious imagery on February 28 while announcing the start of the war. He invoked the Jewish holiday of Purim, which fell on March 2-3 this year, and which celebrates the Jewish escape from a plot by Haman, an evil Persian official, to annihilate the Jews in the ancient Persian Empire. He said:

My brothers and sisters, in two days we will celebrate the holiday of Purim. 2,500 years ago, in ancient Persia, an enemy rose against us with the exact same goal of completely destroying our people. But Mordechai the Jew and Queen Esther, with their courage and resourcefulness, saved our people. In those days of Purim, the lot was cast, and the wicked Haman fell along with it. Even today on the holiday of Purim, the lot was cast, and the end of the evil regime will also come.

Netanyahu has also compared Iran to the biblical Amalekites (a theme he has used to refer to Hamas in Gaza, drawing criticism from the United Nations). The Amalekites were arch enemies of the Jewish people, who the Old Testament God ordered to be completely destroyed, “men and women, children and infants, cattle and sheep, camels and donkeys”. Netanyahu’s government rests on an alliance with religious Zionists, who frequently invoke religious references to justify Israel’s policies.




Read more:
Attack on Gaza: Israeli rhetoric fuels fears of ethnic cleansing as IDF assault continues to push south


American evangelism

The first amendment of the US constitution, meanwhile, guarantees freedom of religion and effectively prevents one faith being favoured over any others. That said, about 70% of Americans identify with a religious faith (the vast majority are Christians) and there is evidence of the growing influence of evangelical Christianity on the Maga movement and the Trump administration.

On March 5, the US president was joined for prayers in the Oval Office by a group of evangelical pastors. Placing their hands on him, prayed “for your grace and protection over him…and over our troops”. The video of the American president engaging in a group prayer while engaged in a major war went viral.

At the start of the war, hundreds of US troops reported being told by their commanders that the war was “part of God’s divine plan” and that: “President Trump has been anointed by Jesus to light the signal fire in Iran to cause Armageddon and mark his return to Earth.”

Evangelical movements have vastly increased their political influence in the US and across the world. They often support right-wing politicians domestically and Israel internationally, believing in Christian Zionism or that the strengthening of the state of Israel will ultimately lead to the erection of the Temple in Jerusalem and hasten the arrival of the day of judgement.

Challenged by evangelical movements, the Catholic church, in contrast, has condemned the war as “immoral” and “unjust”, and denounced Israel’s attacks on Christians in Lebanon. Pope Leo, himself an American, has called the war a “scandal to the whole human family”.

Iranian martyrdom

The Israeli killing of Ayatollah Ali Khamenei broke a norm in international relations in more ways than one. It is the first assassination of a head of state by a foreign country in many decades. And it is the first time in centuries – perhaps ever – that one of Shi’ism’s most senior Grand Ayatollahs has been killed by a foreign power.

Many other senior Shia clerics – some of whom had had a difficult and sometimes even antagonistic relationship with Khamenei and the system he represented – declared him a martyr. Assuming his father’s role as supreme leader, Mojtaba Khamenei delivered remarks that heavily emphasised martyrdom and messianism – including an opening reference to the “Hidden 12th Imam”, who is meant to return on the day of judgement, according to Shia doctrine.

In Iran, Twelver Shia messianism and Iranian nationalism have long been interwoven, especially since the revolution of 1979. Now, Iran’s Shia clerics have declared the defence of the homeland as a sacred duty.

What the other branches of Islam think of the war is more complicated. Some senior non-Shia clerics, including the mufti of Oman – a prominent scholar of the Ibadi branch of Islam – declared Khamenei a martyr. The Sunni mufti of Iraq even argued that all Muslims should support Iran. There have been protests denouncing the war in Pakistan, India, Yemen, Indonesia and beyond.
But other major Sunni clerical institutions or movements have not been so vociferous in their condemnation for the death of Khamenei or the need to support Iran. This – quite apart from the at times bitter antagonism between Sunnism and Shi’ism – also has to do with the fact that Iran swiftly started attacking major Sunni-majority countries that host American military bases.

Messianic and apocalyptic elements of all three major Abrahamic faith traditions have been instrumentalised by increasingly authoritarian leaders in a global confrontation. While there are voices in all three traditions criticising this use of religion, it is setting a dangerous precedent. And while the war has been criticised as being in breach of international law, the reckless use of religion to support this war has not. This should change.

The Conversation

Toby Matthiesen does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. God on their side: how the US, Israel and Iran are all using religion to garner support – https://theconversation.com/god-on-their-side-how-the-us-israel-and-iran-are-all-using-religion-to-garner-support-279337

Waste being used to tackle erosion poses a health risk – an anthropologist explains the dilemma

Source: The Conversation – UK – By Declan Murray, Research Associate, Anthropology, University of Manchester

A field of waste fills in the gully that has formed between houses on either side in Dar es Salaam, Tanzania. Declan Murray, CC BY-NC-ND

I was standing with a waste management supervisor – let’s call him David – at the back of a major fruit and vegetable market in Dar es Salaam, the biggest city in Tanzania. David and I watched as his team raked the market’s waste from a holding bay into the back of a big, yellow tipper truck.

“We’re not taking this to Pugu,” David said. “We’re taking this to an illegal site”.

Pugu is Dar es Salaam’s only official landfill site. All of the rotten produce, peel, leaves, water bottles, soft plastic and cardboard being loaded into the truck should have been sent there. But Pugu is a two-hour drive away. Fuel costs are expensive and there will probably be a queue of trucks waiting to dump through the site’s single entrance. People also have to pay to dump waste at Pugu.

By going to an illegal site, David can save time and money.

“No photos,” David said as we neared the illegal site. I put my phone away. We drove down a steep, compressed sand track riven with dried-up channels. Ahead of us, the ground levelled out into a field of many colours; a field of waste.




Read more:
The world’s waste mountain is rising at an alarming rate


I could make out the outlines of popular white plastic milk packets and blue plastic pouches used to package snacks around the city. These were tangled up with old clothes and used nappies. On the far side, the land rose steeply again, populated with houses overlooking the site.

While the team dumped the waste from the market, I introduced myself to some locals sat watching nearby. They were at pains to tell me that this was not a valley. It was a gully, they said. There is no river here. Instead, they told me that heavy rain had caused the land to give way and several houses to collapse. In order to stem the erosion they had asked local leaders to bring waste to fill in the gully, to literally fill in the land, and so protect the remaining houses from collapse.

In my 2025 study, I defined this practice as “literal landfilling”. It’s apparently widespread and longstanding in the city, yet it has been curiously missing from official and academic discussions of the waste management system in the city. Until now.

big yellow truck backs into building to fill up with waste
A tipper truck gets filled up at the market in Dar es Salaam.
Declan Murray, CC BY-NC-ND

A waste win?

Between 2022 and 2024, I spent nine months studying the waste management system in Dar es Salaam as part of a wider research programme on plastic waste in developing countries. That residents welcomed the waste of contractors like David made the literal landfill seem like a win-win-win for contractors; local authorities and residents. Markets, streets and neighbourhoods are cleared of waste, contractor profits are maintained and no more residents lose their homes. But at what cost?

Colleagues of mine found that pathogens like cholera and E. coli can thrive on plastic surfaces for three to four weeks. Plastic waste might even be driving the emergence of new diseases.

I asked some of the local residents whether they were worried about the health consequences of living right next to this open landfill site. Most conceded they get ill but this was a minor inconvenience relative to the possibility of losing the concrete home they have built.

Rather than being a happy alignment of interests, my research shows that literal landfilling is a trade-off between short-term, visible economic gain and longer-term, unknowable losses to human and environmental health.

In 2023, the World Bank launched the Dar es Salaam Metropolitan Development Project (DMDP), a US$438 million (£330 million) initiative to improve urban services in the city.

Joining a long history of initiatives and plans to solve the city’s waste management problems, the DMDP hopes to modernise Pugu to improve access and reduce waiting times. It also promises the introduction of transfer stations around the city where contractors can deposit waste for sorting and then return quicker to collection than having to drive out to Pugu.

If realised, these plans could resolve the supply side of the literal landfill equation – contractors will no longer be incentivised to dispose of waste in gullies. However, the DMDP makes no mention of gully erosion in the city nor are there any other schemes to address it.

Until the literal landfill is recognised in official and academic discussions of waste management in Dar es Salaam, residents will still look to protect their assets unfortunately at a cost to their health. The demand for waste will remain.

The Conversation

Declan Murray does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Waste being used to tackle erosion poses a health risk – an anthropologist explains the dilemma – https://theconversation.com/waste-being-used-to-tackle-erosion-poses-a-health-risk-an-anthropologist-explains-the-dilemma-277101

Droits de douane américains : encore plus de chaos… et 10 milliards d’intérêts à payer

Source: The Conversation – in French – By Antoine Bouët, Directeur, CEPII

La décision de la Cour suprême des États-Unis concernant les droits de douane mis en place par Donald Trump ne lève pas toutes les questions posées par ce qui ressort désormais comme un abus de Donald Trump par rapport au texte constitutionnel. Car le président possède d’autres moyens pour imposer sa politique sans vote du Congrès. Sans oublier que va se poser la question des droits perçus illégalement et qu’il faudra bien rembourser. Rien que le paiement des intérêts pourrait représenter 10 milliards de dollars (plus de 8,66 milliards d’euros) !


La Cour suprême des États-Unis a jugé illégale l’utilisation de l’International Emergency Economic Powers Act (IEEPA) par l’administration Trump pour imposer des droits de douane et a rappelé qu’aux États-Unis le pouvoir du portefeuille (Power of the Purse) appartient au Congrès.

Ce verdict annule automatiquement :

  • les trafficking tariffs imposés en février 2025 aux produits du Canada, de la Chine et du Mexique du fait de la contrebande de fentanyl et des flux migratoires – les « tarifs réciproques », compris entre 10 % et 50 %, imposés aux produits de tous les pays ayant un excédent commercial vis-à-vis des États-Unis et annoncés le 2 avril 2025, « jour de la Libération »,

  • ainsi que les tarifs sanctionnant certains pays (Brésil, Cuba, Russie, Venezuela).

Cela présage-t-il une accalmie du côté des droits de douane américains ? Au contraire, la situation est devenue encore plus chaotique, et la crédibilité de l’équipe au pouvoir est de nouveau sérieusement écornée. Pour trois raisons.

Pour remplacer l’IEEPA, l’administration américaine a déjà annoncé la mise en place d’une surtaxe généralisée de 10 % au nom de la section 122 du Trade Act de 1974. Cette disposition législative donne l’autorisation au président d’imposer immédiatement un droit de douane de 15 % maximum, en sus des droits existants, pour résoudre un problème de « déficit important et sérieux de balance des paiements ». Cette surcharge tarifaire ne peut s’appliquer que pendant cent cinquante jours et ne peut être prolongée que si le Congrès donne son accord.




À lire aussi :
Droits de douane américains : en attente d’une décision historique de la Cour suprême


Un argument fallacieux

Ces cinq mois seront l’occasion pour l’administration de procéder à des enquêtes, au titre de la section 301 du Trade Act de 1974, sur les pratiques déloyales de 60 partenaires commerciaux des États-Unis (dont l’Union européenne) accusés de ne pas assez restreindre l’importation de produits fabriqués à l’aide de travail forcé, produits qui seraient une concurrence déloyale pour les exportateurs américains ! Ces enquêtes viennent d’être lancées (12 mars 2026).

C’est bien évidemment un argument fallacieux permettant à l’administration américaine d’essayer de remplacer les droits de douane IEEPA, invalidés par la Cour suprême, par des droits de douane section 301. Ceux-ci, à la différence des droits de douane au titre de la section 122, pourraient être pérennes.

Du temporaire qui peut durer combien de temps ?

Notons néanmoins qu’une « enquête 301 » a pour but de dénoncer la pratique déloyale d’un partenaire et, par le biais d’une menace d’un droit de douane ou de son application, de la faire cesser. Un droit de douane section 301 est donc normalement par nature temporaire. Mais l’administration américaine a manifestement pour objectif d’appliquer ces droits de douane de manière pérenne pour protéger l’économie américaine et faire pression sur ses partenaires de façon à obtenir une ouverture de leur économie aux produits américains.

L’application de la section 122 pose aussi un certain nombre de problèmes qui ont déjà entraîné des contestations juridiques.

D’abord, la surtaxe doit être généralisée et universelle. Elle doit s’appliquer à tous les biens et à tous les pays. Or, les droits IEEPA avaient inclus un certain nombre d’exemptions en matière de partenaires et de biens, et le nouveau droit section 122 confirme ces exemptions.

Quel déficit prendre en compte ?

En outre, et plus fondamentalement, cette loi a pour objet un déficit de la balance des paiements et non de la balance commerciale. La distinction est importante. La balance commerciale synthétise les échanges de biens ou de biens et services. La balance des paiements y ajoute les transferts internationaux de revenus, les investissements directs et les investissements de portefeuille. Par construction, une balance des paiements est équilibrée, mais, par abus de langage, le terme de « déficit de la balance des paiements » s’est imposé pour décrire une situation de déséquilibre externe. Alors qu’un déficit commercial, justification de la politique protectionniste de Donald Trump, décrit un excès d’importations de biens sur les exportations de biens, un déficit de la balance des paiements survient lorsqu’il n’y a pas assez de flux financiers privés entrants pour financer un déficit de la balance courante (qui comprend les échanges de biens, de services et de revenus).

En régime de change fixe, un déficit de la balance des paiements se résout par des pertes de réserves de change et d’or de la banque centrale. Or, les États-Unis ne sont plus en régime de change fixe depuis le début des années 1970. En régime de changes flottants, ce déficit peut se résoudre par une dépréciation de la monnaie nationale, le dollar. Cela correspond bien à la situation actuelle. Or, il est difficile de constater, aujourd’hui, un déficit de la balance des paiements américaine et une absence de flux financiers entrants privés aux États-Unis.

Élément intéressant, lors de la défense de l’utilisation de l’IEEPA par l’exécutif américain devant les tribunaux en juillet 2025, les juristes de la Maison-Blanche ont insisté sur ce point : un déficit commercial ne peut être considéré comme un déficit de la balance des paiements ; donc la section 122 du Trade Act de 1974 ne peut pas être utilisée pour résoudre le problème économique actuel des États-Unis !

L’utilisation de la section 122 du Trade Act de 1974 par l’administration Trump pour appliquer des droits de douane est déjà contestée par la compagnie alimentaire Burlap & Barrel et par les procureurs et gouverneurs de 24 États démocrates. Les arguments précédents, différenciant déficit commercial et déficit de la balance des paiements, sont repris par les plaignants. La Cour du commerce international doit écouter les plaignants et l’administration le 10 avril et pourrait rendre son verdict une semaine plus tard.

Un problème de crédibilité

Une autre dimension du problème écorne aussi la crédibilité de l’administration américaine : le remboursement des droits de douane indûment collectés entre février 2025 et février 2026 sous couvert de l’IEEPA. La Cour du commerce international a, en effet, sommé l’Agence de protection des douanes et des frontières des États-Unis de rembourser ces taxes.

La tâche est compliquée : il y aurait 165 milliards de dollars (plus de 142,9 milliards d’euros) à rembourser à 330 566 importateurs, selon Brandon Lord, le directeur exécutif pour le commerce de cette agence, soit en moyenne 499 143,89 dollars (432 508,18 euros) par opérateur commercial. Il faut évidemment vérifier chaque demande de remboursement, et chaque importateur a fait, sur la période considérée, plusieurs opérations d’importation. Il y aurait au total 53 173 939 opérations à vérifier ! Brandon Lord estime à cinq minutes le temps nécessaire à la vérification d’une opération. Si cela est fait manuellement, il en déduit que l’opération nécessitera 4 431 161 hommes-heures, soit 506 hommes-année !

Près de 10 milliards d’intêts à verser ?

Il faut donc privilégier une procédure automatique de vérification et de remboursement. Mais cette tâche est compliquée, car la plupart des importateurs n’ont pas la possibilité de recevoir des transferts électroniques. L’agence a promis de définir une solution en quarante-cinq jours ! Mais le temps presse, car le Trésor américain devra rembourser les taxes collectées, mais aussi les intérêts qui courent sur les sommes prélevées, évaluées à 650 millions de dollars (soit 563,38 millions d’ euros) par mois. Si le problème n’est pas résolu avant la fin de l’année, cela fera presque 10 milliards de dollars (plus de 8,66 milliards d’euros) d’intérêt à verser !

Dernier tracas pour l’équipe de la Maison-Blanche, les accords commerciaux conclus avec 20 pays en 2025 s’appuient sur les droits de douane appliqués sous couvert de l’IEEPA. Ces accords sont donc fragilisés, car ils mentionnent tous explicitement l’utilisation de l’IEEPA comme base juridique du tarif appliqué par les États-Unis.

France 24, 2026.

Des accords à revoir

Pour illustration, prenons le cas de l’Union européenne. En août 2025, l’accord de Turnberry prévoyait que les exportations européennes taxées traditionnellement à moins de 15 % seraient taxées à 15 %, les produits taxés à plus de 15 % ayant un droit inchangé. Donc un produit taxé traditionnellement à 10 % serait taxé à 15 % du fait du seul accord de Turnberry. Mais, avec la section 122, du fait de l’application de la surcharge tarifaire de 10 points de pourcentage, il pourrait être maintenant taxé à 20 %. L’accord de Turnberry est dans ce cas plus intéressant.

Prenons un autre cas de figure : un produit dont le droit aux États-Unis avant l’investiture de Donald Trump était de 0 %. Quand c’est l’Union européenne qui l’exporte, du fait de l’accord de Turnberry, il passe à 15 %. Mais avec la section 122, les concurrents directs des Européens ne vont être pénalisés que d’un droit de douane de 10 %. La situation est donc défavorable aux Européens si l’accord est conservé.

Pour les Européens, il sera aussi important de connaître le sort, donc le droit de douane, que leur réserve l’enquête 301 : sera-t-il opportun de le contester et de réclamer l’application de l’accord de Turnberry ? Ou, au contraire, d’accepter le nouveau tarif américain sur les exportations européennes ? La position de l’Union européenne est donc difficile à définir, et l’impact du verdict de la Cour suprême sur l’accord de Turnberry est incertain.

Si la Cour suprême des États-Unis a bien rappelé avec force les limites du pouvoir présidentiel, elle n’a pas mis fin au chaos induit par la politique commerciale américaine. Bien au contraire !

The Conversation

Antoine Bouët ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Droits de douane américains : encore plus de chaos… et 10 milliards d’intérêts à payer – https://theconversation.com/droits-de-douane-americains-encore-plus-de-chaos-et-10-milliards-dinterets-a-payer-279017

Contrôle coercitif : pourquoi ce concept transforme l’appréhension des violences faites aux femmes et aux enfants

Source: The Conversation – in French – By Andreea Gruev-Vintila, Maîtresse de conférences HDR en psychologie sociale, spécialiste de la violence conjugale/contrôle coercitif, Université Paris Nanterre

Le « contrôle coercitif » désigne un schéma global de comportements, avec ou sans violences physiques, par lequel un agresseur conjugal, quasi exclusivement un homme, restreint les droits, les libertés et les ressources de la victime, le plus souvent une femme, au détriment indissociable des enfants. Ce terme permet de nommer des situations longtemps indicibles faute de mots pour les désigner. Ce faisant, il devient un outil de connaissance et un levier de justice dans la lutte contre les violences faites aux femmes et aux enfants.


Ces dernières décennies, plusieurs pays ont reconnu les limites des approches traditionnelles de la violence conjugale, qui la réduisent à une série d’actes d’agression ou de « conflits » de couple devenus houleux. Ils ont opté pour une approche fondée sur le modèle du « contrôle coercitif ».

Cette approche révèle la violence conjugale comme une captivité : un schéma global de comportements visant à restreindre les droits et les ressources des victimes, le plus souvent des femmes, particulièrement des mères, pour obtenir leur obéissance.

Evan Stark, travailleur sociojudiciaire et professeur à Rutgers University (États-Unis), constate dans le livre Coercive Control: How Men Entrap Women in Personal Lives (2007), qui a propulsé le concept, que 75 % des arrestations pour violence physique concernent des agressions s’inscrivant presque toujours dans un ensemble d’autres comportements.

Captivité invisible

L’ouvrage le Contrôle coercitif. Au cœur de la violence conjugale (2023), premier livre en français consacré à ce concept, décrit ce schéma de comportements – isolement, surveillance, intimidation, privation de droits et de ressources, dénigrement, menaces, contrôle économique, administration de la peur avec ou sans violence physique, instrumentalisation des enfants et des procédures judiciaires.

Ce concept rompt avec la vision fragmentée de la violence conjugale comme enchaînement d’« actes » ou de « conflit », pour l’appréhender comme une stratégie globale de mise en captivité invisible au sein du couple et de la famille, comparable, par ses tactiques et ses effets, au contrôle des prisonniers de guerre, des otages, des membres de sectes.

Le contrôle coercitif atteint l’autonomie, la dignité, la capacité d’agir et la sécurité des victimes. Ses effets sont souvent durables et dévastateurs : peur paralysante, subordination, appauvrissement, sabotage du lien mère-enfant, dégradation de la santé, mort à petit feu, tentatives de suicide ou meurtre.

Un comportement quasi exclusivement masculin

Le contrôle coercitif est une « conduite calculée et malveillante, déployée quasi-exclusivement par des hommes pour dominer une femme » (Stark, 2007) : en Angleterre et au Pays de Galles, qui l’ont incriminé en 2015, 832 des 853 personnes condamnées en 2024 pour contrôle coercitif étaient des hommes, soit 97,5 %.

Le contrôle coercitif des hommes sur les femmes est un précurseur majeur des féminicides, des suicides provoqués, des homicides d’enfants et des violences faites aux enfants hors zone de guerre. Même en l’absence d’hostilité envers les enfants, il les affecte pleinement, qu’ils soient directement ciblés ou « seulement » témoins de ce qui est fait à leur mère. Le risque pour les enfants est déchiffrable à l’aune du contrôle coercitif exercé sur la mère.

Les données montrent que 87 % des affaires portées devant les juges aux affaires familiales au Royaume-Uni et 83 % en Australie comportent des éléments de violence domestique/contrôle coercitif.

En France, sur le quart de million de personnes ayant déposé plainte pour violence conjugale (ministère de l’intérieur,
2024), 84 % des victimes sont des femmes (85 % des mis en cause sont des hommes), et 82 % des femmes victimes ont des enfants. Le Haut Conseil à l’égalité estimait en 2021 que 398 310 enfants en sont covictimes.

Origine et évolution conceptuelle

L’histoire du terme n’est pas au départ pas conjugale. Dès 1956-1957, Albert Biderman, sociologue militaire, décrit les méthodes coercitives utilisées pour obtenir la soumission des prisonniers de guerre américains pendant la guerre de Corée : isolement, épuisement, privations, menaces, démonstration de toute-puissance. Il montre que c’est le cumul de ces méthodes, et non une vulnérabilité des victimes, qui permet d’obtenir l’obéissance.

En 1992, Judith Herman, professeure de psychiatrie à Harvard University, montre que la répétition prolongée de tels comportements, subis dans un contexte de captivité (camps, régimes totalitaires, violence conjugale, violences sexuelles incestueuses), produit un trouble de stress post-traumatique complexe.

Les recherches féministes déplacent aussi la focale. Cette perspective, restructurée par Evan Stark, révèle la violence conjugale comme une captivité, une privation de ressources nécessaires au développement de la personne y compris en tant que citoyenne : une violence sociale.

Un changement de paradigme

La notion a, depuis, fait son chemin. Ainsi, la directive européenne 2024/1385 du 14 mai 2024 sur la lutte contre la violence à l’égard des femmes et contre la violence domestique, nomme le contrôle coercitif. Il est au cœur des rapports parlementaires Chandler-Vérien (2023) et Josso-Guillotin (2025), d’une jurisprudence française et européenne, de formations des magistrats, d’une proposition de loi qui étend la protection aux enfants, d’une priorité de politique civile, du rapport « À vif » visant à guider la politique judiciaire en la matière, du premier rapport d’évaluation thématique de la France par le Groupe d’experts sur la lutte contre la violence à l’égard des femmes et la violence domestique (2025).




À lire aussi :
Juger les violences conjugales : une audience historique sur le contrôle coercitif en France


Ce changement de paradigme a des implications normatives majeures. Dans des systèmes juridiques et des pratiques professionnelles encore largement organisés autour de l’idée de conflit conjugal entre parties égales, il met au jour l’illusion d’une symétrie là où l’un des partenaires dispose d’un arsenal structurel de ressources – contrôle économique, social, surveillance numérique, instrumentalisation du déficit des procédures et de formation des professionnels – qui fausse jusqu’à l’accès effectif au droit.

Dans ce contexte, le contrôle coercitif n’est pas un simple choix terminologique, mais le nom d’un crime contre la liberté et les droits humains commis majoritairement contre des femmes, spécifiquement contre des mères, indissociablement contre des enfants, perpétré au sein de la famille et longtemps rendu indicible faute de mots.

Il devient à la fois outil de connaissance et levier de justice. Il permet de penser ensemble la prévention, la protection des victimes adultes et enfants, la poursuite et la responsabilisation des auteurs, et des politiques coordonnées –c’est-à-dire les quatre piliers de la convention d’Istanbul.


La série « L’envers des mots » est réalisée avec le soutien de la délégation générale à la langue française et aux langues de France du ministère de la culture.

The Conversation

Membre du HCE depuis juin 2025

ref. Contrôle coercitif : pourquoi ce concept transforme l’appréhension des violences faites aux femmes et aux enfants – https://theconversation.com/controle-coercitif-pourquoi-ce-concept-transforme-lapprehension-des-violences-faites-aux-femmes-et-aux-enfants-276537

Réemploi des matériaux : Pourquoi est-ce si compliqué dans le bâtiment ?

Source: The Conversation – in French – By Sébastien Bourdin, Professeur de géographie économique, IÉSEG School of Management

Le bâtiment est, de nos jours, responsable de 15 % des déchets produits en France, loin devant les déchets ménagers. Marek Studzinski/Unsplash, CC BY

Dans le bâtiment, donner une seconde vie aux matériaux relève encore du parcours du combattant, et ce, malgré des bénéfices environnementaux avérés.


Premier producteur de déchets en France, loin devant les ménages, le secteur du bâtiment génère chaque année près de 42 millions de tonnes de déchets, soit environ 15 % des déchets nationaux. Béton, briques, tuiles, plâtre, menuiseries : ces matériaux issus des chantiers de construction et de démolition constituent pourtant un gisement colossal de matériaux de seconde vie encore largement sous-valorisé.

Face à cet enjeu, les pouvoirs publics ont choisi de s’appuyer sur un instrument bien connu des politiques environnementales : le principe du pollueur-payeur, décliné depuis mai 2023 sous la forme d’une responsabilité élargie du producteur (REP) pour les produits et matériaux de construction du bâtiment (PMCB), aujourd’hui largement critiquée.

Mais derrière ce dispositif réglementaire se joue un choix politique majeur  : continuer à privilégier le recyclage des déchets du bâtiment ou encourager le réemploi des matériaux de seconde vie. Dans un cas, on concasse, on transforme. Dans l’autre, on dépose et on réintègre. Deux approches de l’économie circulaire avec des impacts environnementaux bien différents.

Qu’est-ce que la REP ?

Le principe de la REP est simple : les entreprises qui mettent sur le marché des matériaux de construction doivent financer leur fin de vie au moyen d’une éco-contribution intégrée au prix de vente. Ces fonds sont ensuite collectés auprès de ceux qui mettent les matériaux sur le marché et gérés par des éco-organismes agréés par l’État, chargés d’organiser et de financer leur collecte, leur tri et leur valorisation.

Avant la REP, la gestion des déchets du bâtiment reposait largement sur les entreprises de travaux qui intervenaient sur les chantiers : elles devaient contractualiser directement avec des opérateurs, assumer les coûts de collecte, de transport et de traitement, et organiser elles-mêmes le tri sur les chantiers, dans un cadre souvent hétérogène selon les territoires, ce qui favorisait parfois les dépôts sauvages.

Sur le papier, la REP devait donc apporter une contrepartie claire : une reprise facilitée, voire gratuite, des déchets de chantier en échange d’une contribution intégrée au prix des matériaux neufs. Dans la pratique, toutefois, la mise en œuvre de ce principe s’est révélée plus complexe.

REP Bâtiment : qui fait quoi ?

  • Quatre éco-organismes, agréés par l’État, se partagent aujourd’hui la mise en œuvre de la REP Bâtiment en France.
  • Valobat traite l’ensemble des catégories de produits et matériaux ;
  • Ecominéro intervient essentiellement sur les produits minéraux (béton, gravats, tuiles, briques…) ;
  • Ecomaison et Valdelia couvrent les autres produits et matériaux non minéraux (bois, plastiques, menuiseries, isolants…).
  • Leurs actions sont coordonnées par l’OCAB (Organisme coordonnateur agréé pour la filière bâtiment), qui harmonise les règles entre filières, répartit les obligations de collecte sur le territoire et propose un guichet unique aux acteurs concernés.

Un dispositif encore difficilement opérationnel sur le terrain

Premier écueil : le nombre de points de reprise des déchets. Alors que l’objectif était de proposer un maillage dense et accessible, la réalité demeure contrastée. En mars 2025, sur environ 6 385 points recensés, à peine 1 000 acceptaient effectivement l’ensemble des sept flux de déchets définis par la loi.

Deuxième source de friction : le montant des écocontributions. La REP devait, en principe, compenser les coûts d’évacuation des déchets par la gratuité de la reprise, sous réserve du tri et du dépôt dans des points agréés. Or, le déploiement du réseau des points de reprise s’est accompagné d’une montée en charge rapide des budgets des éco-organismes : 121 millions d’euros en 2023, 170 millions en 2024, avec une projection à 610 millions d’euros en 2027 selon un rapport du Sénat.

Ces budgets étant alimentés par les écocontributions versées par les metteurs sur le marché, leur montée en charge s’est mécaniquement traduite par une hausse des écocontributions intégrées au prix de vente des matériaux neufs.

À titre d’illustration, selon le barème Valobat de 2025, l’écocontribution applicable aux briques en terre cuite s’établissait à 1,88 euro par tonne commercialisée, contre 14,48 euros par tonne pour certains panneaux en bois biosourcé. Si cette augmentation peut s’expliquer par les coûts de structuration d’une filière encore récente, elle a pour effet immédiat d’alourdir le coût des matériaux, sans que l’amélioration du service de reprise soit uniformément perceptible sur le terrain. Pour beaucoup d’entreprises, la REP apparaît ainsi comme une charge supplémentaire dans un secteur déjà sous tension.

« La REP PMCB est un échec. Nos entreprises payent 3 % de plus sur leurs matériaux pour un service proche de zéro. Et doivent finalement repayer derrière pour la récupération des déchets. Le moratoire ne donne rien. C’est même pire qu’avant. Cessons l’acharnement thérapeutique, il faut tout reprendre à zéro ! », déclarait Olivier Salleron, le président de la Fédération française du bâtiment.

Troisième fragilité : l’opacité du dispositif. Les fédérations professionnelles pointent l’absence de données lisibles sur l’utilisation des fonds, les coûts réels de collecte des déchets et les performances environnementales obtenues. Cette opacité nourrit une défiance croissante envers les éco-organismes. Elle affaiblit aussi l’acceptabilité économique du dispositif et la propension des acteurs à s’y conformer. D’autant que certaines collectivités continuent d’assurer la collecte et le tri sans compensation, tandis que d’autres voient leurs demandes de contractualisation refusées, laissant s’accumuler les flux en déchetterie.

Données issues des rapports d’activité de 2024.

Ces dysfonctionnements ont fini par rattraper le dispositif. « Il y a trop de prélèvements au regard du financement assuré par la REP, pas de visibilité sur leur devenir et une performance environnementale défaillante. Une grande partie des déchets est incinérée ou exportée, et non recyclée », constatait en décembre dernier le ministre délégué Mathieu Lefèvre. Un constat qui fait suite à la décision, quelques mois plus tôt, de l’État de mettre la filière sous moratoire jusqu’à mi-2026, avec l’ambition affichée de « refonder » le dispositif pour en garantir la soutenabilité économique.

L’annonce des premières orientations, le 19 février dernier, des premières orientations marque ainsi une tentative de traduction opérationnelle de cette refonte.

Parmi les mesures avancées figure le renforcement du maillage territorial des points de reprise, en s’appuyant prioritairement sur les déchetteries professionnelles, afin de mieux couvrir les besoins et de soulager les collectivités d’une charge jugée excessive. Le pilotage serait régionalisé, avec des dispositifs spécifiques prévus pour les « zones blanches ». Autre axe majeur : la baisse des coûts, via une réorientation des flux financiers (et des écocontributions) vers les matériaux dits « non matures » – plastiques, laines minérales, membranes – afin de structurer leurs filières de recyclage.

Ces annonces répondent principalement aux difficultés de financement et d’organisation du recyclage. Mais on peut encore s’interroger sur la place accordée au réemploi dans le dispositif.

Le réemploi, parent pauvre de la REP

Si le recyclage – qui consiste à transformer le déchet en matière première secondaire – est aujourd’hui industriellement structuré et largement pratiqué, le réemploi – l’utilisation d’un matériau de seconde vie tel quel ou après remise en état – demeure marginal.

Les gains environnementaux associés au réemploi sont pourtant solidement documentés. Une étude scientifique de 2024 comparant des produits de construction réemployés à leurs équivalents neufs montre que le réemploi réduit significativement les impacts environnementaux, principalement en évitant l’étape de production des matériaux neufs, généralement la plus émettrice. L’exemple des briques est particulièrement éclairant : une analyse du cycle de vie menée dans le cadre d’un projet européen montre qu’un mur en briques réemployées présente une empreinte environnementale nettement inférieure à celle d’un mur en briques neuves, y compris lorsque ces dernières sont recyclées en fin de vie. L’écart tient principalement à l’évitement de la phase de cuisson, procédé particulièrement énergivore et fortement émetteur de CO2.

Or, dans les faits, le recyclage capte l’essentiel des gisements et des financements. Plus simple à organiser, plus compatible avec les logiques industrielles existantes et mieux soutenu par les dispositifs actuels, il tend à reléguer le réemploi au second plan. Le cadre réglementaire demeure historiquement structuré autour du traitement des déchets plutôt que de leur évitement.

L’arrêté du 10 juin 2022, qui fait office de cahier des charges pour la REP, fixait pourtant un objectif de 5 % de réemploi à l’horizon 2028, sur un gisement estimé à 21 millions de tonnes par an – un objectif qui paraît aujourd’hui difficilement atteignable au regard des résultats observés.

Les données de l’Ademe, portant sur environ 11 000 producteurs adhérents, illustrent ce déséquilibre :

  • 182 millions de tonnes de matériaux ont été mises sur le marché en 2024 ;

  • 10,7 millions de tonnes de déchets ont été collectées ;

  • Le réemploi plafonne à 29,3 kilotonnes, soit moins de 0,3 % des tonnages collectés.

Les raisons du non-réemploi

Pourquoi, dès lors, le réemploi demeure-t-il marginal malgré les objectifs affichés ? Notre étude de terrain, publiée dans Business Strategy & the Environment, menée en 2025 auprès de 69 professionnels du bâtiment (maîtres d’ouvrage, architectes, constructeurs, bureaux de contrôle, laboratoires…) montre que le réemploi des matériaux inertes – briques, dalles béton, pavés, tuiles –, qui représente 80 % des déchets du bâtiment, ne bute pas sur un seul problème technique, mais sur une accumulation de contraintes qui se déploient tout au long de la chaîne de valeur, depuis la programmation jusqu’à la mise en œuvre sur le chantier.

Prenons l’exemple d’un promoteur immobilier qui souhaite intégrer, dans une nouvelle opération, des briques issues d’un ancien immeuble qu’il n’a pas construit et dont il connaît mal l’histoire. Dès la phase de cadrage, les premières difficultés apparaissent. Les diagnostics déchets – désormais obligatoires – suffisent à dire que ces briques peuvent être recyclées, mais ne permettent pas de documenter leur réemploi : on ne connaît ni leur état réel, ni leur mode de fixation, ni leur résistance résiduelle, ni leur exposition passée à l’humidité ou au gel.

Résultat : l’architecte ne sait pas si ces briques pourront être utilisées en façade porteuse ou seulement en parement décoratif. Le doute porte sur des risques très concrets : fissures, perte de résistance mécanique, non-conformité aux exigences actuelles.

Vient ensuite le verrou de la conformité des matériaux. Qui supporte le risque si un matériau se révèle non conforme ? Le maître d’ouvrage ? L’entreprise chargée de la dépose ? Le revendeur ? Faute de règles et de recommandations professionnelles, la responsabilité reste un élément bloquant. Chacun se protège.

Dans le doute, les briques sont très souvent écartées – non parce qu’elles seraient inutilisables, mais parce qu’aucun cadre clair ne permet d’en sécuriser l’usage. Le risque n’est pas seulement juridique : c’est aussi celui d’un refus en contrôle, d’un retard de chantier, ou de surcoûts liés à des essais supplémentaires en laboratoire, qui finissent par désavantager économiquement les matériaux réemployés face aux produits neufs certifiés.

Enfin, la réalité du chantier rattrape les intentions. Déposer des briques sans les casser prend du temps. Il faut ensuite repérer les gisements disponibles, les trier, reconditionner les lots sélectionnés, les stocker. Or, les calendriers des opérations de déconstruction et de construction coïncident rarement : des briques peuvent être disponibles aujourd’hui, alors que le chantier susceptible de les réemployer ne démarrera que dans six mois. Sans solution de stockage tampon ni logistique organisée, le gisement repéré se perd.

Sous la pression des délais, les entreprises se replient sur des matériaux neufs, jugés plus simples à intégrer, tandis que les reconditionneurs – qui travaillent sur des flux diffus, hétérogènes, à faible tonnage mais à forte intensité de main-d’œuvre – jugent les soutiens des éco-organismes insuffisants.

Ce décalage crée un effet d’éviction : même lorsque le réemploi est plus vertueux sur le plan environnemental, il devient économiquement moins attractif que l’orientation rapide des matériaux vers les filières de recyclage, dont le modèle économique repose sur des soutiens financiers de la REP calculés à la tonne, ce qui favorise les volumes élevés.

Le paradoxe est là : la REP est avant tout conçue pour collecter et trier des déchets. Tout est organisé pour alimenter des filières de recyclage déjà en place. À l’inverse, le réemploi suppose d’agir plus tôt : identifier les matériaux en amont des opérations de déconstruction (ou de réhabilitation), organiser leur dépose sans casse, leur stockage temporaire et leur remise sur le marché. Or ces étapes amont sont encore peu financées et peu outillées par la REP. Résultat : le système favorise mécaniquement le recyclage de masse et laisse le réemploi en marge.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Réemploi des matériaux : Pourquoi est-ce si compliqué dans le bâtiment ? – https://theconversation.com/reemploi-des-materiaux-pourquoi-est-ce-si-complique-dans-le-batiment-277385

Ce qu’un trou béant dans le tablier d’un pont à Châteauguay révèle sur le vieillissement des infrastructures au Canada

Source: The Conversation – in French – By Amirreza Torabizadeh, PhD candidate, Civil Engineering, Concordia University

A hole on the Sauvagine Bridge in Chateauguay, Québec, on March 4, 2026. (Eric Allard, Mayor of Chateauguay/Facebook)

Lorsqu’un trou profond est récemment apparu d ans le tablier d’un pont à Châteauguay, au Québec, bien des gens ont naturellement manifesté leur inquiétude. Plusieurs résidants ont même exprimé des réticences à emprunter le pont après avoir vu des images montrant l’armature d’acier exposée et le béton endommagé, et certaines personnes ont déclaré aux médias locaux qu’elles réfléchiraient à deux fois avant de l’emprunter.

Pour les automobilistes qui empruntent le pont tous les jours, cette situation soulève une question : comment une chose aussi grave a-t-elle pu se produire soudainement sur un pont qui demeure ouvert à la circulation ?

En réalité, ce genre d’incident ne survient que rarement du jour au lendemain. Ce que le public perçoit comme une défaillance soudaine n’est souvent que l’aboutissement visible d’une détérioration qui progressait à l’intérieur de la structure depuis de nombreuses années.

(CTV News)

Des ponts Canadiens construits il y a des décennies

Souvent, ce n’est pas le pont en entier qui est atteint dans de telles situations, mais le tablier, soit la plate-forme de béton sur laquelle circulent les véhicules. Bien que grave, une faille localisée du tablier n’équivaut pas à un effondrement de la principale structure porteuse du pont.




À lire aussi :
De nouvelles technologies permettent de détecter plus tôt les problèmes des ponts vieillissants


Les ponts sont généralement conçus au moyen de plusieurs éléments structurels sur lesquels se répartit la charge totale de l’ouvrage, et les ingénieurs évaluent minutieusement ces éléments avant de décider si la circulation peut se maintenir en toute sécurité sur les différentes parties du pont.

Néanmoins, l’apparition de ce type de dommages met en lumière un défi plus vaste auquel sont confrontées les villes partout au Canada : le vieillissement des infrastructures.

De nombreux ponts actuellement en service ont été construits il y a plusieurs décennies, souvent dans les années 1950, 1960 ou 1970. Or, au fil du temps, le rigoureux climat canadien entraîne une détérioration progressive des structures en béton armé.

Au Québec, les cycles de gel et de dégel, les infiltrations d’eau et le recours aux sels de déglaçage en hiver créent ensemble des conditions particulièrement dures pour les tabliers de pont. Les chlorures contenus dans les sels de voirie peuvent pénétrer dans le béton et corroder l’armature d’acier. À mesure que progresse la corrosion, les zones de rouille grandissantes provoquent des fissures et des dislocations à l’intérieur du béton, ce qui entraîne parfois le détachement de parties du tablier.

Comme ce processus se déroule en profondeur, la détérioration n’est pas toujours immédiatement visible en surface. Lorsque des fissures ou des trous apparaissent, les dommages peuvent déjà avoir progressé depuis des années.

Détecter les problèmes à l’avance

Pour les ingénieurs, l’un des principaux défis consiste à comprendre les effets des dommages sur la performance structurelle de l’ensemble du pont. Les inspections visuelles restent un outil essentiel pour détecter ces dommages, mais elles ne permettent pas toujours de déterminer l’incidence de la détérioration sur le comportement structurel de l’ouvrage.

Nos recherches ont montré que la modélisation informatique peut apporter des informations importantes sur l’interprétation des dommages. Les simulations numériques permettent de reproduire des mécanismes tels que la fissuration, la dégradation des matériaux et les variations de l’interaction entre l’armature d’acier et le béton. En intégrant ces effets dans les analyses structurelles, les ingénieurs sont mieux en mesure d’évaluer la capacité que conserve une structure vieillissante et de détecter les vulnérabilités potentielles avant qu’elles ne dégénèrent en problèmes plus graves.




À lire aussi :
Comment mieux construire ? Voici un nouveau guide qui assure la durabilité et la résilience des infrastructures


Outre les inspections visuelles et les données de surveillance, la modélisation computationnelle peut également constituer un moyen économique d’évaluer le vieillissement des infrastructures. Dans le cadre de simulations, des scénarios virtuels permettent aux ingénieurs d’étudier les effets des mécanismes de détérioration — tels que la fissuration, la corrosion ou la dégradation de l’adhérence entre l’armature et le béton — sur le comportement structurel d’un pont.

Ces simulations permettent d’évaluer l’incidence de dommages localisés comme la détérioration du tablier d’un pont sur le comportement structurel de la construction. Comme ces analyses s’appuient principalement sur des outils informatiques plutôt que sur des essais physiques à grande échelle, elles peuvent fournir de précieux renseignements à un coût relativement bas et contribuer à éclairer les décisions en matière d’entretien et de mise à niveau.

Sécurité à long terme

L’incident survenu à Châteauguay nous rappelle une fois de plus que les infrastructures du Canada vieillissent rapidement. Pour garantir la sécurité publique, les décideurs doivent adopter une approche proactive plutôt que réactive.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Pour assurer la sécurité, il est nécessaire de mettre au point de meilleurs outils de compréhension des processus invisibles qui affaiblissent les structures au fil du temps. Ces outils permettront d’intervenir plus rapidement et en meilleure connaissance de cause pour effectuer des travaux de réparation et de modernisation.

À mesure que les ponts du pays vieillissent, le maintien de leur sécurité à long terme nécessitera à la fois des inspections et un entretien réguliers, des analyses techniques avancées et, au besoin, le recours à des techniques de renforcement efficaces.

Les problèmes peuvent commencer par de gros trous qui apparaissent dans le tablier des ponts, mais ces incidents mettent en évidence la nécessité d’un débat beaucoup plus large sur la manière dont les pouvoirs publics entretiennent et rénovent les infrastructures dont dépendent quotidiennement des millions de personnes.

La Conversation Canada

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Ce qu’un trou béant dans le tablier d’un pont à Châteauguay révèle sur le vieillissement des infrastructures au Canada – https://theconversation.com/ce-quun-trou-beant-dans-le-tablier-dun-pont-a-chateauguay-revele-sur-le-vieillissement-des-infrastructures-au-canada-279302

Demain, qui produira les récits qui façonnent nos sociétés ?

Source: The Conversation – France (in French) – By Tom van Laer, Professor of Persuasive Language and Storytelling, SKEMA Business School

Ces dernières années, les politiques culturelles sont redevenues un sujet de débat en Europe. Dans plusieurs pays de l’Union européenne, la montée de l’extrême droite s’accompagne de critiques croissantes à l’égard des subventions publiques au secteur culturel, jugées coûteuses ou inefficaces. Dans un environnement médiatique de plus en plus structuré par quelques grandes plateformes états-uniennes, que signifie encore soutenir une production audiovisuelle souveraine ? Que risque une société lorsqu’elle affaiblit sa capacité à produire et à diffuser ses propres histoires ?


Chaque printemps à Lille (Nord), le festival Séries Mania, dont la saison 2026 s’achève ce vendredi 27 mars, rassemble des milliers de spectateurs, professionnels et créateurs autour des séries télévisées du monde entier. Devenu le plus grand événement mondial consacré aux séries, le festival a attiré plus de 108 000 visiteurs et près de 5 000 professionnels issus de 75 pays en 2025. L’événement est en grande partie soutenu par des financements publics : collectivités locales, le Centre national du cinéma (CNC) et l’Union européenne (UE).

Derrière les tapis rouges, le Rassemblement national (RN) a critiqué ce type d’investissements au nom d’un argument simple : la culture devrait fonctionner comme n’importe quel marché. Si une œuvre trouve son public, elle survivra ; sinon, elle disparaîtra.

Mais cette vision fait fi d’un élément central : la production culturelle ne se limite pas à des biens économiques. Elle constitue aussi un écosystème de récits, qui façonne la manière dont une société se comprend et se projette.

Le marché ne mesure pas tout

L’argument du RN repose sur une logique de rentabilité immédiate. Pourtant, des séries comme Dix pour cent (2015-2020), Lupin (depuis 2021), Borgen (Danemark, 2010-2022), ou La Casa de Papel (Espagne, 2017-2021) ne sont pas de simples produits : ce sont des miroirs collectifs. Leur impact social dépasse souvent leurs performances commerciales immédiates, tout en s’inscrivant parfois dans un succès international à long terme, largement amplifié par les plateformes américaines.

Les chercheurs en économie de la culture soulignent depuis longtemps que les biens culturels produisent de nombreuses externalités positives : non seulement le renforcement de la langue (argument fétiche du RN), mais aussi la transmission culturelle, l’innovation et l’inspiration et le rayonnement international.

Le rapport de l’Unesco sur les industries culturelles et créatives face à la pandémie de Covid-19 montre, par exemple, que ces secteurs génèrent non seulement des revenus économiques, mais aussi des bénéfices sociaux, notamment en matière d’éducation et de participation culturelle.

Les festivals, comme Séries Mania, et les mécanismes publics de soutien permettent précisément de prendre en compte ces effets plus larges, que le marché seul peine à valoriser.

Les histoires changent les attitudes et les comportements

Depuis plusieurs décennies, les sciences sociales étudient l’effet des récits sur les individus. Les recherches sur la « transportation narrative », développées par mes collègues et moi, montrent que les histoires peuvent modifier les attitudes et les comportements lorsqu’un public est immergé dans un récit. Dans cet état d’immersion, les spectateurs deviennent plus réceptifs aux idées et aux valeurs portées par l’histoire.

Notre recherche montre ainsi que les récits influencent la persuasion, les émotions et les attitudes du public. Nos travaux sur la narration et sa réception confirment que l’engagement narratif peut même affecter durablement des décisions et des comportements.

Ces résultats dépassent largement la communication commerciale. Ils suggèrent que les récits médiatiques contribuent à structurer les représentations collectives, qu’il s’agisse de valeurs sociales, de visions du futur ou d’identité collective. Comme le résume une maxime souvent attribuée aux Hopis, peuple autochtone d’Amérique du Nord :

« Ceux qui racontent les histoires gouvernent le monde. »

Autrement dit contrôler les récits revient à orienter la manière dont une société comprend la réalité.

Les histoires partagées comme espaces de médiation culturelle

Enfin, les événements culturels jouent aussi un rôle civique. Selon les travaux sur l’expérience culturelle immersive, les histoires partagées créent des lieux de rencontre entre territoires, générations et milieux sociaux. Ils offrent une communauté partagée où les récits circulent et où les spectateurs peuvent débattre de questions contemporaines à travers la fiction.

Dans une période marquée par la fragmentation médiatique et la polarisation politique, ce forum public remplit une fonction non négligeable dans la cohésion démocratique.

Une infrastructure narrative

Au fond, la question n’est peut-être pas seulement celle du financement d’une industrie. Elle concerne la capacité d’une société à maintenir ce que l’on pourrait appeler une infrastructure narrative au-delà du marketing.

Comme les infrastructures physiques (routes, réseaux numériques, etc.), cette infrastructure est rarement visible. Pourtant, loin d’être un luxe, elle permet la circulation des idées, des imaginaires et des identités.

La recherche sur le rôle des récits dans l’imagination des futurs montre que les histoires structurent profondément les perceptions collectives. Elles influencent la manière dont les individus interprètent les événements sociaux ou politiques. Plus largement, le travail sur les imaginaires collectifs souligne que les représentations culturelles contribuent à orienter la manière dont les sociétés envisagent leurs transformations et leur avenir.

Affaiblir les institutions qui soutiennent la création culturelle ne signifie donc pas seulement produire moins d’œuvres. Cela peut aussi réduire la disponibilité des récits.

Produire des récits, une forme de souveraineté

Dans ce contexte, soutenir la création audiovisuelle revient aussi à soutenir la capacité d’un pays à produire ses propres histoires. Ce soutien est donc un levier de souveraineté.

Le politiste Joseph Nye, professeur à Harvard, a popularisé le concept de soft power : l’influence qu’un pays exerce non par la contrainte, mais par l’attraction culturelle et symbolique. Les États-Unis ont longtemps exercé cette influence à travers Hollywood et les séries télévisées. Plus récemment, la Corée du Sud a renforcé sa visibilité internationale grâce à ses films, sa musique et ses séries, phénomène souvent qualifié de K-wave ou de hallyu (« vague coréenne »). Les anime japonais sont aussi souvent cités comme exemples de cette influence narrative.

Les industries culturelles représentent ainsi une part importante de l’économie française : 2,9 % du PIB en 2024, plus de 100 milliards d’euros de chiffre d’affaires et environ 586 000 emplois directs. Comme le souligne le rapport « Creative Economy Outlook » des Nations unies, les secteurs créatifs contribuent aussi au rayonnement international du pays. Dans un contexte où les budgets de production tendent à orienter la création vers des formats facilement exportables, les institutions, comme le CNC en France, ou le Forum européen du film, jouent donc un rôle stratégique.

Dans ce contexte, réduire fortement les soutiens culturels peut avoir un effet paradoxal : affaiblir la capacité d’un pays à produire et à diffuser ses propres récits, au moment même où les plateformes américaines structurent de plus en plus la circulation des contenus. La réalisatrice afghane Shahrbanoo Sadat résume ce problème ainsi :

« L’Afghanistan n’a pas d’industrie cinématographique, et il est souvent mal représenté par les films réalisés par des cinéastes internationaux. Le seul type de film que l’on attend est un drame de guerre. »

Financer des récits, c’est aussi financer une identité collective

À court terme, réduire les subventions culturelles peut sembler une décision budgétaire parmi d’autres. Mais à plus long terme, la question devient celle de la souveraineté narrative : qui produit les histoires qui circulent dans une société ?

Les récits ne se contentent pas de divertir : ils tissent la trame de la démocratie. Les festivals, les institutions et les programmes de soutien contribuent ainsi à maintenir un espace où les récits peuvent être produits, expérimentés et partagés.

Dans un environnement médiatique dominé par quelques grandes plateformes américaines, les politiques culturelles jouent souvent un rôle de contrepoids. Elles permettent de maintenir des voix, des perspectives et des formats français et européens.

Autrement dit, ce que financent les politiques culturelles ne se limite pas à des films ou à des séries. Elles soutiennent un écosystème de création et de circulation des histoires qui participent à la construction d’une identité collective. Et lorsqu’un pays affaiblit cet écosystème, il ne perd pas seulement une industrie. Il risque aussi de perdre une partie de sa capacité à raconter le monde et à se raconter lui-même.

The Conversation

Tom van Laer a participé à des discussions politiques sur l’audiovisuel européen, notamment dans le cadre du Forum européen du film organisé par la Commission européenne. Il ne travaille pas, ne conseille pas et ne reçoit pas de financement d’organisations susceptibles de tirer profit de cet article.

ref. Demain, qui produira les récits qui façonnent nos sociétés ? – https://theconversation.com/demain-qui-produira-les-recits-qui-faconnent-nos-societes-277562

Qu’est-ce que l’« IA agentique » ? Comprendre son histoire pour dépasser l’effet de mode

Source: The Conversation – France in French (2) – By Maxime Morge, Professeur d’Informatique, Université Claude Bernard Lyon 1

Réserver un voyage en comparant des centaines d’offres, rédiger un rapport à partir de plusieurs documents, analyser des données médicales ou corriger automatiquement un programme informatique : ces tâches exigent de la réflexion, de la méthode et des compétences variées. L’« IA agentique » promet désormais de les accomplir de manière autonome, en orchestrant les opérations nécessaires, en utilisant des outils et en corrigeant ses propres erreurs… Toutefois, l’IA agentique actuelle ne recouvre pas encore toute la richesse du concept d’« agent autonome » tel qu’il a été élaboré dans les décennies précédentes.


Le cabinet Gartner a présenté 2026 comme l’année des « agents IA ». Ces systèmes dépassent la simple amélioration des assistants conversationnels. Les agents IA d’OpenClaw sont d’ores et déjà capables de dialoguer entre eux et d’exécuter des tâches complexes avec une supervision humaine limitée. Pour les entreprises, que ce soit dans l’industrie, l’administration ou la santé, la promesse est celle d’une automatisation plus souple qu’avec les logiciels traditionnels, capable de s’adapter à des situations variées plutôt que d’appliquer des règles prédéfinies.

Pourtant, derrière l’apparente nouveauté se cache une histoire plus ancienne. L’IA agentique s’inscrit dans la continuité de plusieurs décennies de recherche sur les agents autonomes et les systèmes multi-agents. Ce qui change aujourd’hui, ce sont les outils, notamment les grands modèles de langage et leur capacité à interagir plus naturellement avec les humains.

De la génération de texte à l’action

Les modèles conversationnels, comme ChatGPT, Gemini ou Claude, impressionnent par leur aptitude à résumer ou à rédiger des textes complexes. Pris isolément, ils restent toutefois essentiellement réactifs : ils produisent une réponse en fonction d’une requête. Un agent autonome va plus loin. Il peut analyser une demande, planifier une séquence d’opérations, utiliser des outils externes (moteur de recherche, base de données, logiciel), évaluer le résultat obtenu et ajuster sa stratégie si nécessaire.

Là où un modèle de langue se limite à écrire un programme informatique, un agent peut l’exécuter dans un environnement sécurisé, observer les erreurs éventuelles, corriger le code, puis le tester à nouveau. En somme, les agents IA ne font pas que parler, ils agissent.

Le passage de la génération de texte à l’action transforme la nature même du logiciel. Alors qu’un programme suit des instructions précisément définies à l’avance, un agent autonome peut, lui, adapter dynamiquement ses décisions en fonction du contexte, des résultats obtenus et des objectifs fixés. Il ne remplace pas nécessairement l’humain, mais modifie la répartition des tâches entre supervision et exécution.

Promesses et risques

Cette évolution ouvre des perspectives considérables. Dans les organisations, des agents peuvent automatiser des processus métiers laborieux. Dans l’industrie, ils peuvent coordonner des systèmes logiciels complexes. Dans le domaine médical, ils peuvent analyser des dossiers, rechercher des publications pertinentes et proposer des synthèses pour assister les médecins. Mais ces promesses s’accompagnent de risques.

En effet, les modèles actuels peuvent produire des informations inexactes, les fameuses hallucinations, et sont susceptibles de reproduire des biais présents dans leurs données d’entraînement. Si les agents sont cantonnés à un rôle d’assistant, ces limites sont déjà problématiques ; elles deviennent critiques lorsqu’elles concernent des systèmes capables d’agir sur des infrastructures techniques, notamment en exécutant des commandes système, en manipulant des fichiers ou en envoyant des requêtes réseau.

La question des agents d’IA n’est donc pas seulement technique : elle est aussi juridique, économique et sociétale. Elle touche à la transformation du travail qualifié et à la gouvernance des systèmes informatiques.

Une filiation historique

L’idée d’un agent autonome n’est pas née avec les modèles de langue. Elle remonte aux origines mêmes de l’intelligence artificielle. En 1956, lors de la conférence fondatrice de Dartmouth (au nord-est des États-Unis), l’un de ses organisateurs, Marvin Minsky, définissait déjà l’IA comme la conception de programmes capables d’accomplir des tâches mobilisant des capacités dites intelligentes telles que comprendre, apprendre, raisonner ou décider.

À partir des années 1980, la notion d’« agent intelligent » devient centrale. Un « agent » est alors défini comme un programme capable de percevoir son environnement, de prendre des décisions et d’agir pour atteindre des objectifs. Très tôt, les chercheurs développent le champ des systèmes multi-agents : des ensembles organisés de programmes autonomes qui interagissent dans un même environnement numérique. L’objectif est de comprendre comment ces entités peuvent se coordonner, coopérer ou entrer en compétition afin de résoudre des problèmes complexes.

Plusieurs travaux emblématiques illustrent concrètement cette approche. Le système HEARSAY-II repose sur un modèle de « tableau noir ». Plusieurs modules spécialisés pour la reconnaissance, l’analyse et l’interprétation du langage contribuent à la compréhension de la parole en partageant leurs hypothèses dans un espace commun structuré. Le Contract Net Protocol propose un mécanisme inspiré des appels d’offres : pour réaliser une tâche, un agent émet un appel à proposition, d’autres agents proposent leurs services, et les plus compétents se voient attribuer le contrat. Autrement dit la coordination entre agents est au cœur de l’IA depuis plusieurs décennies.

Un réservoir d’idées encore sous-exploité

Mais si l’idée d’agent n’est pas nouvelle, l’« IA agentique » s’impose aujourd’hui auprès des non-spécialistes en raison du rôle central joué par les grands modèles de langue. Bien que dénués de compréhension causale et de compréhension du monde physique, ceux-ci fournissent aux agents une capacité linguistique et une forme de « sens commun » statistique qui facilitent l’interaction avec les humains et l’interprétation d’instructions complexes en langage naturel.

Toutefois, l’IA agentique actuelle ne recouvre pas encore toute la richesse du concept d’agent autonome tel qu’il a été élaboré dans les décennies précédentes. Dans la pratique, elle repose encore le plus souvent sur une séquence d’actions où chaque étape est prévue et ordonnée à l’avance. Les travaux menés depuis les années 1990 sur les systèmes multi-agents qui portent sur la coopération, la négociation, l’allocation de tâches et l’adaptation collective offrent un réservoir d’idées encore largement sous-exploitées.

L’intégration de ces mécanismes avec les capacités des grands modèles ouvre pour demain des perspectives nouvelles : des agents capables non seulement d’exécuter un plan mais de s’organiser collectivement, de se spécialiser et de s’adapter à des environnements complexes.

L’IA agentique constitue ainsi une nouvelle étape plutôt qu’une rupture. Elle associe l’héritage théorique des systèmes multi-agents à la puissance récente des modèles génératifs. Comprendre cette filiation historique permet de dépasser l’effet de mode. L’IA agentique représente une tentative de transformer des modèles prédictifs en systèmes capables d’agir, de planifier et, peut-être demain, de s’organiser collectivement dans des environnements complexes.

The Conversation

Maxime MORGE a reçu des financements de Lyon 1 Université et CNRS, .

ref. Qu’est-ce que l’« IA agentique » ? Comprendre son histoire pour dépasser l’effet de mode – https://theconversation.com/quest-ce-que-l-ia-agentique-comprendre-son-histoire-pour-depasser-leffet-de-mode-278682

Quand la pratique médicale perpétue des stéréotypes hérités du racisme scientifique des XVIIIᵉ et XIXᵉ siècles

Source: The Conversation – France in French (3) – By Élodie Edwards-Grossi, PhD, Associate Professor in Sociology and American Studies, Université Paris Dauphine – PSL

Au XVIIIᵉ puis au XIXᵉ siècle, des scientifiques et des médecins théorisaient une supposée supériorité des personnes blanches, en s’appuyant sur des critères biologiques. Dans le Racisme scientifique et médical (éditions PUF, 2026), Élodie Edwards-Grossi (Université Paris Dauphine-PSL/Institut universitaire de France) et Delphine Peiretti-Courtis (Aix-Marseille Université) expliquent comment, aujourd’hui, la pratique médicale perpétue des stéréotypes et biais raciaux hérités de ces thèses qui nuisent à la prise en charge en santé des personnes racisées. Extraits.


Le 26 décembre 2024, un député français d’extrême droite partageait, sur le réseau social X (anciennement Twitter), une carte censée représenter le Quotient Intellectuel moyen par pays, qui rappelait en tout point les procédés classificatoires du XIXe siècle.

Ce planisphère révèle toute la prégnance et les permanences, à l’heure actuelle, de la ferveur taxinomique et du racisme scientifique nés aux XVIIIe et XIXe siècles, et pose la question de ses ramifications avec la sphère politique.

La notion de « race » relayée sur les réseaux sociaux

Relayée auprès d’un large public francophone par ce député, cette carte avait déjà été abondamment relayée sur les réseaux sociaux en 2019. Elle avait même suscité la création d’un mot-clé « #carte QI », utilisé pour donner une grande visibilité à ces théories.

Cette carte est, hélas, loin d’être la seule occurrence de diffusion de croyances biologisantes et hiérarchisantes à propos de la notion de « race » sur Internet, comme en témoignent de nombreux articles de vulgarisation scientifique, émettant l’idée, pour le grand public, que cette catégorie pourrait, à nouveau, être appréhendée avec la génétique.

Analyser les résurgences actuelles du racisme scientifique

Dans ce contexte, les théories racistes empreintes d’un réalisme biologique recouvrent une fonction sociale et politique bien particulière : celle de la légitimation de courants et d’idéologies inégalitaires, qui, pour exister, doivent avant tout s’appuyer sur l’idée que la déshumanisation d’une partie de la population est la résultante de caractéristiques naturelles et inébranlables, ancrées dans les corps et les esprits de ces mêmes individus.

Le racisme scientifique, à travers le déploiement du réalisme biologique, propose ainsi une caution non négligeable à des programmes politiques façonnant les inégalités. Il revêt une double fonction : il est à la fois le produit et le levier de l’ordre social raciste dans lequel il est façonné, et sans cesse réactivé, tout en fournissant à ses partisans les justifications de son maintien.

Dans quels contextes politiques et géographiques les théories et pratiques qui constituent le racisme scientifique et médical apparaissent-elles ? Pouvons-nous relever des systématicités dans les parcours de leurs auteurs ? Quels positionnements entretiennent-ils vis-à-vis de leurs pairs, des décisionnaires politiques, mais aussi du grand public ? Enfin, quelles résurgences pouvons-nous mettre en exergue ?

C’est précisément le sujet de l’ouvrage le Racisme scientifique et médical : ancré en histoire et en sociologie de la connaissance, celui-ci propose de documenter les modalités de production et de circulation du racisme scientifique et médical et leurs réappropriations sociales et politiques.

Quand les corps et les esprits des personnes racisées sont infériorisés

La notion de racisme scientifique et médical recouvre a priori de nombreuses théories et pratiques. Des historiens ayant travaillé de manière pionnière sur le sujet, tels Claude Blanckaert ou Stephen Jay Gould, ont décrit le racisme scientifique comme l’ensemble des théories et pratiques se réclamant de différents champs scientifiques (on peut citer la biologie, la psychologie, la génétique, l’anthropologie, etc.) proposant une définition altérisant, et infériorisant, les corps et les esprits des personnes racisées.

Présentées comme « scientifiques » par leurs instigateurs et leurs soutiens, ces théories établissent, dans le même temps, la supposée supériorité tacite ou explicite des personnes blanches en utilisant les mêmes critères corporels ou mentaux variés : le QI, la taille des crânes, l’intelligence sont autant de points qui reviennent dans ces études suggérant l’infériorité des uns au profit de la primauté des autres. Ces écrits ont été produits et ont circulé dans des contextes politiques épars et révèlent une forte porosité quant aux liens entre science et politique.

Un fait social contemporain qui touche le champ médical

Réinsérer la question du racisme scientifique et médical dans une approche critique des rapports sociaux de race, grâce à un dialogue transdisciplinaire entre sciences sociales et sciences historiques, c’est comprendre comment les artisans du racisme scientifique bénéficient d’un besoin de méconnaissance pour voir advenir leurs théories. Pour exister, ces théories ont besoin d’un vide épistémologique qui s’inscrit dans une histoire longue de la production de l’ignorance.

Cette production de l’ignorance a largement été produite par l’appareil étatique qui se refusait, et se refuse encore, à produire une analyse rigoureuse des rapports sociaux de race. Celle-ci permettrait notamment de mettre à mal les croyances et itérations, toujours présentes, de la race comme catégorie d’analyse biologique malgré son invalidation dans la deuxième moitié du XXe siècle.

Nous souhaitons insister sur le fait que le racisme scientifique et médical est bien un fait social contemporain, débordant du cadre historique que nous nous proposons d’étudier dans cet ouvrage : bien que l’autorité médicale cherche à entrer dans un rapport d’exceptionnalisme de son champ, le champ médical n’est pas exempt des rapports sociaux qui le modèlent.

Des effets sur les trajectoires de vie des individus

La question des tissages historiques et des résurgences du racisme scientifique et médical est ainsi capitale : loin d’avoir disparu, celui-ci a parcouru les époques et produit un effet encore conséquent.

À titre d’exemple, en décembre 2024, plusieurs quotidiens régionaux rapportèrent qu’une femme racisée avait accouché, sans prise en charge, sur le parking d’un hôpital à Dijon, en Côte d’Or, malgré ses appels à l’aide. L’un des journalistes relatant l’événement avait titré son article « On la refuse aux urgences : cette femme a dû accoucher dans le parking (et ça en dit long sur les préjugés racistes) ». Mettant en lien la mise en danger de cette femme et la longue histoire du syndrome méditerranéen en France, cet article souligne la manière dont des stéréotypes de résistance à la douleur des personnes racisées, formulés dès le XIXe siècle ont pu être transmis et rester vivaces jusqu’à nos jours.

De tels stéréotypes préfigurent bien la manière dont le racisme scientifique et médical produit un effet concret sur les trajectoires de vie et de mort des individus. Pour reprendre les mots toujours aussi actuels de Colette Guillaumin, autrice pionnière dans le champ des études sur le racisme en France, cet exemple met en relief « la réalité de la “race”. Cela n’existe pas. Cela pourtant produit des morts ». Les inégalités et différences de prises en charge de santé du fait de la subsistance de biais raciaux en médecine produisent une mise en danger différentielle et accrue des corps racisés. Ainsi, de cette manière, le racisme scientifique et médical peut être vu comme l’une des facettes matérielles, concrètes et opérantes du racisme structurel.

Stéréotypes, biais et pratiques discriminatoires

Partant du principe que la classe sociale ou les facteurs socio-économiques ne peuvent pas expliquer l’ensemble des trajectoires de soins de ces personnes, le concept de racisme médical s’intéresse par exemple aux biais présents et passés qui modèlent les représentations et les pratiques des médecins et psychiatres, majoritairement issus du groupe dominant blanc envers leurs patients et patientes.

Ces biais ne sont pas la résultante d’actes de discriminations conscients et donc voulus : ils sont le fruit de l’accumulation de stéréotypes sur les corps racisés encore largement diffusés dans les salles de cours, dans les livres de médecine, mais aussi de l’agrégation d’allégations fausses, érigées en « données scientifiques » qui ont traversé les siècles, sans connaître une condamnation explicite, telle que la théorie du syndrome méditerranéen, qui consiste en la croyance erronée en une exagération de la douleur chez les personnes originaires du Maghreb et d’Afrique subsaharienne.

Ces théories, qui débouchent sur la formation de pratiques discriminatoires, entérinent des prescriptions médicamenteuses elles aussi différentielles qui ont pour résultante de nourrir chez la patientèle une certaine défiance à l’égard des médecins et de leurs institutions. Les patients et patientes choisissent parfois de ne plus faire confiance au personnel soignant, ou aux institutions les employant.

La médecine, instrument et vecteur de théories

Écrire de front sur le racisme scientifique, parfois vu comme seul objet historique, et le racisme médical nous semble important à plus d’un titre. Cela permet d’abord d’aller à l’encontre d’un récit exceptionnalisant qui viserait à mettre en exergue les spécificités du champ de la médecine (et de toutes ses spécialités, la chirurgie, la psychiatrie, la gynécologie, la cardiologie, la dermatologie, etc.) vis-à-vis du reste des sciences (sciences naturelles, biologie, pharmacie, etc.).

Les médecins acquièrent un statut sans précédent au cours du XVIIIe siècle, et plus encore durant le XIXe siècle, surnommé le siècle du scientisme. Producteurs de savoirs, ils sont également liés au pouvoir. Ce qui fait la spécificité de la médecine, et qui a notamment été mis en lumière par Michel Foucault par le biais du concept de biopouvoir, réside dans le rôle social et politique spécifique qu’elle détient, à l’instar de l’Église dans les siècles précédents.

En tant qu’experts des corps, des âmes, et donc des sociétés, les médecins s’arrogent la possibilité de statuer sur la normalité ou l’anormalité des corps, et sur ce qui constitue une différence ou une convergence humaine. En cela, la médecine devient le principal instrument et le vecteur de théories objectivant des différences corporelles présentées comme raciales.

C’est bien l’assignation d’une marque biologique à un groupe social donné qui produit la naturalisation de ce groupe, et radicalise, ainsi sa différence.

The Conversation

Élodie Edwards-Grossi a reçu des financements de l’Institut universitaire de France.

Delphine Peiretti-Courtis ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quand la pratique médicale perpétue des stéréotypes hérités du racisme scientifique des XVIIIᵉ et XIXᵉ siècles – https://theconversation.com/quand-la-pratique-medicale-perpetue-des-stereotypes-herites-du-racisme-scientifique-des-xviii-et-xix-siecles-279004