Le patron de la Fed visé par une enquête pénale : l’indépendance de la banque centrale des États-Unis attaquée

Source: The Conversation – in French – By Alain Naef, Assistant Professor, Economics, ESSEC

Donald Trump est en guerre affichée contre Jerome Powell, le président de la Réserve fédérale (Fed), la banque centrale des États-Unis. Misscabul/Shutterstock

Une enquête pénale vise Jerome Powell, l’actuel gouverneur de la puissante Réserve fédérale des États-Unis (Fed), dont le mandat arrive à terme en mai 2026. Donald Trump, dont la prérogative est de lui nommer un successeur, souhaite mettre à la tête de la Fed un de ses supporters, Kevin Hassett. Mais alors qui pour être le contre-pouvoir ? Contre-intuitivement, ce pourrait bel et bien être les marchés financiers.


Mervyn King, gouverneur de la Banque d’Angleterre de 2003 à 2013, aimait dire que « l’ambition de la Banque d’Angleterre est d’être ennuyeuse ». Le président de la Banque nationale suisse Thomas Jordan rappelait encore récemment que « la clé du succès est peut-être d’être ennuyeux ». Leur message est clair : la stabilité monétaire repose sur la prévisibilité, pas sur le spectacle.

Avec Donald Trump, cette règle pourrait changer. Le président des États-Unis, lui, n’aime pas être ennuyeux. S’il n’est pas clair que cela lui réussisse en politique intérieure ou extérieure, pour ce qui est de l’économie, c’est différent. La prévisibilité est un moteur de la stabilité des marchés et de la croissance des investissements. Dans ce contexte, les marchés pourraient être l’institution qui lui tient tête.

C’est ce rôle de contre-pouvoir que j’analyse dans cet article. Le conflit à venir se porte sur la nomination du successeur du président de la Réserve fédérale des États-Unis (Fed), la banque centrale des États-Unis, Jerome Powell dont le mandat expire en mai 2026. Dans la loi, le président de la première puissance mondiale a la prérogative de nommer un successeur.

Jerome Powell est actuellement visé par une enquête pénale du département de la justice américain, liée officiellement à la rénovation du siège de la Fed. Le président de la FED, lui, y voit une tentative de pression sur son indépendance, après son refus de baisser les taux d’intérêt. Donald Trump nie toute implication, même s’il dit de Powell qu’il « n’est pas très doué pour construire des bâtiments ». Pour de nombreux observateurs, le timing de l’attaque plaide pour une attaque politique. Les marchés ont réagi avec une montée du prix de l’or.

Car les présidents des banques centrales sont des personnages clés. Avec de simples mots, ils peuvent participer à créer des crises financières. Le président de la Bundesbank eut un rôle dans la crise du système monétaire européen de 1992. Si ce dernier s’était abstenu de faire un commentaire sur l’instabilité de la livre sterling, le Royaume-Uni aurait peut-être rejoint l’euro.

Gouverneurs technocrates

Traditionnellement, le choix du successeur n’est pas uniquement politique. Il se porte sur une figure reconnue, souvent issue du Conseil des gouverneurs. Les sept membres du Conseil des gouverneurs du système de la Réserve fédérale sont nommés par le président et confirmés par le Sénat. Il s’agit ordinairement de technocrates.

Les chercheurs Michael Bordo et Klodiana Istrefi montrent que la banque centrale recrute prioritairement des économistes formés dans le monde académique, soulignant la sélection d’experts de la conduite de la politique monétaire. Ils montrent que les clivages entre écoles « saltwater » (Harvard et Berkeley) et « freshwater » (Chicago, Minnesota). Les économistes freshwater étant plus restrictifs (ou hawkish) en termes de baisse de taux, alors que les « saltwater » préfèrent soutenir la croissance.

Ben Bernanke incarne cette tendance. Du 1er février 2006 au 3 février 2014, il est gouverneur de la FED. Après un premier mandat sous la présidente de George W. Bush, Barack Obama le nomme pour un second mandat. Ce professeur d’économie, défenseur de la nouvelle économie keynésienne, gagne le prix Nobel en 2022 pour ses travaux sur les banques et les crises financières. La gouverneure de 2014 à 2018, Janet Yellen, est auparavant professeure d’économie à Berkeley, à Harvard et à la London School of Economics.

Ce processus relativement apolitique est essentiellement technocratique. Ces conventions seront potentiellement bousculées pour la nomination du prochain gouverneur de la banque centrale des États-Unis. Évidemment, certains gouverneurs avaient des préférences politiques ou des liens avec le président.

Kevin Hassett, économiste controversé

Le candidat de Donald Trump pressenti par les médias est Kevin Hassett. Ce dernier s’inscrit dans le sillage de la vision du nouveau président des États-Unis en appelant à des baisses de taux brutales. Il a qualifié Jerome Powell de « mule têtue », ce qui alimente les craintes d’une Fed docile envers la Maison Blanche.

« Kevin Hassett a largement les capacités pour diriger la Fed, la seule question est de savoir lequel se présentera » entre « Kevin Hassett, acteur engagé de l’administration Trump, ou Kevin Hassett, économiste indépendant », explique Claudia Sahm, ancienne économiste de la Fed dans le Financial Times. C’est cette question qui inquiète les marchés. Cela même si l’économiste a presque 10 000 citations pour ses articles scientifiques et a soutenu sa thèse avec Alan Auerbach, un économiste reconnu qui travaille sur les effets des taxes sur l’investissement des entreprises. De façade, Hassett a tout d’un économiste sérieux. Uniquement de façade ?

Les investisseurs s’inquiètent de la politisation de la Fed. Depuis la nomination de Stephen Miran en septembre 2025 au Conseil des gouverneurs, les choses se sont pimentées. Le président du comité des conseillers économiques des États-Unis est un des piliers de la doctrine économique Trump. Il a longtemps travaillé dans le secteur privé, notamment au fonds d’investissement Hudson Bay Capital Management.

Si les votes de la Fed sont anonymes, le Federal Open Market Committee, chargé du contrôle de toutes les opérations d’open market aux États-Unis, publie un graphique soulignant les anticipations de taux d’intérêt des membres. Depuis l’élection de Stephen Miran, un membre vote en permanence pour des baisses drastiques des taux d’intérêt, pour soutenir Donald Trump. Sûrement Miran ?

Si le nouveau président de la Fed faisait la même chose, on pourrait assister à une panique à bord… qui pourrait éroder la confiance dans le dollar. Les investisseurs internationaux ne veulent pas d’une monnaie qui gagne ou perde de la valeur en fonction du cycle électoral américain. Pour que les investisseurs aient confiance dans le dollar, il faut qu’il soit inflexible à la politique.

Les marchés financiers en garde-fou

Le marché, à l’inverse de la Cour suprême des États-Unis ou du Sénat, n’a pas d’incarnation institutionnelle, mais il a tout de même une voix. Il réagit par les prix, mais pas seulement. Si on ne l’écoute pas, le marché pourrait-il hausser le ton, en changeant les prix et les taux d’intérêt ?

Quelles seraient les conséquences de la nomination d’un président de la Fed pro-Trump et favorable à des coupes de taux pour soutenir le mandat de Trump ? Il se peut que les investisseurs institutionnels puissent fuir la dette américaine, du moins à court terme. Cette réaction augmenterait potentiellement les taux d’emprunt du gouvernement, notamment à long terme.

« Personne ne veut revivre un épisode à la Truss », a résumé un investisseur cité par le Financial Times, à la suite de la consultation du Trésor auprès des grands investisseurs. Liz Truss, la première ministre du Royaume-Uni, avait démissionné sous la pression des marchés en septembre 2022. Elle avait essayé dans un « mini-budget » à la fois d’augmenter les dépenses et de réduire les impôts. Quarante-quatre jours plus tard, elle avait dû démissionner à cause de la fuite des investisseurs qui ne voulaient plus de dette anglaise, jugée insoutenable.

Donald Trump ne démissionnera probablement pas quarante-quatre jours après la nomination de Kevin Hassett. Mais, en cas de panique des marchés, Kevin Hassett lui-même pourrait sauter. Et le dollar perdre encore un peu plus de sa splendide.

The Conversation

Alain Naef a reçu des financements de l’Agence Nationale de la Recherche (ANR).

ref. Le patron de la Fed visé par une enquête pénale : l’indépendance de la banque centrale des États-Unis attaquée – https://theconversation.com/le-patron-de-la-fed-vise-par-une-enquete-penale-lindependance-de-la-banque-centrale-des-etats-unis-attaquee-272522

Heated Rivalry matters in a sporting culture that still sidelines queer men

Source: The Conversation – UK – By Joe Sheldon, Postgraduate Researcher, Department of Sociology, Social Policy, and Criminology, University of Liverpool

Heated Rivalry, the HBO TV adaptation of the second book in Rachel Reid’s Game Changers series, rounded out 2025 as a surprise, word-of-mouth success. It captures the relationship between Shane (Hudson Williams) and Ilya (Connor Storrie), two professional male hockey players, over the course of almost a decade. Along the way the pair negotiate their feelings for each other against the backdrop of internal conflict, homophobia and a manufactured public-facing rivalry.

Heated Rivalry’s unexpected success has helped it to become discussed in mainstream media, including US talk shows and sports podcasts, and has earned it a much-anticipated release in the UK (via Sky and Now TV).

Heated Rivalry is not the first gay male love story to see critical success on TV in recent years. Though other successes (including the Netflix Originals Heartstopper and Young Royals) have been less explicit and tended to be aimed at younger audiences. What is particularly unique about Heated Rivalry’s story, however, is its setting within the popular but hyper-masculine space of a men’s professional sporting league.

My PhD research focuses on the experience of football fandom in the face of oppressive and difficult conditions. The project is a passion of mine, and I adore the chance I get to speak with supporters from all backgrounds. However, despite loving football (soccer) to my bones, I – like many other queer sports fans – often feel that the experiences of sports fandom can be unrepresentative of my own community.


No one’s 20s and 30s look the same. You might be saving for a mortgage or just struggling to pay rent. You could be swiping dating apps, or trying to understand childcare. No matter your current challenges, our Quarter Life series has articles to share in the group chat, or just to remind you that you’re not alone.

Read more from Quarter Life:


Despite much stronger LGBTQ+ representation across women’s sports, male professional leagues still frequently remain dogged by homophobia, both in the stands and the changing rooms. As a result, in the imaginaries of fans – the way that fans interpret their role and experiences in the complex social, economic and cultural life of sport – queer fans can so frequently feel “othered” (actively treated as alien to a social group).

Social imaginaries are a shared (sometimes unconscious) set of beliefs, values and symbols that help a community to understand itself in the world. They often form the basis of laws or institutions. Critical research, including my own, uses imaginaries of how people understand their place in the modern economy to analyse people navigating the complexities of modern economic life.

These imaginaries are important – they help researchers make sense of how fans understand who sport is for and why they may feel this way. The manner in which people see their own place in their world tells us just as much as an analysis of the systems of capital, social relations and prejudice they are experiencing.

Gay and bisexual players in these leagues certainly exist. German footballer Thomas Hitzlsperger, for example, made his sexuality public following his retirement. Moreover, in 2020, an anonymous gay Premier League player penned a public letter explaining his hesitancy to share his sexuality, describing his day-to-day existence as an “absolute nightmare”.

These experiences, and the lack of subsequent representation within professional male sporting spaces, can frequently lead to fans feeling excluded from this arena of social life. The lack of openly gay players may be both caused and exacerbated by the prejudice experienced by supporters, with one 2018 study of football supporters finding that 63% of LGBTQ+ fans experienced homophobia and transphobia at games.

The trailer for Heated Rivalry.

The cultural success of Heated Rivalry helps demonstrate it is not that people from LGBTQ+ communities are naturally averse to wanting to participate in these spaces. There is something incredibly important about a story so confident in its masculinity, so assured of its legitimacy as a sports romance story, taking off in the way that this adaptation has.

Hudson Williams, one of Heated Rivalry’s lead actors, has revealed that he has been contacted by closeted male professional players from different sports following the show’s release. The significance of such an impact is not to be understated. Emboldening LGBTQ+ professionals to feel represented will be good for male sports, players and fans.

Already renewed for a second season, which will cover Reid’s follow-up book, The Long Game, Heated Rivalry demonstrates that the imaginaries of queer fans in male sports can be changed.

Leagues and clubs have an imperative to ensure that the work of real cultural change is undertaken to begin this process, learning from the success of the show.


Looking for something good? Cut through the noise with a carefully curated selection of the latest releases, live events and exhibitions, straight to your inbox every fortnight, on Fridays. Sign up here.


This article features references to books that have been included for editorial reasons, and may contain links to bookshop.org. If you click on one of the links and go on to buy something from bookshop.org The Conversation UK may earn a commission.

The Conversation

Joe Sheldon does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Heated Rivalry matters in a sporting culture that still sidelines queer men – https://theconversation.com/heated-rivalry-matters-in-a-sporting-culture-that-still-sidelines-queer-men-273143

India shows how urban forests can help cool cities – as long as planners understand what nature and people need

Source: The Conversation – UK – By Dhanapal Govindarajulu, Postgraduate Researcher, Climate Adaptation, University of Manchester

Chennai, India. Oybek Ostanov/Shutterstock

For many years, I lived in the Indian city of Chennai where the summer temperatures can reach up to 44°C. With a population of 4.5 million, this coastal city is humid and hot.

Its suburbs are home to 600 Hindu temples and there’s a wildlife reserve called Guindy national park in the heart of the city. Trees line some of the streets but green parks are few and far between – as is the shade.

As urbanisation accelerates across India and the rest of the developing world, urban forests become more vital. These clusters of trees in parks, gardens, public spaces and along roads and rivers in urban areas have multiple benefits – from cooling the surrounding air to providing homes for wildlife and creating space for people to enjoy nature. Yet they are often overlooked by city developers.

My research shows that, in Chennai, there are 26 square miles of tree and other vegetation cover, mainly accounted for by formal green spaces such as Guindy wildlife reserve. On the outskirts of this city, an area of nine square miles of unused land is ideally suited to creating more urban forest. Similarly, there is more potential space for urban forests in other fast urbanising Indian cities like Coimbatore and Tiruchirapalli.

Global urban planning guidelines recommend having at least 30% tree cover in urban areas. The World Health Organization suggests that cities should allow for nine square metres of urban tree cover per person. Most Indian cities don’t meet this requirement.

Improving urban forests in India has been a challenge for many years due to high land prices, lack of urban planning and little public participation in tree-planting initiatives.

Policies introduced by the Indian government to “green” urban areas often
equate tree planting with cooling cities and building climate resilience. But it’s not that simple. The success of urban forests depends on factors such as rainfall, understanding interactions with local wildlife and people’s needs.

A recent study warns that in hot, dry cities with limited water availability like Chennai, trees slow the cooling process by water evaporation from leaves and instead contribute to urban heat. Urban heat comes from the reflection and absorption of sunlight by buildings and land surfaces. This is particularly high in growing smaller Indian cities with populations of 1 to 5 million.

Planting trees with the sole aim of cooling cities could negatively affect wildlife too. Not all birds, bugs and mammals depend on trees for food or shelter. A study from researchers in Bengaluru, India, shows that non-native tree species contribute little to bird richness. Meanwhile, urban grasslands and marshlands that are often misclassified as “waste land” support wildlife and help regulate flooding.

In India, cities and villages have open “common” land where people graze their cattle or harvest fuelwood from trees that grow naturally there – tree-planting initiatives in these open land areas can displace poorer communities of people who rely on open lands for grazing and fuel wood collection.




Read more:
Climate change is making cities hotter. Here’s how planting trees can help


elaborate Hindu temply, blue sky, green tree in foreground
Parthasarathy Temple in Chennai, India.
so51hk/Shutterstock

Design with nature

Urban forests can be planned to meet the needs of people, birds and other wildlife.

In 1969, Ian McHarg, the late Scottish landscape architect and urban planner came up with the concept of “design with nature”, where development has a minimal negative effect on the environment. His idea was to preserve existing natural forests by proposing site suitability assessments. By analysing factors such as rivers and streams, soil type, slope and drainage, McHarg’s approach still helps planners to identify which areas suit development and which are best preserved for nature.

This approach has advanced with new technology. Now, geographic information systems and satellite imagery help planners integrate environmental data and identify suitable areas for planting new trees or conserving urban forests.

Using the principles of landscape ecology, urban planners can design forest patches in a way that enhances the connectivity of green spaces in a city, rather than uniformly planting trees across all open spaces. By designing these “ecological corridors”, trees along roads or canals, for example, can help link fragmented green spaces.

Planting native tree species suited to dry and drought-prone environments is also crucial, as is assessing the local community’s needs for native fruit-bearing trees that provide food.




Read more:
India was a tree planting laboratory for 200 years – here are the results


Growing urban forests

By 2030, one-third of India’s electricity demand is expected to come from cooling equipment such as air conditioning. Increasing urban forests could help reduce this need for more energy.

National-level policies could support urban forest expansion across India. In 2014, the government of India released its urban greenery guidelines and flagship urban renewal programmes such as the Smart Cities Mission have tried to increase tree cover. But guidelines often overlook critical considerations like ecological connectivity, native species and local community needs.

In 2020, the government of India launched Nagar Van Yojana (a scheme to improve tree cover in cities) with a budget of around US$94 million (£70 million). It aims to create urban forests through active participation of citizens, government agencies and private companies. But there is little evidence that urban forest cover has improved.

Urbanisation reduced tree cover in most Indian cities, and much of it was rather unplanned. But by protecting and planting more trees, citizens can live in greener, cooler cities. By shifting urban forest policy from counting trees to designing landscapes, plans that enhance climate resilience, nature conservation and social equity can be put into practice.


Don’t have time to read about climate change as much as you’d like?

Get a weekly roundup in your inbox instead. Every Wednesday, The Conversation’s environment editor writes Imagine, a short email that goes a little deeper into just one climate issue. Join the 47,000+ readers who’ve subscribed so far.


The Conversation

Dhanapal Govindarajulu does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. India shows how urban forests can help cool cities – as long as planners understand what nature and people need – https://theconversation.com/india-shows-how-urban-forests-can-help-cool-cities-as-long-as-planners-understand-what-nature-and-people-need-273061

Why people believe misinformation even when they’re told the facts

Source: The Conversation – UK – By Kelly Fincham, Programme director, BA Global Media, Lecturer media and communications, University of Galway

Alina Kolyuka/Shutterstock

When you spot false or misleading information online, or in a family group chat, how do you respond? For many people, their first impulse is to factcheck – reply with statistics, make a debunking post on social media or point people towards trustworthy sources.

Factchecking is seen as a go-to method for tackling the spread of false information. But it is notoriously difficult to correct misinformation.

Evidence shows readers trust journalists less when they debunk, rather than confirm, claims. Factchecking can also result in repeating the original lie to a whole new audience, amplifying its reach.

The work of media scholar Alice Marwick can help explain why factchecking often fails when used in isolation. Her research suggests that misinformation is not just a content problem, but an emotional and structural one.

She argues that it thrives through three mutually reinforcing pillars: the content of the message, the personal context of those sharing it, and the technological infrastructure that amplifies it.

1. The message

People find it cognitively easier to accept information than to reject it, which helps explain why misleading content spreads so readily.

Misinformation, whether in the form of a fake video or misleading headline, is problematic only when it finds a receptive audience willing to believe, endorse or share it. It does so by invoking what American sociologist Arlie Hochschild calls “deep stories”. These are emotionally resonant narratives that can explain people’s political beliefs.

The most influential misinformation or disinformation plays into existing beliefs, emotions and social identities, often reducing complex issues to familiar emotional narratives. For example, disinformation about migration might use tropes of “the dangerous outsider”, “the overwhelmed state” or “the undeserving newcomer”.

2. Personal context

When fabricated claims align with a person’s existing values, beliefs and ideologies, they can quickly harden into a kind of “knowledge”. This makes them difficult to debunk.

Marwick researched the spread of fake news during the 2016 US presidential election. One source described how her strongly conservative mother continued to share false stories about Hillary Clinton, even after she (the daughter) repeatedly debunked the claims.

The mother eventually said: “I don’t care if it’s false, I care that I hate Hillary Clinton, and I want everyone to know that!” This neatly encapsulates how sharing or posting misinformation can be an identity-signalling mechanism.

A woman angrily shouting at an ipad
What’s driving you to share that post?
Ekateryna Zubal/Shutterstock

People share false claims to signal in-group allegiance, a phenomenon researchers describe as “identity-based motivation”. The value of sharing lies not in providing accurate information, but in serving as social currency that reinforces group identity and cohesion.

The increase in the availability of AI-generated images will escalate the spread further. We know that people are willing to share images that they know are fake, when they believe they have an “emotional truth”. Visual content carries an inherent credibility and emotional force – “a picture is worth a thousand words” – that can override scepticism.

3. Technical structures

All of the above is supported by the technical structures of social media platforms, which are engineered to reward engagement. These platforms create revenue by capturing and selling users’ attention to advertisers. The longer and more intensively people engage with content, the more valuable that engagement becomes for advertisers and platform revenue.

Metrics such as time spent, likes, shares and comments are central to this business model. Recommendation algorithms are therefore explicitly optimised to maximise user engagement. Research shows that emotionally charged content – especially content that evokes anger, fear or outrage – generates significantly more engagement than neutral or positive content.

While misinformation clearly thrives in this environment, the sharing function of messaging and social media apps enables it to spread further. In 2020, the BBC reported that a single message sent to a WhatsApp group of 20 people could ultimately reach more than 3 million people, if each member shared it with another 20 people and the process was repeated five times.

By prioritising content likely to be shared and making sharing effortless, every like, comment or forward feeds the system. The platforms themselves act as a multiplier, enabling misinformation to spread faster, farther and more persistently than it could offline.




Read more:
The dynamics that polarise us on social media are about to get worse


Factchecking fails not because it is inherently flawed, but because it is often deployed as a short-term solution to the structural problem of misinformation.

Meaningfully addressing it therefore requires a response that addresses all three of these pillars. It must involve long-term changes to incentives and accountability for tech platforms and publishers. And it requires shifts in social norms and awareness of our own motivations for sharing information.

If we continue to treat misinformation as a simple contest between truth and lies, we will keep losing. Disinformation thrives not just on falsehoods, but on the social and structural conditions that make them meaningful to share.

The Conversation

Kelly Fincham does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Why people believe misinformation even when they’re told the facts – https://theconversation.com/why-people-believe-misinformation-even-when-theyre-told-the-facts-271236

Whether or not US acquires Greenland, the island will be at the centre of a massive military build-up in the Arctic

Source: The Conversation – UK – By Caroline Kennedy-Pipe, Professor of War Studies, Loughborough University

Donald Trump is clearly in a hurry to dominate the political narrative in his second term of office. He began 2026 with strikes in Syria against Islamic State groups, the kidnapping of Venezuelan president Nicolás Maduro, threats to intervene in Iran and the declaration that the US would take control of Greenland – by hook or by crook.

Of all these the plan to add Greenland to the US either by negotiation or by force is easily the most controversial as it could lead to the break-up of the Nato alliance.

Greenland, the world’s largest island and a part of the kingdom of Denmark, has an abundance of critical minerals offering wealth and business opportunities. But the US president is also making a big deal out of the need to secure Greenland for US national security. He has repeatedly stated the danger from Russia and China, whose ships, he says, stalk the island’s waters.

Publicly, at least, Russia has no problems with Trump’s ambitions in Greenland. Vladimir Putin has declined to criticise the Trump administration’s acquisitive comments, saying that the US has long had plans to incorporate Greenland and that the island’s future has “nothing to do with us”.

Russia’s vision doesn’t rule out the possibility of economic cooperation with America in the Arctic. After Putin and Trump met in August 2025 in Alaska, Russia mooted the idea of a “Putin-Trump tunnel” across the Bering Sea, a vision to which Trump responded favourably.

The Chinese, meanwhile, are not happy about Trump’s designs on Greenland. They tend to see the Arctic as a global commons in which non-Arctic states have an equal stake. So they are unhappy at the notion of any sort of arrangement that involves US or Russian spheres of influence in the Arctic.

The US has been trying to acquire Greenland since 1867 when, fresh from buying Alaska from Russia, the secretary of state William Seward unsuccessfully raised the idea of purchasing Greenland and Iceland from Denmark. Harry Truman offered US$100 million (£74 million) for Greenland in 1946, but Denmark refused. Instead the two countries agreed a treaty in 1951 giving the US considerable latitude to deploy thousands of US troops and install the weather stations and early warning systems that characterised cold war politics.

But when the Soviet Union collapsed, heralding an end to the cold war, Greenland was relegated in importance. The US presence in Greenland went from more than 10,000 personnel on 50 bases to a single settlement at Pituffik space base (formerly Thule air base) with about 150-200 people.

But the Ukraine war, increased assertiveness from Russia and China in the region and the steady melt caused by climate change have reinvigorated US interest in the Arctic region. And in the US president’s view, Greenland is a strategic vulnerability.

Russia’s threat

Greenland sits at the western perimeter of what is called the GIUK (Greenland–Iceland–United Kingdom) gap, which is vital to Nato defence of Europe. From here, submarines from Russia’s Northern Fleet in Murmansk can traverse into the North Atlantic, threatening targets on America’s east coast. In a crisis, Russian naval forces would move into both the GIUK gap and Norwegian waters, deterring American vessels from pushing north and effectively isolating Nato allies in the region.

Map of the GIUK gap.
Th GIUK gap is a strategically vital waterway protected by Green;and to the west, the UK to the south and Scandinavia to the northeast.
Wikimedia Commons

Many of Russia’s missile sites and nuclear air bases in the region are sited on the Kola peninsula, on the eastern edge of Scandinavia, which is also home to its Northern Fleet navy and submarines. From the Kola peninsula, the shortest direct flights route from Russia to targets on the American East Coast lies across Greenland.

Russia’s Arctic facilities have been significantly upgraded over the past decade, even as the bulk of its defence budget has been directed towards its war in Ukraine. Seasonal air bases have been coverted for all-year-round operations and extended to allow the use of even the heaviest of its nuclear bomber fleet at locations in the Far North such as Nagurskoye in Alexandra Land which is part of the Franz Josef Land and Temp on Kotelny Island in the New Siberian Islands.

At present, Russian combat aircraft and strategic bombers, such as the Mikoyan Mig-31, Sukhoi Su-35, and the Tupolev Tu-95, can operate from these bases and potentially neutralise Pituffik. The space base is at present the key US defence establishment in the region, able to detect enemy ballistic missiles as soon as they take off.

Joint Russian and Chinese air patrols now regularly operate in the region, raising concerns about the defence readiness of Alaska. Many of their weapons are what is called “stand-off”, which means they can operate out of the range of the defensive weapons arrayed against them.

Map of the Arctic region showing Greenland (Denmark), Svalbard (Norway) and Franz Josef Land (Russia).
Map of the Arctic region showing Greenland (Denmark), Svalbard (Norway) and Franz Josef Land (Russia).
PeterHermesFurian/Shutterstock

If Russia (or for that matter, China) did occupy parts of Greenland, it could mean foreign stand-off weapons sitting just 1,300 miles from the US. Whoever is in the White House, this would be considered as unthinkable for US security.

US response

In June 2025, US Northern Command took over responsibility for Greenland, integrating it into homeland defence. This, said Sean Parnell, chief spokesperson for the Pentagon, would be contributing to a “more robust defense of the western hemisphere and deepening relationships with Arctic allies and partners”.

Trump has derided the exiting European defence effort in Greenland, insisting that only the US can defend the US. His perspective can only have been emboldened the success of the recent Operation Absolute Resolve, the raid which snatched Maduro from Caracas. US combined forces demonstrated effective suppression of enemy air defences, knocking out both the Chinese JY-27A radar system and the Russian S-300 and Buk-M2 air defence systems.

Whether or not Trump gets his wish to actually acquire Greenland for the US, there seems little doubt that Greenland will once again play host to a strong American presence on the island and that the Arctic in general will become a showcase for the latest military technology they have in their armouries.

The Conversation

Caroline Kennedy-Pipe does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Whether or not US acquires Greenland, the island will be at the centre of a massive military build-up in the Arctic – https://theconversation.com/whether-or-not-us-acquires-greenland-the-island-will-be-at-the-centre-of-a-massive-military-build-up-in-the-arctic-273301

Guerra silenciosa en alta mar: ¿cómo operan los barcos fantasma?

Source: The Conversation – (in Spanish) – By Paula Lamo, Profesora e investigadora, Universidad de Cantabria

Nightman1965/Shutterstock

A simple vista podría parecer un petrolero más. Tenía el casco oxidado, bandera extranjera y una ruta aparentemente comercial. Nada que llamara la atención en un océano por el que navegan decenas de miles de buques cada día. Sin embargo, el 7 de enero de 2026 Estados Unidos interceptó y detuvo el petrolero Marinera (antes conocido como Bella 1) en aguas del Atlántico Norte durante la operación “Lanza del Sur”, que culminó tras varias semanas de seguimiento.

No fue una inspección rutinaria ni un problema administrativo. Estados Unidos lo abordó porque las autoridades lo consideran parte de una red de transporte que evade sanciones internacionales y opera fuera de los controles habituales del comercio marítimo.

Flotas en la sombra

Se trataba de un barco encuadrado en lo que expertos llaman “barcos fantasma” o “flotas en la sombra”. Esto es, petroleros que, aunque figuran en registros oficiales, cambian de nombre, de bandera y de propietario con frecuencia para ocultar su actividad real y sortear sanciones económicas.

Este tipo de buques aparece y desaparece de los sistemas de seguimiento, realiza transferencias de carga en alta mar y suele estar asociado al transporte de crudo procedente de países sometidos a embargos, como Venezuela e Irán.

Estamos viviendo días de gran intensidad informativa. Así que la noticia de la detención ha acaparado titulares, aunque casi siempre presentada como un episodio aislado del pulso geopolítico entre Estados Unidos y los países sancionados. Y esto puede resultar engañoso.

Una flota paralela al margen de la ley

El problema no es este petrolero concreto, sino la normalización de una flota paralela que opera desde hace años al margen de las reglas del comercio global y que solo aflora cuando uno de estos buques es interceptado, se hunde o provoca un incidente. Los barcos fantasma no son una excepción ni una anomalía: son el síntoma de un sistema marítimo que tolera la opacidad como parte de su funcionamiento.

El término suena a película de aventuras fantástica. Pero la realidad, como en casi siempre en estas comparaciones cinematográficas, es mucho más prosaica y peligrosa. Estos buques existen porque el sistema marítimo internacional lo permite. Las banderas de conveniencia, pensadas en origen para facilitar el comercio, se han convertido en una herramienta perfecta para diluir responsabilidades.

Registrar un barco en determinados países implica menos controles, menos preguntas y una enorme dificultad para saber quién está realmente detrás. Cuando a eso se le suma un entramado de empresas pantalla y aseguradoras opacas, el resultado es un buque que navega legalmente, pero fuera del radar político.

Las vías alternativas del petróleo

En los últimos años, este tipo de flota ha crecido de forma silenciosa al calor de las sanciones internacionales. Así, por ejemplo, cuando se bloquean las exportaciones de petróleo de un país, el crudo no desaparece. Busca caminos alternativos. Y esos caminos, cada vez más, pasan por petroleros que no figuran en las rutas habituales, que realizan transferencias de carga en alta mar y que aparecen y desaparecen de los sistemas de seguimiento como si el océano se los tragara.

La operación estadounidense de estos días apunta precisamente a eso. No es un gesto aislado ni improvisado: eEs un aviso. Un mensaje de que Washington está dispuesto a perseguir esas rutas invisibles y a tratar el mar como un espacio donde también se hacen cumplir las sanciones. También significa que el océano ya no es un territorio neutro. Es un escenario más de la confrontación económica y geopolítica global.

¿Esto es algo nuevo? Ni mucho menos. En los últimos años hemos visto casos que, en su momento, parecieron episodios confusos y hoy encajan mejor en este patrón que se describe. Uno de los más llamativos por su relevancia internacional ocurrió en pleno conflicto en Siria. En los meses finales del régimen de Bashar al-Assad, cuando el control del territorio se desmoronaba y la atención internacional estaba puesta en el frente terrestre, un buque se hundió en el Mediterráneo en circunstancias nunca del todo aclaradas. Diversas informaciones periodísticas apuntaban a que estaba siendo utilizado para sacar material militar del país, aprovechando el caos del momento.

Y no es un caso aislado o que ocurre únicamente al calor de los conflictos militares: también se reportan en toda la UE. Nunca hay una confirmación oficial concluyente. No son barcos de guerra, no van escoltados por fragatas ni figuraban en comunicados oficiales. Son, en apariencia, un buque comercial más. Y, sin embargo, sus hundimientos o interceptaciones revelan hasta qué punto los barcos civiles pueden convertirse en piezas clave de operaciones estratégicas cuando los Estados necesitan moverse rápido y sin dejar rastro.

Sistemas que emiten señales incompletas

Esa falta de confirmación oficial tiene también una explicación técnica concreta. El control del tráfico marítimo se apoya en sistemas como el AIS, un transpondedor que emite de forma continua la identidad, posición y rumbo de los buques. En condiciones normales es una herramienta básica de seguridad, pero en estos casos se convierte en una vía de ocultación. El sistema puede apagarse durante tramos sensibles o emitir señales incompletas, haciendo que el barco “desaparezca” de los mapas de seguimiento.

A ello se suma el uso de transferencias de carga barco a barco en alta mar (operaciones conocidas como ship-to-ship) que permiten mezclar o redistribuir mercancías lejos de puertos y autoridades. Combinadas con cambios frecuentes de nombre, bandera y propietario legal, estas técnicas hacen que un buque siga siendo visible en los registros formales, pero que su carga sea prácticamente imposible de rastrear con certeza.

Ahí es, precisamente, donde los barcos fantasma dejan de ser una curiosidad técnica para convertirse en un problema político de primer orden. Facilitan la evasión de sanciones e introducen un nivel de opacidad que desestabiliza el sistema internacional.

Cuando no se sabe quién transporta qué, ni bajo qué autoridad real navega un buque, la rendición de cuentas desaparece, y con ella la capacidad de prevenir accidentes, conflictos o desastres ambientales, denunciados por numerosas organizaciones como The Ocean Foundation.

Distorsión de precios y competencia desleal

Obviamente, estos barcos no operan en el vacío. Afectan al mercado energético, distorsionan precios y generan competencia desleal frente a operadores que sí cumplen las normas. También ponen en riesgo a las tripulaciones, que trabajan en condiciones precarias y, en caso de incidente, quedan abandonadas a su suerte en un limbo jurídico.

Y su existencia mina la credibilidad de las sanciones internacionales, que pierden eficacia cuando siempre hay una ruta alternativa dispuesta a sortearlas.

Por eso la detención de un petrolero no es una anécdota. Es una fotografía de algo mucho más grande. De una economía sumergida que navega sobre el agua aprovechando vacíos legales y la dificultad de vigilar millones de kilómetros cuadrados de océano. De una guerra silenciosa que no se libra con misiles, sino con contratos opacos, registros lejanos y transpondedores apagados.

The Conversation

Este trabajo ha sido financiado parcialmente con por el Vicerrectorado de Investigación de la Universidad Internacional de La Rioja a través del proyecto “Nuevos Horizontes en Internet de las Cosas y NewSpace (NewIoT)” (Referencia: PP-2024-13),

ref. Guerra silenciosa en alta mar: ¿cómo operan los barcos fantasma? – https://theconversation.com/guerra-silenciosa-en-alta-mar-como-operan-los-barcos-fantasma-273145

Comment la première Bible à comporter une carte a contribué à diffuser l’idée de pays aux frontières établies

Source: The Conversation – in French – By Nathan MacDonald, Professor of the Interpretation of the Old Testament, University of Cambridge

L’apparition de la toute première carte dans une Bible, au début du XVIe siècle, a profondément transformé la manière de représenter la Terre sainte – et, plus largement, le monde. Elle a participé à la naissance d’un monde organisé en États-nations… dont nous subissons encore aujourd’hui l’héritage.


Il y a cinq siècles paraissait la première Bible contenant une carte. L’anniversaire est passé inaperçu, pourtant il célèbre un évenement qui a changé durablement la fabrication des Bibles. Cette carte figurait dans l’Ancien Testament publié en 1525 par Christopher Froschauer à Zurich, et elle a circulé largement dans l’Europe centrale du XVIe siècle.

Pourtant, malgré son importance dans l’histoire de la Bible, cette innovation n’a pas vraiment été un succès. La carte est inversée sur l’axe nord-sud (elle se lit donc à l’envers). La Méditerranée se retrouve à l’est de la Palestine, et non à l’ouest. Une anecdote qui montre à quel point la connaissance européenne du Moyen-Orient restait limitée à l’époque – au point qu’aucun membre de l’atelier d’impression ne s’en soit rendu compte.

La carte avait été dessinée environ dix ans plus tôt par le célèbre peintre et graveur de la Renaissance Lucas Cranach l’Ancien, installé à Wittenberg dans l’actuelle Allemagne. Rédigée en latin, elle représente la Palestine avec plusieurs lieux saints importants comme Jérusalem et Bethléem. En bas, on distingue les montagnes du Sinaï et le chemin emprunté par les israélites lors de leur fuite de l’esclavage en Égypte.

La carte de la Terre sainte de Lucas Cranach l’Ancien dans l’Ancien Testament de Christopher Froschauer
La carte de la Terre sainte de Lucas Cranach l’Ancien dans l’Ancien Testament de Christopher Froschauer.
Bibliothèque Wren, The Master and Fellows of Trinity College, Cambridge, CC BY-SA

En regardant de près, on distingue les israélites et leurs tentes, ainsi que plusieurs petites scènes illustrant les épisodes de leur voyage. Le paysage est toutefois plus européen que moyen-oriental, ce qui reflète l’ignorance des imprimeurs concernant cette région. On voit des villes fortifiées entourées d’arbres et, contrairement à la réalité, le Jourdain serpente fortement vers la Mer Morte, tandis que le littoral présente davantage de baies et d’anses.

Au siècle précédent, les Européens avaient redécouvert le géographe gréco-romain du IIe siècle, Ptolémée, et avec lui l’art de produire des cartes précises utilisant latitude et longitude, dans la mesure où l’on pouvait alors estimer cette dernière (elle s’est considérablement améliorée dans les siècles suivants). Avec l’essor de l’imprimerie, la « Géographie » de Ptolémée avait conquis l’Europe : on avait publié son traité scientifique et ses cartes du monde antique avaient été largement reproduites.

Les imprimeurs ont toutefois rapidement découvert que les acheteurs souhaitaient des cartes contemporaines. De nouvelles cartes de la France, de l’Espagne ou encore de la Scandinavie furent bientôt publiées. À nos yeux, elles sont véritablement modernes : le nord est placé en haut de la page et la localisation des villes, des fleuves et des côtes y est représentée avec une grande précision.

Carte de France tirée de la « Géographie » de Ptolémée
Carte moderne de la France dans la « Géographie » de Ptolémée, édition d’Ulm de 1486 (1482).
Stanford University, CC BY-SA

Ces cartes ont rapidement supplanté la cartographie médiévale et son approche symbolique du monde, comme la célèbre mappemonde d’Hereford du monde connu vers 1300, où il s’agissait davantage de transmettre une signification culturelle ou religieuse que d’atteindre une précision géographique. Avec une exception, toutefois : la Palestine.

Les premiers éditeurs de Ptolémée proposaient à leurs lecteurs une « carte moderne de la Terre sainte »… qui n’avait en réalité rien de moderne. C’était une carte héritée du Moyen Âge, conçue non pas à partir de la latitude et de la longitude, mais grâce à une grille permettant d’estimer les distances entre les lieux. Elle était orientée avec l’est en haut de la page et l’ouest en bas. On y voyait les grands sites du christianisme, et la Palestine y était découpée selon les territoires des tribus.

La carte de Cranach mêle ces deux approches. En haut et en bas, elle affiche des lignes de méridien, mais la côte est inclinée de sorte que toute la carte est orientée vers le nord-est en haut de la page.

On a l’impression que Cranach ne savait pas tout à fait quel type de carte produire. La représentation se veut réaliste et moderne, mais elle reste chargée de géographie symbolique : en parcourant la carte du regard, on voyage avec les israélites depuis l’esclavage en Égypte jusqu’à la Terre promise, en passant par tous ses lieux emblématiques, comme le mont Carmel, Nazareth, le Jourdain ou Jéricho.

Perceptions de la Palestine

Cette carte illustre bien le peu d’intérêt que l’Europe portait à la Palestine, alors sous domination ottomane. Ce que recherchaient les lecteurs européens, c’était cet espace hybride qu’est la « Terre sainte » : un lieu appartenant à notre monde, mais qui, en même temps, en échappait.

Les villes qui y étaient représentées étaient celles ayant prospéré deux millénaires plus tôt et qui, pour les chrétiens, avaient en un sens davantage de réalité. Elles appartenaient à cet espace imaginaire façonné par les Écritures et la prédication des églises.

Le Passage de la mer Rouge (Poussin) 1633-34
L’Exode peint par Nicolas Poussin dans son tableau « Le Passage de la mer Rouge » (1633-34).
Wikimedia, CC BY-SA

Ce mélange étonnant d’ancien et de moderne a eu des effets particulièrement importants lorsqu’il s’est agi de cartographier la Palestine selon les douze territoires tribaux. Les douze tribus issues de Jacob symbolisaient, pour les chrétiens, la légitimité de leur héritage : celui d’Israël, de ses lieux saints et de tout ce qu’ils incarnaient – l’accès à la Jérusalem céleste. Sur ces cartes, les lignes inscrivaient visuellement les promesses éternelles faites par Dieu.

Or, à l’époque moderne, ces mêmes lignes commencèrent à marquer les frontières entre États souverains. Les cartes de la Terre sainte, soigneusement découpée entre les tribus d’Israël, ont ainsi influencé durablement les cartographes. Au fil du XVIe siècle, de plus en plus de cartes dans les atlas ont représenté un monde découpé entre des nations distinctes, dotées de frontières clairement définies.

Le fait qu’une carte découpée en territoires figure dans la Bible donnait, en apparence, une caution religieuse à un monde rempli de frontières. Des lignes qui symbolisaient autrefois l’étendue illimitée des promesses divines servaient désormais à marquer les limites de souverainetés politiques.

Dans les Bibles elles-mêmes, les cartes s’étaient installées pour de bon. Dans les années qui suivirent, les imprimeurs testèrent différentes configurations, mais ils finirent par retenir quatre cartes essentielles : celle des errances des israélites dans le désert, celle des territoires des douze tribus, celle de la Palestine au temps de Jésus, et celle des voyages missionnaires de l’apôtre Paul.

Il y avait là une belle symétrie : deux cartes pour l’Ancien Testament, deux pour le Nouveau. Mais aussi deux cartes de voyages et deux cartes de la Terre sainte. Ces équilibres visuels mettaient en scène les liens entre les évènements : l’Ancien Testament s’accomplit dans le Nouveau, et le judaïsme trouve son aboutissement dans le christianisme.

L’apparition de la première carte dans une Bible marque donc un moment historique fascinant – mais aussi troublant. Elle a transformé la Bible en un objet proche d’un atlas de la Renaissance, tout en s’appuyant sur l’idée d’une supériorité chrétienne : la Terre sainte telle que l’imaginaire chrétien la concevait reléguait la Palestine contemporaine à l’arrière-plan, et le christianisme se posait en héritier ultime du judaïsme.

Cette carte fut également l’un des instruments ayant contribué à façonner le monde moderne des États-nations. Et d’une certaine façon, nous vivons encore aujourd’hui les conséquences de ce tournant.

The Conversation

Nathan MacDonald ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Comment la première Bible à comporter une carte a contribué à diffuser l’idée de pays aux frontières établies – https://theconversation.com/comment-la-premiere-bible-a-comporter-une-carte-a-contribue-a-diffuser-lidee-de-pays-aux-frontieres-etablies-271348

Mettre un patch sur ses boutons, une mode qui date de plusieurs siècles

Source: The Conversation – France (in French) – By Sara Read, Lecturer in English, Loughborough University

Des smileys sur les joues des adolescents d’aujourd’hui aux élégantes mouches noires des salons de la Restauration Stuart (ici sur un tableau de 1650), le visage humain a toujours été un terrain de créativité esthétique… Compton Verney Art Gallery/Canva

Aujourd’hui populaires sur les réseaux sociaux, les patchs anti-boutons ne sont pas une invention moderne : leur ancêtre, la « mouche », décorait déjà le visage des élégantes et des coquettes du XVIIe siècle.


Vous avez sans doute déjà croisé des personnes qui se promènent avec de petits stickers sur le visage. Peut-être avez-vous vu des lunes, des étoiles, des nuages ou même des visages souriants orner les joues et le menton des gens que vous rencontrez. Peut-être en portez-vous vous-même. Si certaines personnes les utilisent comme des accessoires de mode, ces autocollants colorés sont en réalité des « patchs anti-imperfections » médicamenteux, conçus pour traiter les boutons ou l’acné.

Certains de ces patchs contiennent un gel qui s’attaque à l’imperfection en cours d’apparition en la maintenant humide afin de favoriser la cicatrisation. D’aucuns préfèrent des patchs en film quasi transparent afin d’en tirer les mêmes bénéfices, mais de manière plus discrète.

Loin d’être une mode récente, les patchs de beauté ont une longue histoire sous leur précédent nom de mouche. La tendance a pris son essor une première fois dans l’Europe du XVIIe siècle, avec des patchs fabriqués en papier, en soie ou en velours, voire en cuir fin, découpés en formes de losanges, d’étoiles ou de croissants de lune.

Ils pouvaient être fabriqués dans de nombreuses couleurs, mais on privilégiait généralement le noir, parce qu’il offrait un contraste parfait avec le teint pâle idéalisé des hommes et des femmes de la haute société occidentale, teint qu’ils envisageaient comme un marqueur de statut social, indiquant qu’ils ne travaillaient pas en plein air. La pièce Blurt, Master-Constable de 1602 explique un autre attrait des mouches : lorsqu’elles étaient bien disposées, elles pouvaient « attirer les yeux des hommes et provoquer leurs regards ».

Le signe de Caïn

Les mouches sont fréquemment mentionnées dans les textes de la fin du XVIe et du début du XVIIe siècle. Tout comme aujourd’hui, ces patchs avaient une double fonction. Dans sa pièce de 1601 Jack Drum’s Entertainment, John Marston explique ainsi : « Les mouches sont portées, certaines par fierté, certaines pour retenir l’écoulement, et certaines pour cacher une croûte. »

Ainsi coexistaient des pièces portées par coquetterie, et d’autres – parfois thérapeutiques – destinées à assécher des plaies. Elles servaient également à dissimuler les cicatrices laissées alors par des maladies comme la variole ou la syphilis.

C’est ce dernier usage qui a conduit les moralistes à s’opposer aux mouches. Un livre anonyme de 1665 affirmait qu’un aumônier du roi d’Angleterre Charles Ier avait prononcé un sermon les comparant à la marque de Caïn. Il allait jusqu’à laisser entendre que le port de ces accessoires favorisait les épidémies de peste : « Les mouches et les grains de beauté artificiels […] étaient les précurseurs d’autres taches et marques de la peste. »

D’autres moralistes semblaient davantage préoccupés encore par le fait que, tout comme le maquillage, leur fonction était de présenter une fausse apparence, susceptible de tromper son monde. Cette critique s’est généralisée au XVIIIe siècle, lorsque l’usage des mouches s’est retrouvé associé à une conduite sexuelle jugée légère.

La Carrière d’une prostituée, de William Hogarth (1731), est une série de tableaux représentant la chute d’une jeune fille de la campagne, Moll Hackabout. Nouvellement arrivée à Londres, elle est trompée par la tenancière de maison close Elizabeth Needham. Le visage de Needham est couvert de ces mouches.

Sa majesté et les mouches

Le diariste Samuel Pepys mentionne ces patchs à plus d’une douzaine de reprises dans son journal entre 1660 et 1669. Il les rencontre pour la première fois au printemps 1660, lors d’un voyage d’affaires à La Haye, où il croise « deux très jolies dames, très à la mode et portant des mouches noires, qui chantaient joyeusement tout le long du trajet ».

Le lendemain, au cours d’une promenade en ville, il note :

« Tout le monde à la mode parle français ou latin, ou les deux. Les femmes, pour beaucoup d’entre elles, sont très jolies, bien vêtues, élégantes et portent des mouches noires. »

Il précise également que ces dernières étaient souvent humidifiées avec de la salive afin de les faire tenir. En mai 1668, il se souvient avoir vu Lady Castlemaine – maîtresse de Charles II – réclamer une mouche que portait sa servante, la mouiller dans sa bouche puis l’appliquer sur son propre visage. Nous savons aussi, grâce à Pepys, que Jacques, duc d’York, appréciait lui aussi de porter une ou deux mouches.

Dès le mois d’août de la même année, Pepys note dans son journal que son épouse Élisabeth portait des patchs lors d’un baptême. Il semble toutefois l’avoir oublié lorsqu’il écrit en novembre : « Ma femme m’a paru très jolie aujourd’hui, car c’était la première fois que je lui avais donné la permission de porter une mouche noire. » Lui-même arbora une mouche en septembre 1664, lorsqu’il se réveilla avec la bouche couverte de croûtes.

La french touch

La mode des mouches connut son apogée durant la Restauration Stuart (1660-1700), lorsque les royalistes revenus d’exil rapportèrent des modes françaises qu’ils jugeaient le summum du raffinement.

L’écrivaine anglaise Mary Evelyn expliquait ainsi que « mouches » était le terme français en vogue pour désigner les « patchs noirs », un terme parfois utilisé également en anglais. Son poème Mundus Muliebris : Or The Ladies Dressing-Room Unlock’d, and Her Toilets Spread, publié à titre posthume en 1690, constitue une satire mordante des modes francophiles du Londres de la Restauration, auxquelles Evelyn estimait que seules les personnes vulgaires pouvaient céder.

S’il est difficile d’imaginer que les personnes qui portent aujourd’hui des patchs anti-boutons puissent faire l’objet du même type de critiques moralisatrices qu’autrefois, il existe néanmoins certains recoins d’internet où l’on se moque de celles et ceux qui sortent en public avec ces stickers.

Qu’ils soient efficaces ou non, les patchs anti-boutons restent un accessoire inoffensif. À partir de la fin du XVIIe siècle, les ouvrages commencent à mentionner les boîtes à mouches, de petits écrins ouvragés spécialement conçus pour les ranger.

Les personnes à la mode aimaient se montrer avec une petite boîte en argent, destinée à contenir leurs mouches en velours ou en soie. Peut-être faut-il y voir la prochaine étape du retour à la mode de ces patchs anti-boutons.

The Conversation

Sara Read ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Mettre un patch sur ses boutons, une mode qui date de plusieurs siècles – https://theconversation.com/mettre-un-patch-sur-ses-boutons-une-mode-qui-date-de-plusieurs-siecles-272561

Non, on ne portait pas d’appareil dentaire dans l’Égypte antique… Historiens et archéologues s’attaquent au mythe

Source: The Conversation – France in French (3) – By Saroash Shahid, Reader in Dental Materials, Queen Mary University of London

Les chevauchements de dents n’existaient quasiment pas à l’époque antique. Hryshchyshen Serhii/Shutterstock.com

Longtemps, l’idée que les civilisations antiques auraient inventé l’orthodontie a fasciné chercheurs et grand public. Des fils d’or et des bandes dentaires retrouvés dans des tombes semblaient en apporter la preuve. Mais l’archéologie raconte aujourd’hui une histoire bien différente.


Les anciens Égyptiens et les Étrusques auraient été les pionniers de l’orthodontie, utilisant de délicats fils d’or et du catgut (un type de fil fabriqué à base de boyaux d’origine animale) pour redresser les dents. C’est une histoire que l’on retrouve depuis des décennies dans les manuels de dentisterie, présentant nos ancêtres comme étonnamment modernes dans leur quête du sourire parfait. Mais lorsque des archéologues et des historiens de la dentisterie ont enfin examiné les preuves de près, ils ont découvert que l’essentiel relevait du mythe.

Prenons la contention d’El-Qattah en Égypte, datée d’environ 2500 av. J.-C. Le fil d’or retrouvé avec les restes anciens ne remplissait pas du tout la fonction que l’on imaginait. Plutôt que de tirer les dents pour les aligner, ces fils servaient à stabiliser des dents branlantes ou à maintenir des dents de remplacement en place. Autrement dit, ils fonctionnaient comme des prothèses, pas comme des appareils orthodontiques.

L’or, un indice

Les bandes d’or découvertes dans les tombes étrusques racontent une histoire similaire. Il s’agissait probablement d’attelles dentaires destinées à soutenir des dents fragilisées par des maladies des gencives ou des blessures, et non de dispositifs visant à déplacer les dents vers de nouvelles positions.

Il existe d’ailleurs des raisons pratiques assez convaincantes pour lesquelles ces dispositifs anciens n’auraient de toute façon pas pu fonctionner comme des appareils orthodontiques. Des tests réalisés sur des appareils étrusques ont révélé que l’or utilisé était pur à 97 %, mais l’or pur est remarquablement mou.

Il se plie et s’étire facilement sans se rompre, ce qui le rend inutilisable en orthodontie. Les appareils dentaires fonctionnent en exerçant une pression continue sur de longues périodes, ce qui nécessite un métal à la fois solide et élastique. L’or pur en est tout simplement incapable. Essayez de le tendre suffisamment pour redresser une dent, et il se déformera ou se rompra.

Reste ensuite la question intrigante de l’identité des personnes qui portaient ces bandes d’or. Beaucoup ont été retrouvées sur des squelettes de femmes, ce qui suggère qu’il s’agissait peut-être de symboles de statut ou de bijoux décoratifs plutôt que de dispositifs médicaux. De manière révélatrice, aucune n’a été découverte dans la bouche d’enfants ou d’adolescents – précisément là où l’on s’attendrait à les trouver s’il s’agissait de véritables appareils orthodontiques.

Pas de réel besoin

Mais la révélation la plus fascinante est peut-être celle-ci : les populations anciennes ne connaissaient pas les mêmes problèmes dentaires que ceux auxquels nous sommes confrontés aujourd’hui.

La malocclusion – l’encombrement et le mauvais alignement des dents, aujourd’hui si fréquents – était extrêmement rare autrefois. Des études menées sur des crânes de l’âge de pierre montrent une quasi-absence de chevauchement des dents. La différence tient à l’alimentation.

Nos ancêtres consommaient des aliments durs et fibreux qui exigeaient une mastication intense. Tout ce travail de la mâchoire favorisait le développement de mâchoires fortes et larges, parfaitement capables d’accueillir toutes leurs dents.

À l’inverse, les régimes alimentaires modernes sont mous et transformés, offrant peu d’exercice aux mâchoires. Résultat : nos mâchoires sont souvent plus petites que celles de nos ancêtres, tandis que nos dents restent de la même taille, ce qui entraîne l’encombrement que l’on observe aujourd’hui.

Puisque les dents de travers étaient quasiment inexistantes dans l’Antiquité, il n’y avait guère de raison de développer des méthodes pour les redresser.

Premiers traitements

Cela dit, les populations anciennes ont parfois tenté des interventions simples pour corriger certaines irrégularités dentaires. Les Romains fournissent l’une des premières références fiables à ce qui peut être considéré comme un véritable traitement orthodontique.

Aulus Cornelius Celsus ou Celse, médecin et auteur romain du Ier siècle apr. J.-C., indiquait que lorsqu’une dent d’enfant poussait de travers, il fallait la repousser doucement chaque jour avec un doigt jusqu’à ce qu’elle se déplace vers la bonne position. Bien que rudimentaire, cette méthode repose sur le même principe que celui utilisé aujourd’hui : une pression douce et continue peut déplacer une dent.

Après l’époque romaine, les progrès furent minimes pendant des siècles. Toutefois, au XVIIIe siècle, l’intérêt pour le redressement des dents refit surface, au prix de méthodes parfois particulièrement douloureuses.

Faute d’accès à des instruments dentaires modernes, certains avaient recours à des « cales gonflantes » en bois pour créer de l’espace entre des dents trop serrées. Une petite cale de bois était insérée entre les dents ; en absorbant la salive, le bois se dilatait et forçait les dents à s’écarter. Rudimentaire et atroce, sans doute, mais cette pratique marquait une étape vers la compréhension du fait que les dents pouvaient être déplacées par la pression.

Orthodontie scientifique

La véritable orthodontie scientifique débute avec les travaux du dentiste français Pierre Fauchard en 1728. Souvent considéré comme le père de la dentisterie moderne, Fauchard publie un ouvrage fondateur en deux volumes, Le Chirurgien dentiste, qui contient la première description détaillée du traitement des malocclusions.

Il met au point le « bandeau » – une bande métallique courbe placée autour des dents afin d’élargir l’arcade dentaire. Il s’agit du premier instrument spécifiquement conçu pour déplacer les dents à l’aide d’une force contrôlée.

Fauchard décrit également l’utilisation de fils pour soutenir les dents après leur repositionnement. Son travail marque un tournant décisif, faisant passer l’orthodontie des mythes antiques et des expérimentations douloureuses à une approche scientifique qui conduira, à terme, aux appareils dentaires modernes et aux aligneurs transparents.

Une spécialité à part entière

Avec les progrès de la dentisterie aux XIXe et XXe siècles, l’orthodontie devient une spécialité à part entière. Les bagues métalliques, les arcs, les élastiques, puis l’acier inoxydable rendent les traitements plus fiables.

Des innovations ultérieures – bagues en céramique, appareils linguaux et aligneurs transparents – rendent ensuite le processus plus discret. Aujourd’hui, l’orthodontie s’appuie sur des scans numériques, des modèles informatiques et l’impression 3D pour une planification des traitements d’une précision remarquable.

L’image de populations antiques portant des appareils dentaires en or et en catgut est certes séduisante et spectaculaire, mais elle ne correspond pas aux faits.

Les civilisations anciennes avaient conscience de certains problèmes dentaires et ont parfois tenté des solutions simples. Elles n’avaient toutefois ni le besoin ni la technologie permettant de déplacer les dents comme nous le faisons aujourd’hui.

La véritable histoire de l’orthodontie ne commence pas dans l’Antiquité, mais avec les avancées scientifiques du XVIIIe siècle et au-delà – une histoire déjà suffisamment passionnante sans qu’il soit nécessaire d’y ajouter des mythes.

The Conversation

Saroash Shahid ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Non, on ne portait pas d’appareil dentaire dans l’Égypte antique… Historiens et archéologues s’attaquent au mythe – https://theconversation.com/non-on-ne-portait-pas-dappareil-dentaire-dans-legypte-antique-historiens-et-archeologues-sattaquent-au-mythe-272723

De l’histoire à la mémoire : 160 ans de commémoration de la fin de l’esclavage aux États-Unis

Source: The Conversation – France in French (3) – By Frédérique Sandretto, Adjunct assistant professor, Sciences Po

Cette célèbre photo (1863, ici colorisée) d’un esclave dont on voit le dos couvert de cicatrices s’est retrouvée en septembre 2025 au centre d’une polémique. Plusieurs journaux ont affirmé que l’administration Trump avait demandé au National Park Service de la retirer de plusieurs de ses sites. La Maison Blanche a aussitôt nié avoir fait cette demande. Une illustration de plus des tensions encore à l’œuvre aux États-Unis autour de la mémoire de l’esclavage. William D. McPherson et J. Oliver/Creative Commons, CC BY

De la guerre de Sécession au « 1619 Project », la fin légale de l’esclavage aux États-Unis s’inscrit dans une histoire longue de luttes, de résistances et de controverses. Commémorer l’abolition, c’est interroger les fondements mêmes de la démocratie américaine et ses promesses inachevées.


L’abolition officielle de l’esclavage aux États-Unis est consacrée le 18 décembre 1865, date de la ratification du treizième amendement de la Constitution américaine. Cet amendement interdit formellement l’esclavage et la servitude involontaire, et marque une rupture juridique majeure dans l’histoire politique et sociale des États-Unis. Cette date constitue aujourd’hui la référence historique et symbolique de la fin légale de l’esclavage sur l’ensemble du territoire national.

Le contexte de cette abolition est indissociable de la guerre de Sécession (1861–1865), conflit né des profondes divergences économiques, politiques et morales entre les États du Nord et ceux du Sud. Tandis que le Nord se dirigeait progressivement vers l’abolition, le Sud fondait sa prospérité sur un système esclavagiste profondément enraciné. En 1863, le président Abraham Lincoln promulgua l’Emancipation Proclamation, qui déclara libres les esclaves des États confédérés en rébellion. Toutefois, cette proclamation avait une portée limitée et ne constituait pas une abolition universelle. Seule une réforme constitutionnelle pouvait garantir une suppression définitive et juridiquement incontestable de l’esclavage.

Le treizième amendement fut adopté par le Congrès en janvier 1865, puis ratifié par le nombre requis d’États en décembre de la même année. Abraham Lincoln, bien qu’assassiné en avril 1865, demeure la figure centrale de ce processus abolitionniste, en raison de son engagement politique et moral en faveur de l’amendement. La ratification marque l’aboutissement institutionnel d’un long combat mené par les abolitionnistes, les anciens esclaves et les défenseurs des droits humains.

Les contradictions originelles du projet américain

La commémoration de l’abolition de l’esclavage aux États-Unis ne peut être comprise sans un retour approfondi sur les luttes politiques, sociales et intellectuelles qui ont conduit à la disparition formelle de cette institution, ni sans une analyse des contradictions qui traversent dès l’origine le projet national américain.

L’esclavage constitue en effet l’un des paradoxes majeurs de la construction des États-Unis : alors même que la jeune nation se fonde sur un discours universaliste de liberté, d’égalité et de souveraineté populaire, elle maintient et institutionnalise un système reposant sur la négation radicale de ces principes pour une partie de la population.

Dès la période coloniale, des résistances à l’esclavage émergent, portées à la fois par les personnes réduites en esclavage elles-mêmes – à travers des révoltes, des fuites ou des formes quotidiennes de résistance – et par des mouvements abolitionnistes structurés à partir de la fin du XVIIIᵉ siècle.

La révolte de Stono, survenue en Caroline du Sud en 1739, est l’une des plus importantes insurrections d’esclaves de l’Amérique coloniale. Les insurgés se soulèvent contre leurs maîtres et tentent de rejoindre la Floride espagnole, où la liberté est promise aux esclaves fugitifs. La répression est extrêmement violente, mais l’événement révèle l’ampleur de la résistance organisée des personnes réduites en esclavage.

Parallèlement, les Quakers jouent un rôle pionnier dans la lutte contre l’esclavage en Amérique du Nord dès le XVIIIᵉ siècle. Ils sont parmi les premiers à condamner l’esclavage pour des raisons morales et religieuses, affirmant l’égalité spirituelle de tous les êtres humains. Leur engagement conduit à la création des premières sociétés abolitionnistes et influence durablement le mouvement antiesclavagiste américain.

Au XIXᵉ siècle, ces luttes se renforcent avec la diffusion d’écrits abolitionnistes, de récits d’anciens esclaves et par l’action de réseaux militants, tels que l’Underground Railroad. Toutefois, ces combats se heurtent à des intérêts économiques considérables, en particulier dans les États du Sud, où l’esclavage constitue le pilier du système de production agricole.

La rédaction de la Constitution de 1787 illustre de manière exemplaire cette tension. Bien que le texte ne mentionne jamais explicitement le mot « esclavage », plusieurs dispositions en assurent la protection et la pérennité. Le compromis des trois cinquièmes, la clause relative aux esclaves fugitifs (établissant que les personnes qui échappaient à l’esclavage dans le Sud n’étaient pas réellement libres) ou encore la garantie du maintien de la traite jusqu’en 1808 traduisent un choix politique clair : préserver l’unité des États au prix d’un renoncement moral.

La clause des trois cinquièmes, inscrite dans la Constitution de 1787, est directement liée à la question de l’esclavage aux États-Unis et révèle les profondes contradictions sur lesquelles la nation s’est construite. Lors de la convention de Philadelphie (1787), les États du Sud, fortement esclavagistes, souhaitaient que les esclaves soient comptés comme des citoyens à part entière pour augmenter leur représentation politique au Congrès, tandis que les États du Nord s’y opposaient puisqu’ils refusaient d’accorder des droits politiques à des personnes privées de liberté. Le compromis trouvé fut la clause des trois cinquièmes, selon laquelle chaque esclave serait compté comme trois cinquièmes d’une personne pour le calcul de la population. Cette décision renforça le pouvoir politique des États du Sud tout en maintenant les esclaves dans une situation de déshumanisation totale, puisqu’ils n’avaient ni droits civiques ni libertés fondamentales. L’esclavage, déjà central dans l’économie des plantations de coton et de tabac, fut ainsi institutionnalisé et protégé par le cadre constitutionnel.

Cette clause illustre le paradoxe fondateur des États-Unis, une nation proclamant l’égalité et la liberté tout en acceptant l’exploitation et l’oppression de millions d’Africains réduits en esclavage. À long terme, ce compromis contribua à creuser les tensions entre le Nord et le Sud, tensions qui mèneront finalement à la guerre de Sécession et à l’abolition de l’esclavage en 1865.

Les Pères fondateurs, souvent présentés dans la mémoire nationale comme des figures héroïques de la liberté, apparaissent ainsi comme des acteurs ambivalents, pris entre idéaux philosophiques hérités des Lumières et réalités économiques et sociales profondément inégalitaires. Cette contradiction structurelle nourrit progressivement les divisions politiques et idéologiques qui mèneront à la guerre de Sécession (1861-1865), conflit au terme duquel l’abolition est proclamée par le 13ᵉ amendement. La commémoration de cette abolition renvoie donc moins à une victoire consensuelle qu’à l’issue d’un affrontement violent révélant les failles du projet démocratique américain.

Le « 1619 Project », une relecture de l’esclavage

Dans les débats contemporains sur la mémoire de l’esclavage, le « 1619 Project » occupe une place centrale. Lancé en 2019 par le New York Times, ce projet historiographique et médiatique propose une relecture profonde de l’histoire des États-Unis en plaçant l’esclavage et ses héritages au cœur du récit national. En faisant de l’année 1619 – date symbolique de l’arrivée des premiers Africains réduits en esclavage en Virginie – un point de départ alternatif à 1776, le projet remet en question la centralité de l’indépendance comme moment fondateur unique.

L’impact du « 1619 Project », qui a valu à sa créatrice, Nikole Hannah-Jones, le prix Pulitzer en 2020, est multiple. Sur le plan académique, il s’inscrit dans une historiographie critique qui insiste sur le rôle structurant de l’esclavage dans le développement économique, institutionnel et culturel des États-Unis. Sur le plan politique et mémoriel, il alimente de vives controverses, notamment autour de l’enseignement de l’histoire, de la légitimité des récits nationaux et de la place accordée aux populations afro-américaines dans la mémoire collective.

Ses promoteurs défendent l’idée que l’abolition de l’esclavage ne peut être comprise comme une rupture nette, mais comme un moment dans une longue continuité de domination raciale et de luttes pour les droits civiques. À l’inverse, ses détracteurs dénoncent une approche jugée téléologique ou idéologisée. Quelles que soient ces critiques, le « 1619 Project » a contribué à transformer durablement les cadres de la commémoration de l’esclavage, en mettant l’accent sur les héritages contemporains de cette institution.

L’analyse comparée permet aujourd’hui d’éclairer les spécificités du processus abolitionniste américain. Contrairement à d’autres puissances esclavagistes, l’abolition aux États-Unis résulte d’un conflit armé interne d’une ampleur exceptionnelle. Là où le Royaume-Uni adopte une abolition progressive par voie législative, accompagnée d’indemnisations pour les propriétaires, et où la France proclame l’abolition par décret en 1848 dans un contexte révolutionnaire, les États-Unis connaissent une abolition imposée par la victoire militaire du Nord sur le Sud.

Cette violence structure la mémoire de l’abolition et contribue à expliquer les résistances persistantes à son acceptation pleine et entière. À titre d’exemple, les Copperheads illustrent ce courant. Il ne s’agit pas d’un mouvement officiellement fondé par un leader unique, mais d’une nébuleuse d’élus, de journalistes et de militants – tels que Clement L. Vallandigham, figure emblématique du groupe – unis par leur opposition à la politique de guerre d’Abraham Lincoln. Les Copperheads aspirent avant tout à une paix négociée avec les États confédérés, au nom de la préservation de l’Union telle qu’elle existait avant la guerre, sans transformation sociale profonde. Leur rejet de l’abolition de l’esclavage repose sur plusieurs arguments : ils la considèrent comme inconstitutionnelle, dangereuse pour l’équilibre fédéral, et susceptible de provoquer une concurrence économique entre anciens esclaves et travailleurs blancs du Nord.

Par ailleurs, l’après-abolition américain se caractérise par l’échec partiel de la Reconstruction, période pourtant cruciale pour la redéfinition de la citoyenneté et des droits civiques. Là où certains pays tentent – avec des succès variables – d’intégrer les anciens esclaves dans le corps politique, les États-Unis voient se mettre en place, dès la fin du XIXᵉ siècle, des systèmes de ségrégation et de discrimination légalisée. Cette comparaison met en évidence le caractère inachevé de l’abolition américaine, tant sur le plan social que politique.

Enfin, la commémoration de l’abolition de l’esclavage aux États-Unis s’inscrit pleinement dans les débats contemporains sur la question raciale. L’abolition juridique de 1865 n’a pas mis fin aux inégalités structurelles, comme en témoignent la ségrégation, les violences raciales, les discriminations systémiques et les inégalités socio-économiques persistantes. Les commémorations actuelles, telles que Juneteenth, le 19 juin, reconnu comme jour férié fédéral en 2021 pour célébrer l’émancipation des esclaves, prennent ainsi une dimension éminemment politique. Elles visent non seulement à rappeler un événement historique, mais aussi à souligner la continuité des luttes pour l’égalité et la reconnaissance.

Dans cette perspective, commémorer l’abolition revient à interroger la capacité des États-Unis à se confronter à leur propre passé et à reconnaître les limites de leur projet démocratique. Loin d’être un simple rituel mémoriel, la commémoration devient un espace de débat critique sur la nation, ses valeurs et leurs traductions concrètes. Elle révèle que l’abolition de l’esclavage, plutôt qu’un aboutissement, constitue un moment fondateur d’un combat toujours en cours pour une démocratie réellement inclusive.

The Conversation

Frédérique Sandretto ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. De l’histoire à la mémoire : 160 ans de commémoration de la fin de l’esclavage aux États-Unis – https://theconversation.com/de-lhistoire-a-la-memoire-160-ans-de-commemoration-de-la-fin-de-lesclavage-aux-etats-unis-272635