Crèches, écoles… les bâtiments publics au défi d’un nettoyage moins polluant

Source: The Conversation – France (in French) – By Guillaume Christen, Maître de conférences à l’Université de Strasbourg, docteur en sociologie de l’environnement, Université de Strasbourg

Les biocides utilisés dans les produits de nettoyage, en particulier pour la désinfection des bâtiments publics, participent à la pollution de l’eau. Pourtant, des alternatives existent, mais faire évoluer les pratiques est difficile. En cause, la méconnaissance des risques au sein de la filière ainsi que l’organisation du travail actuelle.


Nous manipulons au quotidien des produits contenant des biocides, par exemple pour l’entretien de la maison, l’hygiène personnelle, la lutte contre les nuisibles, etc. En milieu urbain, leur utilisation s’est diffusée dans de nombreuses activités : construction, nettoyage, entretien des espaces verts, etc. On y recourt, par exemple, pour la protection des revêtements de façade afin de lutter contre les mousses et moisissures ou dans des usages domestiques tels que l’hygiène et l’entretien des bâtiments (sols, sanitaires…).

Or, l’utilisation de ces substances contribue à une dégradation de la qualité des eaux. Les solutions envisagées privilégient généralement un traitement des micropolluants après usage. Toutefois, les stations d’épuration ne retiennent que partiellement les molécules polluantes.

Ce constat invite à repenser les usages et à étudier la possibilité d’une réduction à la source. Mais renoncer aux biocides n’est pas une évidence. En effet, il s’agit d’un enjeu environnemental mal identifié par la population. Il requiert aussi des changements de pratiques susceptibles de se heurter à des formes d’inertie.

La question du renoncement aux biocides pour la désinfection (bactéricides, virucides, fongicides) est particulièrement sensible. C’est encore plus vrai dans les secteurs de la petite enfance et de la maintenance de bâtiments municipaux.

Les pratiques en place pour nettoyer les bâtiments publics

Pour comprendre ces enjeux, nous avons mené une enquête sociologique à l’échelle de l’eurométropole de Strasbourg. Celle-ci se fonde sur une trentaine d’entretiens semi-directifs réalisés auprès de la chaîne des acteurs du secteur du nettoyage, en particulier le personnel d’entretien, les responsables techniques et les fournisseurs.

Nous nous sommes appuyés sur l’idée d’une réduction des biocides à la source, à partir du concept de « redirection écologique ». Il ne s’agit pas de simplement optimiser les pratiques existantes, mais bien d’abandonner l’utilisation de certains produits susceptibles de contenir des biocides nocifs.

Dans l’enquête, nous avons cherché à comprendre comment les professionnels de la filière du nettoyage peuvent innover différemment, en utilisant moins de produits chimiques, soit en considérant des alternatives comme la désinfection à la vapeur, soit en privilégiant des composés plus naturels tels que l’acide lactique.




À lire aussi :
Comment limiter le recours aux produits biocides dans les enduits de façades ?


Des micropolluants omniprésents, en particulier les ammoniums quaternaires

Les biocides, dont l’étymologie désigne l’action de neutraliser « les vivants indésirables », sont qualifiés de « micropolluants » en raison de leur faible concentration dans les systèmes aquatiques urbains. Bien que présents en petite quantité, leur impact toxicologique notable sur l’environnement et la santé humaine nécessite notre attention.

Les sources sont, en effet, nombreuses : traitements antibiotiques, PFAS, peintures de façade ou encore désinfectants domestiques, objet de notre propos.

Afin d’assurer la désinfection de certaines surfaces (sols, tables, sanitaires, points de contact), professionnels et particuliers ont recours à l’utilisation de biocides nommés « ammoniums quaternaires » (ou « QUATS »). Or, leur persistance dans l’environnement est préoccupante. Bien qu’il existe d’autres méthodes de désinfection (acide lactique, nettoyage à la vapeur), l’usage de QUATS est la pratique dominante, en partie en raison de leur utilisation reconnue dans le milieu médical. S’il n’est pas possible de quantifier le volume de QUATS introduits dans l’environnement, leur prédominance dans les usages en fait un sujet de santé environnementale, dans une démarche One Health).

Le nettoyage étant une compétence municipale, une commune peut renoncer à l’usage de ces composés. Toutefois, le risque « biocide » est mal identifié par les différents acteurs de la chaîne, ce qui complique sa transmission vers les agents d’entretien qui les manipulent au quotidien.

Un risque invisibilisé par l’« effet de filière »

Il existe en effet un « effet de filière » qui entraîne la délégation de la confiance à des acteurs spécialisés. Cela se traduit par une mise à distance, pouvant être à l’origine d’une « capacité empêchée » des professionnels à formuler une préoccupation environnementale quant à l’usage d’un produit.

Cela se manifeste par une méconnaissance de la composition des produits utilisés, tout au long de la chaîne d’acteurs. Cette perte de savoir s’observe dès les fournisseurs, incapables de transmettre l’information aux responsables techniques et eux-mêmes aux agents. Après usage, les eaux contenant les produits de nettoyage sont collectées et traitées en stations d’épuration. Leur gestion discrète invisibilise le devenir des eaux de nettoyage et la compréhension courante de l’enjeu.

Dans ce contexte, les services techniques de nettoyage, notamment ceux des municipalités, ne font pas de la composition du produit un critère de choix. Ils font confiance aux fournisseurs-producteurs, explique un coordinateur des agents d’entretien d’un établissement scolaire :

« Nous, on est l’utilisateur, on n’est pas le fabricant, donc nous, on arrive à la fin de la chaîne. Nous, on arrive, on dit : “Moi, je veux un produit pour nettoyer.” Après c’est lui, le concepteur, qui dit : “Bah, voilà pour cette tâche, il faut tel grammage, il faut ceci, cela.” Moi, ça, ce n’est pas mon souci. »

Acteurs clés de la filière, fabricants et fournisseurs interviennent dans la définition des pratiques de nettoyage. Ces derniers vendent non seulement des produits d’entretien, mais aussi les préconisations d’application (le type de surface, la fréquence d’utilisation, la préparation, le dosage pour dilution ou encore la méthode de nettoyage), que les agents d’entretien respectent.

Les professionnels perdent ainsi la « trace » et la « mémoire » de la composition chimique des produits d’entretien ainsi que de leurs impacts possibles sur les milieux.

Des alternatives à s’approprier

Désinfecter avec des biocides nocifs (QUATS) n’est pourtant pas inéluctable. L’acide lactique et la vapeur sont deux alternatives déjà utilisées par certains professionnels engagés dans une démarche écologique plus générale. Elles incarnent l’idée d’innover par le « retrait » en incitant à « faire sans » (vapeur) ou « avec moins » (acide lactique).

Ces alternatives qui innovent sans apporter de technologie supplémentaire peinent toutefois à susciter la confiance, dans un contexte où l’innovation technique apparaît comme la clé de lecture légitime. Ces réticences s’expliquent par le fait que l’efficacité est le critère principal servant à juger de la qualité d’un protocole de nettoyage. Or, selon le cercle de Sinner, cette efficacité dépend de quatre facteurs : le temps d’application, l’action mécanique (AM), la température et la chimie utilisée.

Le cercle de Sinner permet de décrire les différentes solutions de nettoyage, en fonction du rôle qu’y jouent quatre composantes : le temps, l’action mécanique, la température et la chimie.
ManonM12/Wikimédia

L’utilisation d’une chimie moins « agressive » se traduit par une augmentation d’au moins un des trois autres facteurs. Ce qui entraîne la modification des pratiques historiques ou même de l’organisation du travail (planning horaire, achat de machines). En d’autres termes, pour nos interlocuteurs, simplifier la chimie du nettoyage revient à complexifier l’organisation quotidienne, freinant l’adhésion aux alternatives.

Le renoncement aux biocides pour l’hygiène suppose de cerner les principaux acteurs impliqués, leur niveau de conscience des impacts (notamment sur la santé et sur l’eau) et les obstacles à l’utilisation d’alternatives. Retrouver des eaux urbaines de qualité et sans pollution est aussi un enjeu d’adaptation dans un contexte de crise écologique : leur réemploi constitue un levier majeur face aux aléas climatiques, par exemple lors des canicules et sécheresses.


ReactiveCity est financé par le programme Interreg VI Rhin supérieur. La recherche associe des chercheurs du département d’hydrologie de l’Université Albert-Ludwig de Fribourg-en-Brisgau (Allemagne), du Groupe de travail sur l’écotoxicologie fonctionnelle aquatique (Université de Coblence-Landau), de l’Institut de chimie durable et de chimie de l’environnement (Université de Leuphana Lüneburg), de l’Institut Terre et environnement de Strasbourg (Ites, porteur du projet) ainsi que du laboratoire Sociétés, acteurs, gouvernement en Europe (Université de Strasbourg).

The Conversation

Guillaume Christen a reçu des financements de l’Union européenne dans le cadre du projet Interreg 6 Rhin supérieur « ReactiveCity : vers une ville pro-active sans biocides » (sept. 2023 – août 2027).

Louise Negri a reçu des financements de l’Union européenne dans le cadre du projet Interreg 6 Rhin supérieur « ReactiveCity : vers une ville pro-active sans biocides » (sept. 2023 – août 2027).

Philippe Hamman a reçu des financements de l’Union européenne dans le cadre du projet Interreg 6 Rhin supérieur « ReactiveCity : vers une ville pro-active sans biocides » (sept. 2023 – août 2027).

ref. Crèches, écoles… les bâtiments publics au défi d’un nettoyage moins polluant – https://theconversation.com/creches-ecoles-les-batiments-publics-au-defi-dun-nettoyage-moins-polluant-278630

Protestant leaders once championed birth control – not to liberate women, but as part of ‘responsible parenthood’

Source: The Conversation – USA (3) – By Samira Mehta, Associate Professor of Women and Gender Studies & Jewish Studies, University of Colorado Boulder

Birth control pills have helped American women control their own bodies, but that wasn’t the main reason for religious leaders’ support. Hulton Archive/Getty Images

Mother’s Day seems like a strange time to celebrate birth control, which, on its most basic level, is about helping people to not become mothers – or not become mothers again.

But in the mid-20th century, much of birth control’s growing support came from attempts to support American women not as feminists, but as mothers. This is the story that I focus on in my 2026 book, “God Bless the Pill: The Surprising History of Contraception and Sexuality in American Religion.” Many religious leaders and U.S. politicians were looking for ways to strengthen the nuclear family, based around a homemaker mother and working father. Expanding legal access to contraception served as a way to make that happen.

Thought leaders who pushed to make birth control more available did not necessarily do so out of a desire to help women control their own bodies. They wanted to protect children and families and believed they were stronger when parents, particularly mothers, could devote intensive time to raising their children – ideally full time. Those views dovetailed with both political needs and Protestant beliefs of the moment.

‘Nuclear Family in the Nuclear Age’

The Cold War may have sprung from geopolitics and nuclear fears, but it was also a form of culture war, with American politicians pitting images of a “godly” United States against “godless communism.”

The nuclear family was a central piece of that propaganda. As historian Elaine Tyler May wrote, politicians, journalists and other public figures trumpeted the ideal of a mother, father and their children living in their own home: the “nuclear family in the nuclear age.” In their depiction, the American family was based on a sexually charged marriage between a beautiful – and fashionable – homemaker mother and a handsome father who could provide for his white, middle-class family.

A man in a suit and a woman with curled hair and red lipstick smile at each other as she holds a white pair of baby shoes.
Birth control made it easier for families to run a household on just one income – many religious leaders’ ideal.
H. Armstrong Roberts/ClassicStock/Getty Images

This idealized family could own a suburban home, one or two cars, and a constantly revolving selection of modern conveniences. Mothers were expected to invest in their appearance, presenting fathers with a delectable wife when they came home from work – plus a sparkling house and a home-cooked meal. In theory, this perfect mother had time, emotional energy and economic resources to parent their children in a very hands-on way.

Some middle- and upper-class Americans could afford this lifestyle, but it was out of reach for many, including many families that were not white. In addition, as Betty Friedan, one of the mothers of second-wave feminism, would articulate in “The Feminine Mystique,” many women who did live that life were not actually happy. That said, the idealized family was a central piece of American rhetoric in the middle of the 20th century – as was religion.

In the 1950s, more Americans attended church and synagogue than in any other decade that century. Around World War II, American figures started to often invoke the phrase “Judeo-Christian” to describe the country – a belated nod to Catholic and Jewish citizens in the still mostly Protestant nation. Nuclear families’ faith was considered a key piece of American defense against a “godless” Soviet Union.

American propaganda contrasted these ideal U.S. families against a vision of communism in which both parents worked. Soviet families were depicted in apartments with a shared kitchen and bathroom down the hall, without the material wonders of capitalism – from a brand new Frigidaire to a Kitchen Aid stand mixer and a Cadillac in the driveway.

In U.S. political rhetoric, the American family lived in technicolor, and the Soviet family lived in black and white.

‘Responsible parenthood’

But affording that vision of the American dream would be easier with fewer children.

Basic birth control methods had been part of American life for a long time – as evidenced by a declining birth rate among the middle and upper class, starting in the middle of the 19th century. “Scientific” birth control that required medical visits, such as diaphragms, had been around since the early 20th century.

A black-and-white photo shows a few women and lots of baby carriages outside a city storefront.
Women with children outside the first birth control clinic in the U.S., in Brooklyn, New York, in 1916.
Circa Images/GHI/Universal History Archive via Getty Images

Diaphragms became more accepted, and in 1936, a U.S. appeals court formally classified birth control as medical equipment. The birth control pill, which had been developed throughout the 1950s, was formally approved by the Food and Drug Administration in 1960.

Different Protestant denominations had slowly come to accept birth control, though the Catholic Church remained staunchly opposed to all except the rhythm method. Contraception turned procreation into a new place where Christians could live morally: not having more children than they could afford, nurture, educate and raise with knowledge of God. Denominational statements from groups as diverse as the Lutherans and the Quakers articulated a Christian form of planned parenthood that they would call “responsible parenthood.” In many ways, it was primarily about motherhood.

In 1960, the Rev. Richard Fagley published “Population Explosion and Christian Responsibility,” the first pan-Protestant theory of responsible parenthood. Fagley, a Congregational minister, called the medical knowledge that led to the contraceptive pill “a liberating gift from God, to be used to the glory of God, in accordance with his will for men.” He went on to say that godly scientific knowledge “affects deeply the size of the family … and therefore has created a new area for responsible decisions.”

While Fagley was the first person to collect various denominations’ views into a cohesive theology, his position represented a Protestant consensus, and his argument was adopted by the National Council of Churches the following year.

Birth control, in this formulation, was not about being child-free, or being able to engage in sex outside marriage. Rather, it allowed couples to decide, prayerfully, how many children they could have, and when they would have them. “Responsible parenthood” framed family size around “Christian duty.”

‘Mother-wife’

The theology of responsible parenthood makes clear that it is not about feminist autonomy for women.

For instance, when the National Council of Churches released a statement on responsible parenthood, the reasons listed for limiting the number of children in the family included “The right of the child to be wanted, loved, cared for, educated, and trained in the ‘discipline and instruction of the Lord’ (Eph. 6:4). The rights of existing children to parental care have a proper claim.” In the 1960s, the person assumed to do the majority of the work to raise a child was the mother.

A woman in a dress and apron with curled hair smiles as she hands a bowl to a seated man in a suit, as two children sit with him at a kitchen table.
Mid-century ideals for women imagined them as full-time mothers and homemakers.
Lambert/Hulton Archive/Getty Images

Religious leaders’ rationale included concern for the woman herself, but in her role as “the mother-wife,” as the statement said – framing women in relationship to the men and children in their lives. Birth control was important inasmuch as it preserved her body and mind to fill those roles. And the occasion for more widespread acceptance of “responsible parenthood” was the advent of the birth control pill, for which women were primarily responsible.

In other words, birth control gained acceptance as a way to perfect married motherhood. But in 1972, the Supreme Court case Eisenstadt v. Baird expanded the right of contraception from married people to single people, including teenage girls.

The religious consensus supporting birth control soon fractured among evangelicals and other conservative Protestants. Not only did they start to see birth control as supporting sex outside of marriage, but also as undermining a mother’s moral guidance of her daughters, who could now access contraception without parental consent. Many more liberal Protestants got quieter as well.

That early, vocal support for birth control has come back in recent years. Battles over the Affordable Care Act and the Supreme Court’s 2022 Dobbs v. Jackson decision have caused liberal Protestant denominations to reaffirm their commitment to reproductive healthcare, including birth control and abortion. That commitment has a long history – even if it is not a strictly feminist history.

The Conversation

Samira Mehta receives funding from the Henry Luce Foundation.

ref. Protestant leaders once championed birth control – not to liberate women, but as part of ‘responsible parenthood’ – https://theconversation.com/protestant-leaders-once-championed-birth-control-not-to-liberate-women-but-as-part-of-responsible-parenthood-280980

Hongrie : les clés du triomphe électoral de Péter Magyar

Source: The Conversation – France in French (3) – By Renata Varga, Maitresse de conférences en sciences de l’information et de la communication, Université de Lille

La victoire écrasante du parti Tisza aux récentes élections législatives marque un tournant historique en Hongrie et la fin de seize ans d’hégémonie du Fidesz de Viktor Orban. Ce succès repose sur la capacité de Péter Magyar à fédérer un électorat hétérogène, grâce à une stratégie combinant mobilisation de terrain, communication numérique et récit politique mobilisateur. Son leadership hybride, mêlant incarnation personnelle et crédibilité programmatique, a permis de transformer une dynamique d’opposition en majorité constitutionnelle.


La victoire du parti Tisza (Respect et liberté) aux législatives du 12 avril 2026 face au Fidesz de Viktor Orban a été sans appel. Porté par une participation record de 79,56 %, Tisza a obtenu une majorité constitutionnelle de 141 sièges sur 199, tandis que l’alliance Fidesz-KDNP s’effondrait à 52 sièges. Ce mandat exceptionnel lui confère la légitimité nécessaire pour réviser la Constitution, démanteler le système illibéral et rétablir les conditions d’un fonctionnement démocratique fondé sur l’équilibre des pouvoirs.

Ce résultat est d’autant plus remarquable que le Fidesz semblait indétrônable. Le système électoral avait été conçu pour favoriser son maintien au pouvoir ; les médias, sous son contrôle, diffusaient la propagande gouvernementale, dénigrant systématiquement l’opposition ; enfin, le Fidesz fonctionnant en mode « parti-État », les ressources financières publiques ont été massivement mobilisées en sa faveur durant la campagne. À l’inverse, Tisza, formation récente, ne disposait d’aucun financement public.

Agréger un vote anti-régime

Cette large victoire s’explique par la rencontre, au moment opportun – dans un contexte de crise politique et morale –, entre, d’une part, une forte attente de l’électorat d’opposition et, d’autre part, l’ambition, le talent et l’engagement hors norme de Péter Magyar, président du parti Tisza.

Magyar est parvenu, en à peine deux ans, à construire ex nihilo un parti-mouvement et à fédérer un électorat d’opposition hétérogène autour d’un objectif commun de changement de régime.

Ce ralliement s’est opéré au prix d’une mise entre parenthèses des clivages idéologiques traditionnels. Malgré un positionnement revendiqué à droite, son succès tient avant tout à sa capacité à agréger, dans le contexte d’un régime illibéral, des électeurs aux orientations diverses, y compris de gauche, tout en refusant toute alliance avec les anciens partis d’opposition. Un choix stratégique qui s’est révélé payant.

Au-delà de cette dynamique, Magyar a su enrôler dans son projet de transformation politique des citoyens désireux de changement et prêts à construire une véritable « communauté Tisza », avec 50 000 bénévoles-activistes implantés localement. Il s’est aussi entouré d’une excellente équipe de campagne.

Un travail de terrain intense

La principale force de Péter Magyar réside dans sa capacité de mobilisation et d’occupation de l’espace public. Pendant près de deux ans, il a sillonné le pays, multipliant les déplacements et les rencontres locales. Il est allé chercher des voix aussi bien dans les grandes villes que dans les zones rurales, y compris dans les bastions historiques du Fidesz, sans hésiter à s’exposer dans des contextes hostiles.

La vieille camionnette à plateau de Tisza, une Ford Transit customisée à la bombe aux couleurs nationales sur laquelle il sautait pour prononcer ses discours dans les villages, est devenue légendaire. Cette présence continue et son accessibilité lui ont permis de construire une relation de proximité avec l’électorat.

L’intensité de son travail se mesure à la cadence de ses meetings en fin de campagne. Durant le dernier mois, il en a tenu 108, dont 27 durant les cinq jours précédant l’élection, atteignant jusqu’à sept événements par jour – certains, dès 7 heures du matin.

Stratégie numérique efficace

La présence sur le terrain de Magyar a été amplifiée par une utilisation intensive des réseaux socionumériques, l’autre pilier de sa stratégie de communication. Maîtrisant les codes propres à ces plateformes, il s’est adressé efficacement à des publics différenciés, notamment aux jeunes.

Magyar s’est principalement appuyé sur ses comptes officiels, en particulier sur son compte Facebook – réseau largement dominant en Hongrie –, dont il assurait lui-même la gestion. Sa chaîne YouTube centralisait ses contenus vidéo, avec un recours fréquent aux formats en direct. En parallèle, son activité sur TikTok visait à toucher un public jeune et à construire une image plus informelle, proche des codes des influenceurs ; certaines de ses vidéos y ont dépassé le million de vues.

La diffusion en direct de ses meetings a donné à voir, en temps réel, l’ampleur de la mobilisation et l’enthousiasme suscité par le mouvement. Cette mise en visibilité a renforcé la dynamique militante, contribuant à transformer une présence locale en phénomène politique de portée nationale.

Cette stratégie numérique s’est révélée d’une efficacité redoutable. Magyar s’est imposé comme l’acteur le plus actif du paysage politique en ligne durant les deux années qui ont précédél’élection. Cela a favorisé la mobilisation des sympathisants de Tisza, dont l’activité s’est développée de manière largement organique, avec un niveau très élevé d’interactions et d’engagement.

Un récit symbolique rassembleur

Issu des rangs du Fidesz, Magyar maîtrise les codes et les ressorts de la communication de ses adversaires, qu’il s’est attaché, au cours de sa campagne, à retourner contre eux. Il a aussi élaboré un récit symbolique puissant, capable de concurrencer le récit dominant.

Son discours repose largement sur un usage stratégique des métaphores, empruntant à des registres variés pour dénoncer les dérives politiques et morales des représentants du pouvoir. Orban a ainsi été qualifié de « Don Corleone », de « vieil empereur », ou encore de « drôle de maître du palais carmélite [qui] se pavane dans son domaine à dix milliards de forints » (le forint est la monnaie nationale hongroise, NDLR), autant d’images destinées à frapper les esprits et à désacraliser la figure du pouvoir.

Le recours au folklore hongrois constitue un élément central de son récit. Il mobilise la figure de Döbrögi, un seigneur féodal cruel et cupide, pour incarner une élite prédatrice qui opprime le peuple. En miroir, il s’est identifié à Lúdas Matyi, le jeune berger rusé qui finit par triompher de l’injustice.

À l’instar d’Orban, Magyar puise dans la mémoire collective pour structurer son discours. Toutefois, là où Orban construit un récit fondé sur la menace, la peur et la défense d’une souveraineté assiégée, Magyar propose une narration tournée vers l’espoir et l’avenir. Cette opposition se traduit également dans le symbolisme architectural où les citoyens sont décrits comme des bâtisseurs plutôt que comme des soldats. La transformation politique est présentée comme un processus collectif, progressif, mais aussi comme un mouvement puissant et inéluctable.

Un leadership hybride

La force de Magyar tient à la nature hybride de son leadership. Son mouvement s’est d’abord construit autour d’une forte centralisation et d’une personnalisation assumée de la politique : durant de longs mois, sa campagne a pris la forme d’un véritable one-man-show, faisant de lui l’incarnation même du parti Tisza, au point que son image en est devenue indissociable.

Cependant, cette personnalisation ne s’est pas limitée à une posture de chef charismatique. Magyar a su lui adjoindre une crédibilité politique et institutionnelle, s’imposant comme figure d’autorité et se présentant comme un homme d’État en devenir. À côté de son récit symbolique, il a ancré sa campagne dans les réalités concrètes du pays, en mettant en lumière les dysfonctionnements affectant la vie quotidienne des Hongrois.

Ses déplacements sur le terrain ont joué un rôle central dans cette stratégie. Durant la canicule, il s’est rendu dans des hôpitaux, thermomètre à l’appui, pour dénoncer les conditions de travail du personnel soignant et l’état catastrophique du système de santé. En plein hiver, il a distribué du bois de chauffage aux populations les plus précaires. Il a également multiplié les visites dans des orphelinats afin d’alerter sur les défaillances de la protection de l’enfance, pourtant érigée en priorité par le gouvernement Fidesz.

Ce double registre – symbolique et pragmatique – constitue l’une des clés de son succès. D’un côté, Magyar projette un imaginaire collectif fondé sur la justice et la reconstruction ; de l’autre, il propose une offre politique structurée, élaborée avec l’appui d’experts et formalisée dans un programme détaillé, qui a contribué à rassurer. Ainsi, la victoire de Tisza s’explique par l’habileté communicationnelle de Péter Magyar et sa capacité à articuler incarnation personnelle, ancrage dans le réel et projection collective – symbolique d’une Hongrie heureuse et apaisée.

Action politique et popularité

Dès le lendemain des élections du 12 avril, Magyar s’est attelé à la tâche sans répit : conférences de presse internationales, interviews offensives dans les médias pro-Fidesz, échanges avec des dirigeants étrangers, négociations pour débloquer les fonds européens et constitution du futur gouvernement. Parallèlement, il multiplie les gestes symboliques de rupture : la séance inaugurale de l’Assemblée nationale et sa prise de fonction sont fixées au 9 mai, Journée de l’Europe, marquée par le retour symbolique du drapeau européen au Parlement.

Son usage stratégique des réseaux sociaux – auprès de ses 1,4 million d’abonnés sur Facebook – reste crucial avant sa prise de fonction officielle. Jonglant avec plusieurs figures de leader, il alterne habilement les registres. Il mêle annonces politiques et pression sur le pouvoir sortant, avec des appels à la démission du président de la République et d’autres figures clés ainsi que des alertes sur les destructions massives de documents dans les ministères et les transferts de fonds à l’étranger des oligarques proches d’Orban.

Il partage aussi des contenus plus personnels, comme un selfie à la salle de sport pour inciter les citoyens à l’activité physique à l’approche de l’été. Enfin, il excelle dans l’humour viral : lors d’une visite officielle au palais Sándor, apercevant Orban sur un balcon adjacent, il mime un geste iconique de Martin Scorsese et intitule la vidéo « Absolute Cinema », créant un mème devenu instantanément culte.

Dix jours après le scrutin, une enquête de l’Institut Medián révèle une avance importante de Tisza sur le Fidesz : un écart de 40 points, confirmant la popularité de Magyar, la confiance accordée au parti Tisza et l’ampleur du basculement politique en Hongrie.

The Conversation

Renata Varga ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Hongrie : les clés du triomphe électoral de Péter Magyar – https://theconversation.com/hongrie-les-cles-du-triomphe-electoral-de-peter-magyar-281822

Les « world models », lorsque l’intelligence artificielle apprend à comprendre le monde

Source: The Conversation – in French – By Julien Perez, Maître de conférences – IA et apprentissage machine, EPITA

Les systèmes d’intelligence artificielle générative, qui parlent si bien, ne comprennent pas encore le monde. De nouvelles méthodes physiques ou statistiques comme les world models, ou « modèles de monde », permettraient de les doter d’une forme de sens commun, qui leur servirait à mieux simuler la réalité et de mieux interagir avec elle.


Imaginez un enfant qui, après avoir vu une balle rouler derrière un canapé, sait instinctivement qu’elle continue d’exister et peut anticiper l’endroit précis où elle réapparaîtra. Cette capacité fondamentale, que la psychologie appelle la permanence de l’objet, constitue un socle de l’intelligence humaine. Nous ne nous contentons pas de réagir aux images qui frappent notre rétine ; nous simulons en permanence le futur dans notre esprit.

Aujourd’hui, l’intelligence artificielle tente de franchir ce cap décisif. Après l’ère des modèles capables de générer du texte, comme ChatGPT, ou des images, comme Midjourney, une nouvelle frontière se dessine avec les world models (« modèles de monde »). L’enjeu est de taille : il s’agit de doter les machines d’une forme de sens commun physique, spatial et logique pour qu’elles cessent d’imiter… et commencent enfin à comprendre.




À lire aussi :
L’esprit est-il une machine prédictive ? Introduction à la théorie du cerveau bayésien


Ces modèles montrent d’ores et déjà des résultats prometteurs en laboratoire ou dans des environnements simulés. Néanmoins, leur maturité reste limitée et leur déploiement réel est encore restreint aujourd’hui.

Pourquoi les IA actuelles restent-elles en partie limitées ?

Les systèmes d’IA les plus célèbres aujourd’hui sont des modèles génératifs, à l’instar de Claude ou de ChatGPT. Ceux-ci excellent à prédire le mot suivant dans une phrase ou le pixel suivant dans une image, en s’appuyant sur des corrélations statistiques monumentales.

À partir de cette idée de base, les premières preuves mesurables de raisonnement et de bon sens fonctionnel ont été observées dans l’histoire de l’intelligence artificielle (IA). Cependant, comme le soulignent régulièrement des chercheurs du domaine, tels que Yann Le Cun, directeur scientifique d’AMI Labs ou Fei-Fei Li, directrice scientifique de Worldlabs, ces modèles n’ont pas de représentation interne cohérente de la réalité physique.

C’est ce qui explique notamment leurs fameuses hallucinations : un modèle de langage peut affirmer avec une assurance totale qu’un œuf de vache est un ingrédient de cuisine classique, simplement parce qu’il manipule des concepts sans comprendre pleinement les contraintes biologiques du monde réel. Pour dépasser ce stade de « perroquet stochastique » (« stochastique » désignant un phénomène ou un modèle qui intègre le hasard de manière structurée, comme un calcul de probabilités où l’imprévu devient une donnée clé), l’IA doit intégrer une architecture capable de modéliser les causes et les effets.

Cette ambition n’est pas nouvelle, mais elle bénéficie aujourd’hui d’un alignement technologique inédit. Dès 1943, le neuroscientifique Kenneth Craik suggérait déjà que le cerveau humain fonctionne en construisant des modèles de petite échelle de la réalité pour anticiper les événements. Ainsi, lorsque l’on traverse la rue, notre cerveau imagine d’avance la trajectoire des voitures pour savoir quand il est sûr de passer.

Ce qui a changé depuis, c’est que nous disposons de la puissance de calcul et des cadres mathématiques suffisants pour tester cette hypothèse à l’échelle de machines complexes. L’intérêt pour ces modèles a notamment explosé après les travaux pionniers de David Ha et Jürgen Schmidhuber, en 2018. Ils ont montré qu’une IA pouvait apprendre à conduire dans un environnement virtuel en s’entraînant presque exclusivement dans ses propres « rêves ». Ces « rêves » correspondent à une simulation interne, créée par l’IA elle-même, qui lui permet de tester différentes stratégies sans interagir avec le monde réel.

L’architecture des modèles de monde

Ces auteurs ont introduit la notion de « modèle de monde » : une représentation interne et structurée d’un environnement qui permet à un agent d’anticiper les conséquences de ses actions. Le modèle virtuel synthétise l’information observable pour construire une version abstraite et manipulable du monde réel, facilitant la planification, la simulation et la prise de décision, même dans des situations complexes ou incertaines. Sur le plan technique, un modèle de monde repose sur une mécanique de compression de l’information et de prédiction.

Plutôt que de se contenter d’identifier des objets comme « chat » ou « balle » après apprentissage, un modèle de monde apprend à représenter le monde de manière plus riche et structurée.

Dans un premier temps, le système observe d’énormes quantités de données et en extrait une représentation compacte des dynamiques essentielles, par exemple la trajectoire d’un objet, la rigidité d’une surface ou les interactions spatiales entre plusieurs éléments (la patte du chat qui joue avec la balle). Cette abstraction ne se limite pas à des labels : elle capture des régularités physiques et logiques du monde.

Dans un second temps, le modèle peut simuler des scénarios futurs en utilisant cette représentation (la balle passe sous un fauteuil et le chat essaye de la dégager). Ainsi, si l’agent doté du modèle de monde précédemment décrit envisage une action, elle peut prédire ses conséquences avant même de l’exécuter, dans un environnement potentiellement incertain ou bruité.

Autrement dit, contrairement à la simple classification statistique « ceci est un chat », le modèle de monde apprend une sorte de mini-simulation interne du monde, qui combine perception, compréhension spatiale et logique, et capacité à anticiper.

Ici, l’approche reste statistique, similaire à l’apprentissage par renforcement, mais sans recours direct à des modèles physiques explicites ; elle se fonde uniquement sur les régularités observées dans les données (les balles qui roulent sous les objets en ressortent ou y restent coincées). Cette distinction entre approches statistique et physique devient importante lorsqu’on aborde des environnements complexes et incertains, où les prédictions doivent intégrer la variabilité naturelle du monde réel.




À lire aussi :
Des pistes pour une IA digne de confiance : mélanger expertises humaines et apprentissage automatique


Plusieurs propositions récentes illustrent le potentiel de l’approche statistique des modèles de monde. Le modèle V-JEPA de Meta apprend, par exemple, à comprendre les interactions physiques complexes en regardant simplement des vidéos, sans aucun étiquetage humain. De son côté, Google DeepMind a récemment dévoilé Genie, une architecture capable de créer des mondes virtuels interactifs à partir d’une simple photographie, prouvant que la machine a assimilé auparavant les lois de la physique et de la perspective.

Des applications qui touchent la société

Les répercussions de cette technologie sont massives et dépassent largement le cadre de l’informatique théorique.

En robotique, par exemple, un agent équipé d’un modèle du monde pourrait apprendre à manipuler des objets fragiles ou à se déplacer dans un entrepôt encombré sans passer par des milliers d’heures d’essais physiques coûteux et risqués.

Dans le secteur des véhicules autonomes, des pionniers, comme Wayve, affirment utiliser des modèles du monde pour que les voitures anticipent les comportements difficiles à prévoir des piétons ou des autres conducteurs, là où les systèmes classiques se contenteraient de réagir avec un temps de retard.

Dans le domaine de la santé, les jumeaux numériques sont encore en phase d’exploration et servent à simuler comment une maladie pourrait évoluer en réponse à un traitement expérimental. Toutefois, ces modèles ne donnent pas des prédictions certaines : ils sont dits « probabilistes », ce qui signifie qu’ils reposent sur des calculs de probabilités. Autrement dit, ils estiment plusieurs évolutions possibles d’un patient (amélioration, stabilité, aggravation) et attribuent à chacune une chance de se produire, en fonction des données disponibles et de modèles statistiques. Par conséquent, ces simulations restent des estimations, et non des certitudes. Elles doivent donc être validées avec beaucoup de rigueur, en particulier lorsqu’elles concernent des traitements qui n’ont encore jamais été testés en conditions cliniques réelles.

Les progrès de l’IA nous amènent à repenser ce que signifie réellement « comprendre » et « anticiper » dans un monde complexe. À terme, explorer ces questions pourrait non seulement transformer la technologie, mais aussi notre manière d’appréhender la cognition et la créativité humaines.

Il est important de nuancer l’enthousiasme autour de ces modèles. En dépit des avancées, celles-ci demeurent pour l’instant à l’échelle de la recherche et du développement. Par exemple, dans la robotique et les véhicules autonomes, la majorité des applications sont encore à l’état de prototypes ou de pilotes contrôlés, souvent dans des environnements très structurés.

L’adoption à grande échelle nécessitera de surmonter des défis techniques et réglementaires majeurs, comme la robustesse face à des situations imprévues ou la sécurité dans des contextes réels complexes. Ainsi, ces modèles sont en phase d’expérimentation avancée, et non opérationnels partout et tout le temps – même si leurs perspectives restent très prometteuses.

The Conversation

Julien Perez est membre de bpifrance, directeur de la recherche en AI.

ref. Les « world models », lorsque l’intelligence artificielle apprend à comprendre le monde – https://theconversation.com/les-world-models-lorsque-lintelligence-artificielle-apprend-a-comprendre-le-monde-281055

République centrafricaine, changer l’allocation de l’aide étrangère au service du développement du pays

Source: The Conversation – in French – By Tim Glawion, Senior research fellow at the Arnold Bergstraesser Institut, Freiburg, Germany, University of Freiburg

La République centrafricaine figure non seulement parmi les pays les moins avancés du monde, mais aussi parmi ceux qui ne progressent presque pas. Pendant longtemps, cette tendance a été expliquée par son statut de « pays orphelin de l’aide ». Pourtant, au cours de la dernière décennie, le pays a vu son aide étrangère tripler sans pour autant parvenir à sortir significativement sa population de la pauvreté.

En analysant en profondeur les budgets nationaux et les allocations d’aide du pays au cours des dernières décennies, nous sommes parvenus à la conclusion que les priorités n’avaient pas été fixées là où elles auraient le plus profité à la population.

Nous sommes deux chercheurs issus de disciplines et d’horizons professionnels variés : un chercheur allemand spécialisé dans la comparaison des conflits et ayant plusieurs années d’expérience dans l’étude de la République centrafricaine et un universitaire centrafricain qui étudie son pays depuis plus d’une décennie sous l’angle anthropologique.

Ensemble, nous avons tâché de combler le fossé entre l’approche qualitative et l’approche quantitative et de mettre en relation les données concrètes relatives à la budgétisation et à l’aide au développement avec une compréhension de ce que ces chiffres signifient sur le terrain pour l’une des populations les plus pauvres du monde.

En effet, trouver des données sur la RCA n’est pas une mince affaire. Pour constituer l’ensemble de données sur les budgets nationaux, nous avons dû copier manuellement les informations issues de fichiers image contenant les budgets des années précédentes, chacun comptant plusieurs centaines de pages, dans un vaste tableau Excel. Nous avons ensuite tenté d’aligner, tant bien que mal, les variations de nomenclature d’une année à l’autre.

Nous nous sommes également rendus dans des milieux ruraux difficiles d’accès pour discuter avec les habitants de leurs moyens de subsistance. Puis, nous avons recoupé leurs témoignages avec des rapports sur les chiffres économiques et agricoles. Nos résultats contredisent le mythe tenace selon lequel la RCA serait un « orphelin de l’aide ». Ils montrent comment les secteurs publics essentiels de l’après-conflit ne sont soutenus que par l’aide extérieure, et comment cette externalisation a permis à l’État de se militariser.

Démystifier le mythe de l’« orphelin de l’aide »

Si la RCA a bénéficié d’un soutien étranger moindre dans les années 1990 et au début des années 2000, et que pendant cette période, son indice de développement humain a stagné à un niveau bas, le niveau de l’aide par rapport au revenu national brut du pays n’en a pas pour autant été inférieur à celui d’autres pays comparables.

En effet, la part de l’aide étrangère dans le budget national est passée de 25 % avant 2012 à 50 % depuis 2016. Ainsi, si la dépendance budgétaire a doublé après la crise, le mode de gouvernance reposant sur l’aide étrangère a une histoire bien plus longue. Loin d’être un « orphelin de l’aide », la gouvernance de la RCA a depuis son indépendance intégré des sources de financement étrangères importantes dans le secteur public et son budget.

Un terrain difficile pour des ministères fantômes

Si l’aide étrangère ne s’est pas démentie, la question est de savoir si elle a été allouée et utilisée à bon escient. Les affaires économiques pourraient sembler prioritaires après que le PIB a chuté d’un tiers pendant la guerre civile.

L’agriculture devrait occuper une place centrale dans un pays où plus de 80 % de la population en dépend. Les travaux publics, l’énergie et les affaires humanitaires pourraient s’avérer utiles, alors que les infrastructures sont minimales, que 88 % de la population vit sans électricité et que les besoins humanitaires sont gigantesques.

Nous avons examiné en détail les budgets ministériels et soustrait toute l’aide budgétaire étrangère affectée à des fins spécifiques, généralement pour de grands projets d’infrastructures. Nous avons ainsi calculé ce que nous appelons le budget « interne », c’est-à-dire celui sur lequel le gouvernement exerce réellement son emprise et qu’il peut utiliser pour diriger le pays. Ceci montre que de nombreux ministères chargés de tâches importantes dans un contexte post-conflit sont soutenus essentiellement par les allocations d’aide étrangère.

Même avec ces allocations, les ministères font souvent relativement peu, car la grande majorité de ces fonds externes est dépensée en infrastructures et en équipement. On voit ainsi des bureaux agricoles ou d’administration publique apparaître dans la capitale Bangui et à travers le pays, mais pas le personnel, la formation et le matériel nécessaires pour fournir réellement des services à la population.

Est-on en train de favoriser la militarisation de l’État ?

Si l’on examine l’évolution budgétaire globale de 2019 à 2024, on pourrait considérer que la situation s’améliore. Le budget de l’agriculture, pilier de l’économie dont dépendent plus de 80 % de la population pour leur subsistance et leur survie, est passé de 3 % à 9 % du budget national. Il est ainsi en bonne voie d’atteindre les 10 % promis par les gouvernements, tels que celui de la RCA, signataires de la Déclaration de Maputo.

Le budget de la Défense est passé de 8 % à 13 %, une hausse qui s’explique par la persistance du conflit interne : après une guerre civile de 2012 à 2015, des groupes rebelles et d’autodéfense continuent de contrôler des zones rurales et de se battre contre les forces étatiques et internationales.

Cependant, nous avons été stupéfaits, lorsque nous avons examiné en détail les budgets « internes », qui reflètent davantage les priorités propres au gouvernement national. Le budget de l’agriculture stagnait à un maigre 2 %, tandis que celui de la défense avait presque doublé, passant de 10 à 18 %.

En d’autres termes, en prenant en charge des domaines civils clés, les acteurs de l’aide étrangère, comme l’Union européenne, les Nations unies et la Banque mondiale, ont peut-être permis au gouvernement de concentrer ses propres fonds limités pour assurer son contrôle militaire du pays. Et malgré cela, d’anciennes pratiques de racket aux barrières routières persistent pour subsister, en raison du non-versement de leurs primes générales d’alimentation (PGA).

Que pouvons-nous faire ?

Nous pouvons continuer à suivre de près la situation en RCA et à écouter ce que la population, et non les élites, souhaite pour son avenir. Lorsque les acteurs étrangers répondent aux attentes des citoyens, la coopération devient productive et fructueuse. Ce que souhaite avant tout la population de la RCA, c’est la paix et le développement.

Mais ce que ces deux termes signifient, c’est ce que nous devons réévaluer à la lumière des voix des populations civiles. Les réponses sont multiples, mais beaucoup ont trait à l’agriculture, aux marchés locaux, à l’éducation, à la fourniture durable de l’eau et de l’électricité, à la réhabilitation durable des routes, à la réduction du coût de la vie et aussi à la réduction du nombre de personnes en armes.

Le point de départ du développement devrait être ce que les gens font actuellement – principalement de l’agriculture de subsistance – et s’orienter vers la réalisation de leurs aspirations. Celles-ci sont souvent ancrées dans le contexte local, comme l’accès aux marchés pour vendre leurs produits et acheter des provisions, la scolarisation de leurs enfants et la sécurité.

Le gouvernement devrait donc réévaluer de toute urgence ses priorités. Si la sécurité reste une exigence urgente et immédiate de la population, sa légitimité à long terme ne peut reposer que sur la fourniture de services et l’amélioration des conditions de vie des citoyens. En d’autres termes, le gouvernement devrait consacrer la majeure partie de ses fonds à l’éducation, à la santé et à l’agriculture, et embaucher davantage de personnes dans ces secteurs en leur offrant des salaires équitables.

Pour les bailleurs de fonds étrangers, cela implique de reconnaître la nature non capitaliste de nombreux objectifs de développement immédiats. L’agriculture de subsistance ne doit pas être monétisée à la hâte, et l’emploi dans le secteur public ne doit pas être présenté comme un fardeau pour les ressources publiques.

Les bailleurs de fonds et les organisations internationales doivent oser soutenir les organisations de la société civile qui ne font pas partie de leurs partenaires habituels, telles que les syndicats, les militants, les agriculteurs et les commerçants. Ce sont ces personnes qui tissent des liens entre les différents mondes économiques – et qui s’opposent au pouvoir lorsqu’il est détourné.

Elodie Schuler a contribué à la rédaction de cet article

The Conversation

This work was funded by the Deutsche Forschungsgemeinschaft (DFG, German Research Foundation) – project numbers 437386574 and 468208645 and by research conducted within a consultancy for the German Agency for International Cooperation (GIZ).

Marius Crépin Mouguia does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. République centrafricaine, changer l’allocation de l’aide étrangère au service du développement du pays – https://theconversation.com/republique-centrafricaine-changer-lallocation-de-laide-etrangere-au-service-du-developpement-du-pays-281603

‘The farther away, the better’ is the problematic logic behind U.S. third-country deportations

Source: The Conversation – Canada – By Guillermo Candiz, Assistant Professor, Human Plurality, Université de l’Ontario français

Since January 2025, the Donald Trump administration in the United States has signed bilateral agreements with 27 governments to deport migrants to countries where they have no ties.

This process is known as third-country deportation, and it’s created a system that operates as migration deterrence. These agreements also transfer responsibility for managing migrant lives to the Global South.

In February 2025, the Trump administration sent two chartered planes carrying 200 people from countries like Iran, Afghanistan, Russia, Azerbaijan, Uzbekistan and China to San José, Costa Rica.

During our ongoing research that involved fieldwork in Costa Rica in 2025, we interviewed two families who were on board one of the planes. They had been shackled during the flight.

Alerted that the first deportation from the U.S. was to take place, Costa Rican journalists and human rights activists awaited the arrival at the airport. The Costa Rican agents closed the window blinds of the planes before removing the shackles.

Migrants given no information

As the migrants we interviewed told us — and as documented by Human Rights Watch — none of the people sent to Costa Rica spoke Spanish. They weren’t informed where the flights were headed or where they’d be taken upon arrival. No translators were present when the first plane landed, and only a few were available upon the arrival of the second flight.

U.S. authorities expelled the migrants without giving them the opportunity to apply for asylum. Although some third-country deportations had occurred prior to February 2025, they had typically been carried out on a much smaller scale.

The deportation of non‑citizens to Costa Rica set the stage for 27 bilateral agreements later signed by the Trump administration with governments across Latin America, Africa and Central Asia. What initially appeared to be an exceptional measure had, within a year, become a preferred approach to migration management.

‘Border spectacle’

In 2025, the U.S. deported approximately 675,000 people. Among them, around 15,000, or two per cent of the total, were sent to third countries.

Given the relatively low numbers involved, the objective is not the removal of large populations of unwanted migrants. Instead, these deportations function as what American migration scholar Nicholas De Genova terms “the border spectacle of migrant victimization.”

Such spectacles are designed to generate fear. They encourage some asylum-seekers already in the country to leave and aim to deter others from attempting to cross into the U.S. altogether.

The principle rationale for this border regime was made explicit by U.S. Secretary of State Marco Rubio in July 2025: “The further away, the better, so they can’t come back across the border.”

This statement wasn’t just rhetoric — it reflected U.S. policy.

Creating uncertainty about where migrants might be sent — whether Eswatini, South Sudan, Rwanda, Costa Rica or Cameroon — was central to the strategy. It served both to deter would-be migrants in their home countries and to pressure those already in the U.S. to pursue what the administration called “self-deportations.”

Why do Global South states sign on?

To push countries in the Global South to accept deportation agreements for non-nationals, the U.S. relies on four forms of pressure: direct payments, visa restrictions, tariff threats and conditions on foreign aid.

Ghana, for example, secured the lifting of consular restrictions in August 2025 after agreeing to co-operate on deportations.

When Costa Rica signed its third-country deportation agreement in March 2026, President Rodrigo Chaves stated that he was “helping the economically powerful brother of the North” in order to avoid American tariffs on Costa Rican free-trade zones.

Eswatini agreed to receive deportees in exchange for financial transfers and improvements in its bilateral relationship with the U.S. Rwanda, for its part, capitalized symbolically on the model by incorporating it into its regional diplomatic strategy.

Taking on costs

Yet these negotiations are deeply one-sided. While the countries in questions may achieve short‑term gains, they also take on additional, uncompensated costs.

As we learned through our interviews of migrants in Costa Rica, for example, 85 migrants of the approximated 200 received in February 2025 remained in the Central American country. That’s because they could not return to their countries of origin for fear of persecution, imprisonment or forced military recruitment.

Some later resumed their journey to the U.S. and successfully claimed asylum there. Others required access to medical care, work permits and other forms of assistance.

Beyond granting temporary residency permits with limited rights, Costa Rica lacks the resources to ensure the safety and security of these migrants and to adequately address their needs.

The Trump administration’s reduction in international humanitarian aid has further undermined Costa Rica’s refugee protection regime.

For migrants, this state of prolonged waiting marked by legal uncertainty has resulted in psychological distress. Several interviewees reported panic attacks, depression and insomnia.




Read more:
How international aid cuts are eroding refugee protections in the Global South


Beyond the United States

This emerging border regime is not uniquely American. In March 2026, the European Parliament endorsed the so-called return hubs mechanism, which opens the door to offshoring asylum processing.

Italy, for example, has had migrant detention hubs in Albania for more than a year.

Canada has reconfirmed its own Safe Third Country Agreement with the U.S.




Read more:
Tragedies, not accidents: Tougher Canadian and U.S. border policies will cost more lives


Canada also passed Bill C-2 and Bill C-12 in 2025, legislation that substantially restricts access to asylum. What’s more, it reduced its refugee resettlement targets by 30 per cent for the 2026–28 period.

This doesn’t constitute a replication of the U.S. model, but it does reflect a convergence. Different mechanisms are increasingly aligned in the same direction: the progressive erosion of the right to asylum.

Mobilization

It’s therefore important to ask whether some refugee claimants deported to the U.S. may subsequently face third‑country deportations to other states.

In March 2026, more than 30 human rights organizations issued a joint statement calling for an end to chain deportations to Costa Rica. It explicitly accused the Costa Rican state as being complicit in — and directly responsible for — American violations of its asylum law and its international obligations under the United Nations’ 1951 Refugee Convention and 1967 Protocol.

In the Democratic Republic of the Congo, protests recently erupted against the anticipated deportation of 1,100 Afghans from the U.S. to the country.

UN human rights experts have also expressed alarm about the risk of torture, enforced disappearance or arbitrary deprivation of life in some third countries.

Across the globe, migration scholars, human rights organizations and allies must do more than voice concern — they need to co-ordinate, organize and actively resist this emerging border regime before it becomes entrenched.

The Conversation

Guillermo Candiz receives funding from The Social Sciences and Humanities Research Council (SSHRC)

Tanya Basok receives funding from Social Science and Humanities Research Council

ref. ‘The farther away, the better’ is the problematic logic behind U.S. third-country deportations – https://theconversation.com/the-farther-away-the-better-is-the-problematic-logic-behind-u-s-third-country-deportations-281687

Alaska’s near-record landslide tsunami sent a wave 1,580 feet up the fjord walls – and left clues for building a warning system

Source: The Conversation – USA (2) – By Michael E. West, Director of the Alaska Earthquake Center and State Seismologist, University of Alaska Fairbanks

The Tracy Arm landslide sent a tsunami wave far up the opposite side of the fjord near South Sawyer Glacier. John Lyons/U.S. Geological Survey

On the evening of Aug. 9, 2025, passengers on the Hanse Explorer finished taking selfies and videos of the South Sawyer Glacier, and the ship headed back down the fjord. Twelve hours later, a landslide from the adjacent mountain unexpectedly collapsed into the fjord, initiating the second-highest tsunami in recorded history.

We conduct research on earthquakes and tsunamis at the Alaska Earthquake Center, and one of us serves as Alaska state seismologist. In a new study with colleagues, we detail how that landslide sent water and debris 1,580 feet (481 meters) up the other side of the fjord – higher than the top floor of the Taipei 101 skyscraper – and then continued down Tracy Arm. The force of the water stripped the fjord’s walls down to bare rock.

An illustration compares the height of the tsunami's reach to some of the world's tallest buildings
The Tracy Arm landslide generated a tsunami that sent a wave so high up the opposite fjord wall that it would have overtopped some of the world’s tallest buildings. Here’s how it compares to other large tsunamis around the world.
Steve Hicks/University College London

It was just after 5 o’clock in the morning on a dreary day, and fortunately, no ships were nearby. In the months after, some cruise lines started avoiding Tracy Arm. However, the conditions that led to this event are not at all unique to this fjord.

Landslides are common in the coastal mountains of Alaska where rapid uplift, caused by tectonic forces and long-term ice loss, converges with the erosive forces of precipitation and moving glaciers. But a curious pattern has emerged in recent years: Multiple major landslides have occurred precisely at the terminus of a retreating glacier.

Though the mechanics are still poorly understood, these mountains appear to become unstable when the ice disappears. When the landslide hits the water, the momentum of millions of tons of rock is transferred into tsunami waves.

Two illustrations of Tracy Arm and the glacier's extent over time.
Maps show how the glacier has retreated over the years, moving past the section of mountain that collapsed (outlined in white on the right) in the days prior to the slide. The map on the right shows the height the tsunami reached on the fjord walls.
Planet Labs

This same phenomenon is playing out from Alaska to Greenland and Norway, sometimes with deadly consequences. Across the Arctic, countries are trying to come to terms with this growing hazard. The options are not attractive: avoid vast swaths of coastline, or live with a poorly understood risk. We believe there is an obvious role for alert systems, but only if scientists have a better understanding of where and when landslides are likely to occur.

Signs that a landslide might be coming

The Tracy Arm landslide is a powerful example.

The landslide occurred in August, when warm ocean waters and heavier precipitation favor both glacier retreat and slope failure. The glacier below the landslide area had experienced rapid calving – large chunks of ice breaking off and falling into the water – and it had retreated more than a third of a mile in the two months prior. Heavy rain had been falling. Rain enters fractures in the mountain and pushes them closer to failure by increasing the water pressure in cracks.

Most provocative are the thousands of small seismic tremors that emanated from the area of the slide in the days prior to the mountainside collapsing.

We believe that this combination of signs would have been sufficient to issue progressive alerts to any ships in the vicinity and homes and businesses that could have been harmed by a tsunami at least a day prior to the failure – had a monitoring program existed.

Escalating alerts are used for everything from terrorism and nuclear plant safety to avalanches and volcanic unrest. They don’t remove the risk, but they do make it easier for people to safely coexist with hazards.

For example, though people are still killed in avalanches, alert systems have played an essential role in making winter backcountry travel safer for more people. The collapse at Tracy Arm demonstrates what could be possible for landslides.

What an alert system could look like

We believe that the combination of weather and rapid glacier retreat in early August 2025 was likely sufficient to issue an alert notifying people that the hazard may be temporarily elevated in a general area. On a yellow-orange-red scale, this would be a yellow alert.

In the hours prior to the landslide, the exponential increase in seismic events and telltale transition to what is known as seismic tremor – a continuous “hum” of seismic energy – were sufficient to communicate a time-sensitive warning for a specific region.

Seismic data from the closest monitoring station to the landslide, about 60 miles (100 kilometers) away, shows the “hum” of seismic energy increasing just ahead of the landslide, indicated by the tall yellow spike shortly after 5 a.m. Source: Alaska Earthquake Center.

These observations, recorded as a byproduct of regional earthquake monitoring, warranted an “orange” alert noting immediate concern. The signs were arguably sufficient to recommend keeping boats and ships out of the fjord.

Our research over the past few years has demonstrated that once a large landslide has started, it is possible to detect and measure the event within a couple of minutes. In this amount of time, seismic waves in the surrounding area can indicate the rough size of the landslide and whether it occurred near open water.

A monitoring program that could quickly communicate this would be able to issue a red alert, signaling an event in progress.

The National Oceanic and Atmospheric Administration’s tsunami warning program has spent decades fine-tuning rapid message dissemination. A warning system would have offered little help for ships in the immediate vicinity, but it could have provided perhaps 10 minutes of warning for those who rode out the harrowing tsunami farther away.

An animation showing the tsunami’s reach up the fjord walls after the landslide, as well as the large cresting wave as it heads down Tracy Arm. Credit: Shugar et al., 2026.

There is no landslide monitoring system operating yet at this scale in the U.S. Building one will require cooperation across state and federal agencies, and strengthened monitoring and communication networks. Even then, it will not be fail-proof.

Understanding risk, not removing it

Alert systems do not remove the risk entirely, but they are a better option than no warning at all. Over time, they also build awareness as communities and visitors get used to thinking about these hazards.

Many of the most alluring places on Earth come with significant hazards. Arctic fjords are among them. The same processes that create this hazard – glacier retreat, steep terrain, dynamic geology – are also what make these landscapes so compelling. The mix of glaciers, ice-choked waters and steep mountains is exactly what draws people to these places. People will continue to visit and experience them.

The last view of Tracy Arm, taken from the Hanse Explorer motoring away from the South Sawyer glacier, before a landslide from a mountain just out of view on the left crashed into the fjord. The landslide generated a tsunami that sent a wave nearly 1,600 feet (about 490 meters) up the mountain on the right.

The question is not whether these places should be avoided altogether, but how to help people make more informed decisions. We believe that stronger geophysical and meteorological monitoring, coupled with new research and communication channels, is the first step.

On Aug. 9, visitors unknowingly passed through a landscape on the cusp of failure. An alert system might have given tour companies and people in the area the information they needed to make more informed choices and avoid being caught by surprise.

The Conversation

Michael West is part of a cooperative effort between the Alaska Earthquake Center, the Alaska Division of Geological and Geophysical Surveys, and the U.S. Geological Survey’s Landslide Hazards Program to improve the understanding of large deep-seated landslides in Alaska. This effort receives financial support from the USGS.

Ezgi Karasozen is part of a cooperative effort between the Alaska Earthquake Center, the Alaska Division of Geological and Geophysical Surveys, and the U.S. Geological Survey’s Landslide Hazards Program to improve the understanding of large deep-seated landslides in Alaska. This effort receives financial support from the USGS.

ref. Alaska’s near-record landslide tsunami sent a wave 1,580 feet up the fjord walls – and left clues for building a warning system – https://theconversation.com/alaskas-near-record-landslide-tsunami-sent-a-wave-1-580-feet-up-the-fjord-walls-and-left-clues-for-building-a-warning-system-282017

Using diesel generators to power the AI revolution would kill hundreds of Americans a year

Source: The Conversation – USA (2) – By Peter Adams, Professor of Civil and Environmental Engineering, Engineering and Public Policy, Carnegie Mellon University

Diesel generators sit outside a data center in Ashburn, Va. Amanda Andrade-Rhoades for The Washington Post via Getty Images

With U.S. electricity demand starting to rise quickly and expected to continue rising, largely because of the power needed for data centers that process artificial intelligence, people are looking for almost any potential solution.

And people are warning that the full projected demand may not actually develop, which could make massive investments in power plants unnecessary, raising Americans’ electricity rates even more.

U.S. Secretary of Energy Chris Wright is among those who have been promoting what might seem to be an attractive idea: “We have 35 gigawatts of backup generators that are sitting there,” he told an audience of natural gas industry leaders in December 2025. He was referring to diesel-fired engines at hospitals, office complexes, corporate campuses and even data centers to provide electricity if the grid goes down.

That amount of power would be a significant step toward meeting the nation’s expected energy needs, without needing new long-term investments in power plants or transmission lines. But it’s also vital to know, as Wright went on to note, that “emissions rules or whatever” mean those generators can’t just be turned on and left running when there’s not a power outage or other emergency.

As an environmental engineer who studies air pollution from the energy system, I believe this proposal is concerning. Those emissions rules are in place because diesel-powered generators are among the dirtiest sources of energy, emitting fine particulate matter and related chemicals. That is a pollutant whose total emissions from all sources are estimated to cause about 100,000 premature deaths every year in the U.S. And in fact, emissions regulations on backup generators are less stringent than other power sources because they are intended only to run in emergency situations.

If Wright’s idea took hold, diesel fumes would pour into the nation’s air, often near major metropolitan areas that already have air pollution problems. To see more closely what would happen, John Allen, a research assistant at Carnegie Mellon University, and I projected the effects on public health and air quality of running backup diesel generators at data centers.

Simulating the emissions of diesel generators

Comprehensive data is hard to nail down about locations of data centers and which ones have how many diesel generators on site. Nobody has yet made a detailed proposal for which generators might be switched on, or for how long, so we did an exploratory analysis.

We started with an online database of locations of data centers. We also found documentation suggesting there is at least 35 gigawatts of diesel-powered generating capacity at data centers across the U.S., so we allocated that amount, which Wright had mentioned, proportionally to each data center’s size.

We looked at a scenario where these generators ran continuously throughout the year, generating 310 terawatt-hours of electricity. The generators might be used less – Wright himself talked about running them for only “a few hours per year.” But once they’re allowed to be turned on for regular power generation, people might get used to having that electricity available.

We assumed that all diesel generators are relatively new and comply with the Environmental Protection Agency’s most recent and stringent standards, which took full effect in 2015.

We compared the air pollution created from the diesel generators with a scenario where that same amount of power – 310 terawatt-hours – came from the existing mix of power plants in regional electrical grids. This could happen if utility companies built more generation capacity of the same types that already exist in the region or built new transmission lines to deliver more power from elsewhere.

Because no air quality model is perfect, we used three different computer simulations, each of which has been published in scholarly research journals, to simulate what would happen to the diesel pollution and how people downwind would be affected.

Diesel is dirtier

We found that using diesel generators rather than grid electricity would cause significant amounts of fine particulate matter pollution that would be dangerous to people’s health. The exact results varied with each simulation and with a range of assumptions about emissions from diesel generators. But in general, we found that using backup diesel generators this way would cause about 500 more premature deaths per year in the U.S. compared with getting the same electricity from the central grid.

In a scenario where diesel generators were somewhat dirtier than the most recent standards, one air quality model had more than 800 additional people dying prematurely each year nationwide.

In the counties that would be hardest hit by the diesel generators’ pollution, the concentrations of fine particulate matter would increase by 0.25 to 2 micrograms per cubic meter of air, depending on the location and other assumptions for our calculations. This might not sound like a lot, but most urban areas in the U.S. already have fine particulate air pollution that’s close to the EPA limit of 9 micrograms per cubic meter. Adding that much more pollution risks tipping those communities beyond federal standards.

The Clean Air Act requires states to adjust their emissions to meet standards, so upping pollution from backup generators would require other cuts in emissions, such as at power plants and transportation.

Smoke billows from the top of a building labeled 'Sheraton.'
A diesel generator malfunction on a hotel roof in Denver in 2015 sent black smoke into the sky. Firefighters determined there was no fire.
Andy Cross/The Denver Post via Getty Images

Inspection and maintenance challenges

The results concern us, but reality might be even worse. We assumed that diesel generators would meet the most recent Tier 4 EPA emissions standards, but they may be older or exempt for other reasons.

For all our simulations, we assumed inspections and maintenance would keep emissions controls functioning properly at all generators. Modern diesel particulate filters are effective at reducing emissions, though not eliminating them entirely. When those filters fail, emissions skyrocket. Monitoring and maintenance at all of the generators, if they were running continuously, would be a logistical nightmare for regulators and the owners of the generators, and likely expensive as well.

Historically, centralized power plants that have thorough on-site monitoring are the most likely to have emissions control equipment running correctly to reduce emissions verifiably. Shifting to smaller generator units in a wide range of locations creates more potential points of failure and makes it harder to figure out that something has gone wrong, and where.

In our analysis, we compared backup diesel generators with the current electrical grid, where 60% of generation is still from fossil fuels. Increasing generation from renewable energy sources, such as solar panels and wind power, could help meet the rising demand for power without the additional emissions of dangerous air pollution.

The Conversation

Peter Adams has received research funding from various federal organizations, including EPA, NASA, NSF, and DOE as well as private philanthropic organizations.

ref. Using diesel generators to power the AI revolution would kill hundreds of Americans a year – https://theconversation.com/using-diesel-generators-to-power-the-ai-revolution-would-kill-hundreds-of-americans-a-year-280892

Fire is transforming the US West’s public lands – research shows overlooked cost to recreation

Source: The Conversation – USA (2) – By Kyle Manley, Postdoctoral research fellow, University of Colorado Boulder

Large-scale wildfires seem to turn visitors away, while prescribed burning may have the opposite effect. Helen H. Richardson/MediaNews Group/The Denver Post via Getty Images

Colorado’s two largest fires on record, the Cameron Peak and East Troublesome fires, burned hundreds of thousands of acres across some of the state’s most visited landscapes in 2020.

The fires scorched trails, campgrounds and beloved ecosystems in and around Rocky Mountain National Park and the Arapahoe and Roosevelt national forests.

More than five years later, the scars remain stark: blackened hillsides, closed trails and bare slopes where forests once stood. According to our recent research, which has not yet been peer reviewed, the fires caused significant and lasting declines in visitation at the burned sites.

A sign says readers are entering a burned area with hazards.
The East Troublesome Fire burned nearly 200,000 acres. Years later, the area is still recovering.
Jim West/UCG/Universal Images Group via Getty Images

Even after the 2020 fires, Rocky Mountain National Park attracted 4.2 million visitors in 2024, generating US$862 million in economic output in local gateway communities such as Estes Park and Grand Lake. Rocky Mountain National Park is a significant contributor to the nearly 1 billion annual visits and $700 billion in spending that public lands generate nationwide as outdoor recreation continues to grow. It also supports a variety of important social values beyond the economy, including mental health and well-being, cultural and spiritual connection, and the sense of place that binds people to landscapes.

But these landscapes are changing fast. Wildfires are affecting our public lands at an accelerating scale and increasing intensity. Yet how fire affects recreation has remained poorly understood.

That’s the question I set out to answer with an interdisciplinary team of researchers. As a scientist who studies the benefits nature provides to people and how those benefits are affected by climate change, I wanted to know whether fire is eroding one of the most recognized and valued benefits of nature: recreation.

Tracking visitation across burned landscapes

Our first challenge was gathering data about visits to these outdoor areas.

A handful of monitored public lands track visitor counts, but those counts can tell us only so much about how fires affect recreation. Wildfires often cross boundaries, for example from a national park into a national forest, and span dispersed remote areas where no one is monitoring visitation.

Alternatively, every time someone logs a hike on AllTrails, posts a nature photo to Flickr, reports a bird sighting on eBird or simply carries a phone into the backcountry, they leave a precise digital trace of where and when they spent time outdoors. We trained a visitation model on the on-site counts that do exist at monitored sites, using millions of these digital traces, alongside other recreation drivers such as weather, land cover and site characteristics, as predictors.

Across Colorado and California, this approach let us track visitation in burned areas across hundreds of wildfires and prescribed burns for years before and after each fire, even in the remote, unmonitored landscapes where most fires burn. But changes in visitation can have many causes, including weather, broader recreation trends, even pandemic effects. So we statistically paired each burned site with a very similar unburned site elsewhere on public lands. This let us measure not just what happened after each fire, but also what we could expect would have happened without it. The gap between those two is how fire actually affected recreation.

We found that it’s not simply fire itself that drives people away, but a confluence of the type and severity of a fire, the ecosystem that burned and the social values connected to the fire-impacted landscape.

Wildfires that empty trails – and ones that don’t

In Colorado, the average wildfire reduced visitation to burned sites by 8% in the year of the fire. Those declines never recovered to prefire levels for the five-year postfire period we tracked.

As fires grew larger and burned more intensely, recreational losses sharpened. Visitation dropped 15% to 20% at sites burned at higher severity. These declines lasted years. Take the Cameron Peak Fire, for example. The Arapaho and Roosevelt national forests typically see about 8 million visits a year. Our model estimates that the area burned in the Cameron Peak Fire drew nearly 500,000 visits annually before the fire. Applying our 15% to 20% average declines estimated for moderate- to high-severity wildfires, that translates to roughly 70,000 to 100,000 fewer trips annually, losses our analysis finds persist for years.

Two adults and two children gather together in front a selfie-stick with mountains behind them.
A family poses for a selfie in front of the Gore Range overlook in Rocky Mountain National Park in Colorado. The park saw 4.2 million visitors in 2024.
Helen H. Richardson/The Denver Post via Getty Images

But these postfire recreational losses were largely concentrated in forested landscapes. Wildfires that occurred in grasslands, such as the southeastern Colorado Cherry Canyon Fire in 2020, by contrast, seemed to barely register with visitors. Visitation at these grassland-dominated burn sites showed essentially no change. This pattern reveals something important. People’s recreational responses to fire are not just about the physical damage and accessibility impacts. They reflect the particular relationships people hold with different landscapes. Grasses recover within a season or two, and the wide-open vistas that draw people to those landscapes remain intact, even after a fire.

Forests are different. The towering canopies, shaded trails and old-growth character that people value may take decades or centuries to return, if they return at all in a changing climate.

In California, our analysis reveals how these human-nature relationships also vary across regions, with much sharper and more persistent losses than in Colorado. Californian wildfires reduced visitation by 18% in the first year on average, and high-severity forest fires produced losses of 33% that showed no recovery five years after the fire. California’s fires tend to be significantly larger, more severe and more concentrated in forested landscapes.

However, small fires in California actually increased visitation by 8%. This suggests that after years of megafires, a small burn may barely register. Californians have grown accustomed to a fire-shaped landscape, and a modest fire scar may not be enough to keep them off the trails.

Prescribed fire tells a different story

As wildfire intensifies, land managers are responding by expanding prescribed fire programs. They are intentionally setting lower-intensity fires to clear out the dead trees, dry brush and accumulated debris built up from over a century of fire suppression that can feed catastrophic wildfires.

Current prescribed fire planning tends to focus on reducing fire suppression costs and protecting properties, as well as managing ecosystems by reducing fuel loads and improving wildlife habitat. But managers are scaling up these programs without knowing how prescribed fire affects the recreationists who visit these landscapes, a gap our analysis sets out to fill.

A VOX video on how decades of stopping forest fires made them worse.

In Colorado, we found that on average prescribed fire actually increased visitation by about 8% in the year of the fire. This increase may reflect improved trail conditions, enhanced wildlife habitat that attracts birders and hunters, or positive public perceptions of proactive management.

In California, prescribed fire on average decreased visitation by about 3%. Crucially, in stark contrast to wildfire, impacts were short-lived, with visitation returning to prefire levels within three years in both states.

Beyond their direct effects on recreation, prescribed burns also reduce the likelihood of future extreme fires – the very fires that drive the largest and longest-lasting recreation declines.

Why this matters beyond fire

Some of the Colorado communities that are most dependent economically on recreation experienced the steepest visitation declines in the period we studied. These are towns such as Grand Lake, Durango and Gunnison, where shops, hotels, restaurants and seasonal workers rely on a steady flow of visitors, and where sales tax from those visitors funds the infrastructure and daily life of the community. Persistent declines in visitation threaten the long-term viability of these places.

The implications run beyond fire. Calls to consider less tangible benefits of nature, such as recreation, into climate impact assessments, extreme events research and conservation planning have grown recently. Turning those calls into action requires evidence that can help land managers make decisions. Our work provides some of that evidence for fire and a framework that can be used for other disturbances, such as floods and droughts. Without accounting for these less tangible values of nature, increasingly extreme climate impacts will keep eroding the experiences, livelihoods and connections that sustain the well-being of millions of Americans.

Read more of our stories about Colorado.

The Conversation

Kyle Manley receives funding from the CIRES Visiting Fellows Program, funded by NOAA cooperative agreement NA22OAR4320151.

ref. Fire is transforming the US West’s public lands – research shows overlooked cost to recreation – https://theconversation.com/fire-is-transforming-the-us-wests-public-lands-research-shows-overlooked-cost-to-recreation-279831

Sleep apnea compromises far more than a good night’s rest – 2 neuroscientists outline the risks and the need for better diagnosis

Source: The Conversation – USA (3) – By Erika Yamazaki, PhD candidate in Neuroscience, Northwestern University

Snoring can be − but isn’t always − a symptom of sleep apnea. PeopleImages/iStock via Getty Images

Annual medical checkups typically cover the basics: diet, exercise and mental state. Surprisingly, many primary care providers fail to ask about one of the fundamental contributors to well-being: sleep.

We are two neuroscientists who study sleep and memory. We have both experienced this omission with our own doctors, even though we represent different ages and genders.

When asked, almost everyone has complaints about their sleep, yet most people fail to prioritize sleep. But poor sleep shouldn’t be ignored.

One particularly problematic sleep disorder is sleep apnea, and it is not rare. The condition affects nearly 1 billion people worldwide, estimates suggest, and the number continues to grow. In October 2025, former basketball star Shaquille O’Neal was featured in an awareness campaign for sleep apnea. But much greater awareness is needed.

The most common type of sleep apnea, obstructive sleep apnea, is characterized by repeated blockage of breathing during sleep, often resulting in sleepiness during the day, headaches or snoring – or a combination of these – and in the long term, increased risk for cardiovascular diseases.

Patients may not fit the typical profile: The stereotype is that the ones with sleep apnea are older males trending toward obese. Others may find that their sleep-related complaints are overlooked at wellness checks. These are missed opportunities for gathering critical health information that is important for diagnosis. Sleep apnea thus remains undiagnosed far too often in women and also in other groups.

Sleep apnea is not just about sleep

Sleep apnea is more than a sleep disorder. While it manifests when you are sleeping, with repeated partial or total pauses of breathing during sleep – termed hypopneas and apneas – its effects extend far beyond the night.

Repeated apneas and hypopneas tend to occur alongside reductions in oxygen levels in the brain and body. These episodes can happen more than 100 times per hour and on average last about 20 seconds. Despite brief awakenings that can occur after a person with sleep apnea stops breathing, by the morning they usually don’t remember ever pausing their breathing.

Reduced oxygen then leads to increases in blood pressure and heart rate, which stresses the cardiovascular system. Untreated sleep apnea can lead to a host of cardiovascular diseases, such as hypertension, heart failure and stroke. Sleep apnea is also associated with increased risk of dementia, as in Alzheimer’s disease and other neurodegenerative disorders.

Beyond health effects, the disorder is linked to reduced quality of life, a higher risk for motor vehicle accidents and increased medical costs for individuals, as well as for societies and governments.

Graphic illustration of obstructive sleep apnea with obstructed sleep on the left and an obstructed airway on the right.
Sleep apnea is characterized by breathing blockages during sleep.
Pikovit44/iStock via Getty Images Plus

A growing problem meets new solutions

The growing prevalence of obstructive sleep apnea reflects multiple factors. Greater awareness among medical professionals and accessible screening tools have helped.

At the same time, an increase in obesity rates and an aging global population have also contributed to the rise in cases diagnosed.

The treatment of sleep apnea has also advanced considerably over the past 20 years. The standard treatment for sleep apnea is continuous positive airway pressure, or CPAP, which prevents airway collapse with a stream of air through the mouth or nose.

However, people often report that CPAP is burdensome, and for some the therapy is intolerable. For those who dislike CPAP, implantable nerve stimulation devices can be effective. Other therapies include oral appliances to shift the jaw forward and open the airway, positional therapies to avoid back-sleeping, and myofunctional training to strengthen tongue and throat muscles.

Nevertheless, new treatment approaches are still needed. In late 2024, the U.S. Food and Drug Administration approved tirzepatide – the active ingredient in the GLP-1 drugs Mounjaro and Zepbound – for treating obstructive sleep apnea. The drug helps by lowering body weight, given that excess weight is associated with the disorder.

Both new and long-standing treatments for sleep apnea can be effective in reducing the detrimental health consequences. Yet these advances raise an important question: Who gets diagnosed and ultimately benefits from the treatments – and who doesn’t?

CPAP machine diagram with arrows pointing to air flow on a person wearing a mask in a bed.
CPAP is the most common treatment for sleep apnea, but many people find it intolerable.
VectorMine/iStock via Getty Images

Who gets diagnosed – and who gets missed

Despite the growing prevalence of sleep apnea, diagnosis and treatment do not occur equally across populations. Women with sleep apnea often experience headaches, insomnia and depression – symptoms that common screening tools for sleep apnea do not mention.

Hormonal changes throughout a woman’s life, different anatomy of the airway and differences in sensitivity to higher levels of carbon dioxide in the blood compared to men all suggest that more research and better tools are needed to improve healthcare for women with sleep apnea.

Many of the current diagnostic tools and treatment standards were developed based on studies in white populations.

Pulse oximetry on the finger detects decreases in blood oxygen, a key marker of sleep apnea screening and diagnosis. These finger oximeters are less sensitive in people with darker skin pigment, which likely leads to underestimates of severity.

At the same time, Medicaid beneficiaries in the U.S., who are disproportionately from racial minorities, are more likely to be denied long-term coverage for CPAP treatment, despite the finding that Black men have more severe sleep apnea than their white counterparts.

What you can do

Your probability of getting a referral to a specialist increases ninefold when you ask your primary care provider about sleep apnea. And there’s no need to be overly concerned about undergoing a sleep study in a hospital. Sleep studies can now be conducted at home to diagnose sleep apnea.

If you or your bed partner have any suspicions based on even a small subset of the possible symptoms of sleep apnea, bring it up with your healthcare provider. Mention any daytime symptoms, such as excessive sleepiness or headaches, and any nighttime symptoms, such as frequent urination, waking up short of breath, snoring or insomnia.

Starting the conversation may be the first step toward diagnosis and treatment – and to better health and well-being.

The Conversation

Ken Paller receives research funding from the US National Institutes of Health and the Tiny Blue Dot Foundation. He consults for and owns shares in NextSense, Inc.

Erika Yamazaki does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Sleep apnea compromises far more than a good night’s rest – 2 neuroscientists outline the risks and the need for better diagnosis – https://theconversation.com/sleep-apnea-compromises-far-more-than-a-good-nights-rest-2-neuroscientists-outline-the-risks-and-the-need-for-better-diagnosis-276732