‘The Jungle’ at 120: How a 1906 novel continues to surface in discussions about unjust labour

Source: The Conversation – Canada – By Nicholas Marcelli, PhD Candidate in English Literature and Creative Writing, Queen’s University, Ontario

Workers at Union Stock Yards in Chicago, from a postcard published in 1923. (Wikimedia)

In an age of inequality and exploitation, a 1906 novel that exposed hazardous working conditions and unsanitary practices in Chicago’s meat-packing plants at the turn of the 20th century still pops up in discussions about unjust labour.

A 2025 Current Affairs story about health problems for workers in poultry and pork processing plants reported on by the U.S. Department of Agriculture suggests “we never left Upton Sinclair’s Jungle.

A 2024 book, Barons: Money, Power, and the Corruption of America’s Food Industry explains how the Department of Labor’s discovery, in 2022, that “a contractor hired … to clean slaughterhouses employed over a hundred children in ‘hazardous occupations’ seems as if it came “straight out of ‘The Jungle.’”

What is it about Upton Sinclair’s 120-year-old novel that endures?




Read more:
Radicals in the Democratic Party, from Upton Sinclair to Bernie Sanders


Novel’s origins

In 1904, Sinclair was commissioned by an editor of the socialist newspaper the Appeal to Reason to write a novel about wage slavery. Sinclair reveals in his autobiography that he chose the Chicago stockyards as its setting because of a recent failed strike led by the Amalgamated Meat Cutters and Butcher Workmen of North America.

Beginning in October 1904, Sinclair lived for seven weeks among those he described as the “wage slaves of the Beef Trust” and went undercover in the plants by posing as an employee. He began writing on Christmas Day 1904, and three months later, the book was complete.

The Jungle appeared serially in the Appeal to Reason from February to November 1905 before being published as a full-length novel by Doubleday, Page & Co. in February 1906.

Harrowing conditions

A horizon of smoke shack factory buildings foregrounded by cattle pens.
Detail from a 1904 postcard featuring Union Stock Yards.
(Jason Woodhouse/Flickr), CC BY

The book tells the story of Jurgis Rudkus, who is drawn to the stockyards by the promise of wealth after immigrating with his family from Lithuania to Chicago’s Packingtown neighbourhood. When family members, including the children, find work in the plants, they experience harrowing conditions.

As tragedy befalls them, the novel becomes a condemnation of early 20th-century capitalism, ultimately celebrating the virtues of socialism.

Although Sinclair’s novel is not without its flaws — for example, an unnamed critic in the March 3, 1906 edition of The New York Times wrote Sinclair’s “art is too obvious, his devices too trite” and “there is nothing spontaneous in the book save his imaginative descriptions of human misery” — the book portrayed vivid scenes.

Notably, The Jungle depicted child labourers, primarily Stanislovas Lukoszaite, a 14-year-old member of the family who is sent to work in a lard-canning factory.

Novel’s reception

While The Jungle was a novel, it simultaneously continues to be regarded as one of the most significant pieces of muckraking journalism
pre-First World War writing concerned with exposing hardships or corruption and promoting social and political reform.

In journalism historian Bruce J. Evensen’s book, Journalism and the American Experience, he describes how Sinclair had hoped that when the novel was published, “it would expose the deplorable working conditions of killing and cutting gangs. Instead, it was his frightful description of food processing that provoked public outrage.”

This misplaced attention famously led Sinclair to declare in his autobiography: “I aimed at the public’s heart, and by accident I hit it in the stomach.”

All but one of Sinclair’s claims were proven true in a special investigation into the Chicago stockyards conducted in June 1906 at the request of President Theodore Roosevelt. Investigators confirmed the unsanitary working conditions in the meat-packing plants, but made no reference to child labourers.

In author Jack London’s review of The Jungle for Wilshire’s Magazine, he called the book “the ‘Uncle Tom’s Cabin’ of wage slavery,” a reference to Harriet Beecher Stowe’s 1852 novel, first serialized in an abolitionist newspaper.




Read more:
How ‘Uncle Tom’ still impacts racial politics


London described how Sinclair “painted a horrifying picture of the industry, which still haunts the American imagination.”

Depictions of child labourers

A man in an overcoat with white shirt and tie.
Upton Sinclair posed as employee for seven weeks in a meat-packing plant.
(Los Angeles Times Photographic Collection/Wikimedia), CC BY

I contend that the endurance of The Jungle in the current popular imagination stems from its representation of children’s work in the meat-packing industry, particularly at a time, as Sinclair writes in the novel, when packers “worked all but the babies.”

Children were seen as essential because, as described by a character in the novel, Grandmother Majauszkiene, “there was always some new machine, by which the packers could get as much work out of a child as they had been able to get out of a man, and for a third of the pay.”

When Sinclair was writing, there may have been anywhere between 700 and 1,600 children under 16 years old working in the plants. Economist Edith Abbott, drawing from the 1905 Census of Manufacturers, writes that out of 74,134 employees nationwide, 974, or two per cent, were children.

Scant statistics around working children

In my doctoral research, I have found there are few statistics on the number of children working in meat-packing plants during the late 19th and early 20th centuries, either due to the lack of reporting or efforts by employers and families to avoid child labour laws. This view is reaffirmed by Sinclair’s contemporary, Algie Martin Simons, in his 1906 pamphlet, “Packingtown.”

A book showing smokestacks that says 'The Jungle' as a title.
First edition of ‘The Jungle’ published by Doubleday, Page & Company.
(Wikimedia)

Because of the scant statistics and lack of accurate reporting or testimony from child workers in the meatpacking plants of the early 20th century, The Jungle, as a literary work, is an important piece of evidence that children worked in these plants at all.

Today, advocacy groups like the Economic Policy Institute and The Child Labor Coalition and journalists who include Alice Driver and Hannah Dreier have been documenting the ongoing, simultaneous rise in child labour law violations. There has been a decrease in labour law protections — not just in meatpacking and agriculture, but in industries throughout the U.S.

The continuous necessity of reporting on child labour law violations reaffirms the view that we never left The Jungle.

‘The Jungle’ continues to resonate

Ultimately, while The Jungle has maintained a 120-year legacy as a buzzword for child labour and exploitative labour practices more broadly — in addition to its exposé of early 20th century meatpacking — my interest in the text stems from Sinclair’s work as author and mediator who represents exploitative labour to the public.

How does he, as someone who only lived in Packingtown for seven weeks, portray the workers and the community they belong to, or depict the abuse of workers? What issues are raised around fact-based reporting and fictionalization?

The same questions, of course, are relevant for all reporting and narratives, especially about exploited and marginalized groups.

The Conversation

Nicholas Marcelli has received an Ontario Graduate Scholarship from Queen’s University and the Province of Ontario to fund his doctoral research.

ref. ‘The Jungle’ at 120: How a 1906 novel continues to surface in discussions about unjust labour – https://theconversation.com/the-jungle-at-120-how-a-1906-novel-continues-to-surface-in-discussions-about-unjust-labour-265234

« Si j’avais su » : la phrase qui absout les élites dans l’affaire Epstein ?

Source: The Conversation – in French – By Frédérique Sandretto, Adjunct assistant professor, Sciences Po

La plupart des personnalités citées dans les archives Epstein qui viennent d’être révélées affirment que si elles avaient été au courant de ses crimes, elles n’auraient en aucun cas entretenu la moindre forme de contact avec le milliardaire, qui avait été condamné en 2008 pour trafic de prostituées mineures. Ce procédé rhétorique est toutefois loin de suffire à répondre à toutes les interrogations que suscite la pérennité de leurs relations avec un homme dont le passé judiciaire était, en réalité, de notoriété publique. Au contraire, ce type de défense est de nature à alimenter, auprès des simples citoyens, l’idée que les élites estiment appartenir à une caste à part.


Depuis la divulgation progressive de près de trois millions de documents judiciaires, de dépositions sous serment et de pièces issues de procédures civiles et pénales liées à Jeffrey Epstein, une réponse revient avec une régularité presque mécanique chez les personnalités citées ou associées à son réseau : « Je ne savais pas. Si j’avais su, je ne l’aurais jamais fréquenté. »

Cette formule, reprise par des responsables politiques, des membres de familles royales, des figures centrales du monde économique, s’est imposée comme la ligne de défense dominante du scandale. Caroline Lang tout comme la princesse héritière Mette-Marit de Norvège, qui affirme que ses échanges avec le financier relevaient d’« une erreur de jugement », ont récemment mobilisé cet argument, affirmant avoir ignoré la réalité des crimes d’Epstein au moment de leurs interactions avec lui.

À première vue, ces déclarations semblent relever d’une posture morale minimale. Elles permettent de condamner les faits sans ambiguïté et d’ériger une frontière claire entre le criminel et ceux qui l’ont côtoyé. Pourtant, replacée dans son contexte historique, judiciaire et médiatique, cette ignorance revendiquée pose un problème de crédibilité majeur. Elle interroge moins la sincérité individuelle que le fonctionnement collectif des élites face à une information abondante, accessible et durablement documentée.

Une condamnation judiciaire qui était tout sauf un secret bien gardé

Jeffrey Epstein n’a jamais été un prédateur invisible. Dès la fin des années 1990, des signalements circulent dans les cercles policiers de Floride. En 2005, la plainte déposée par la famille d’une mineure de 14 ans déclenche une enquête officielle de la police de Palm Beach. En 2006, Epstein est arrêté. En 2008, il conclut un accord judiciaire exceptionnel avec le bureau du procureur fédéral du district sud de la Floride. Ce « non-prosecution agreement » lui permet d’éviter des poursuites fédérales pour trafic sexuel de mineures, crimes passibles de peines très lourdes, en échange d’un plaidoyer de culpabilité limité à des infractions de niveau étatique.

Les faits sont publics, précis et chiffrés. Epstein est condamné à dix-huit mois de prison, n’en purge que treize dans un régime de semi-liberté extrêmement favorable, comprenant jusqu’à douze heures de sortie quotidienne, six jours sur sept. Il est officiellement enregistré comme délinquant sexuel. En 2020, l’enquête du Miami Herald, intitulée « Perversion of Justice », met en lumière l’ampleur des protections institutionnelles dont il a bénéficié et identifie au moins trente-six victimes mineures citées dans le cadre de l’accord de 2008.

Malgré cette condamnation, Epstein continue à évoluer dans les cercles de pouvoir pendant plus d’une décennie. Entre 2008 et 2018, il fréquente des universités prestigieuses, finance des programmes de recherche, entretient des relations avec d’anciens chefs d’État, des membres de familles royales, des investisseurs influents et des intellectuels médiatisés. Ses donations à des institutions académiques se chiffrent en centaines de milliers de dollars, parfois après sa condamnation. Ce maintien au sommet après une reconnaissance officielle de culpabilité constitue le cœur du scandale.

La formule « Si j’avais su » fonctionne alors comme un mécanisme central de dissociation sociale. Elle permet de séparer artificiellement la relation entretenue avec Epstein de la connaissance de sa trajectoire judiciaire. Elle repose sur l’idée implicite que la sociabilité des élites évoluerait dans un espace parallèle, partiellement soustrait aux normes pénales ordinaires. Cette dissociation n’est pas un accident individuel. Elle est structurelle et collectivement tolérée.

Redevabilité : la mécanique silencieuse du système Epstein

L’un des ressorts essentiels du système Epstein réside dans la production systématique de redevabilité. Epstein ne se contente pas d’acheter des relations par l’argent. Il crée des situations d’endettement symbolique. Il offre, finance, héberge, soutient, facilite. Chaque geste est présenté comme désintéressé, mais aucun n’est neutre. La redevabilité n’est jamais contractualisée, ce qui la rend d’autant plus efficace.

Epstein cible des individus disposant d’un capital symbolique élevé. En retour, il leur offre des ressources rares : accès à des résidences d’exception à Manhattan, Palm Beach ou dans les îles Vierges, usage de jets privés, financement de projets académiques, soutien à des trajectoires professionnelles ou familiales. Il héberge des proches, facilite des parcours éducatifs ou offre une visibilité institutionnelle.

Le cas de Caroline Lang illustre cette logique de manière particulièrement éclairante. Le fait qu’Epstein ait hébergé l’une de ses filles en son absence, et aussi elle-même en compagnie de ses deux filles, dans des propriétés lui appartenant ne relève pas d’un simple service ponctuel. Il s’agit d’un acte à forte valeur symbolique, qui engage une dette morale durable. Cette redevabilité n’implique pas une complicité active, mais elle rend la rupture socialement coûteuse. Elle crée un inconfort moral à l’idée de dénoncer, d’interroger ou de s’éloigner publiquement.

Email de Caroline Lang par lequel elle demande à Jeffrey Epstein d’héberger sa fille et deux de ses amies.
Epstein Library

La redevabilité fonctionne ici comme un mécanisme de neutralisation. Celui qui a reçu hésite à questionner. Celui qui a bénéficié hésite à rompre. Celui qui est redevable hésite à savoir. La proximité devient un frein cognitif. Dans ce cadre, l’ignorance n’est pas une absence d’information, mais une posture rendue possible par la dette symbolique.

La recevabilité sociale d’Epstein repose sur cette accumulation de relations redevables. Chaque figure prestigieuse qui le fréquente renforce l’illusion de normalité. Ce cercle autoréalisateur transforme la condamnation judiciaire en détail marginal, absorbé par le poids du réseau.

Le « Si j’avais su » permet ensuite d’effacer cette dynamique. Il transforme une relation structurée par des échanges matériels et symboliques en simple erreur de jugement. Il neutralise la question des bénéfices reçus. Il évite surtout d’interroger la responsabilité collective d’un système fondé sur l’évitement du savoir.

Le « Si j’avais su » et la théorie du complot

La posture du « Si j’avais su » ne se limite pas à une stratégie individuelle de protection réputationnelle. Elle produit des effets politiques et cognitifs profonds sur la perception du pouvoir et alimente directement la défiance contemporaine envers les élites. En affirmant qu’ils ignoraient des faits pourtant publics, documentés et accessibles, les acteurs concernés installent un décalage troublant entre leur position sociale et leur responsabilité informationnelle. Cette dissonance nourrit un soupçon durable : si ceux qui disposent du plus fort capital culturel, médiatique et relationnel disent ne pas savoir, alors soit ils mentent, soit ils bénéficient d’un régime d’exception.

C’est dans cet espace de flou que prospèrent les théories complotistes. Le « Si j’avais su » crée une zone d’indétermination discursive, dans laquelle l’absence d’explication systémique laisse place à des récits alternatifs. En refusant de reconnaître les mécanismes ordinaires de complaisance, de silence et de redevabilité, cette posture alimente l’idée d’un mensonge organisé et d’une vérité volontairement dissimulée au public. Là où une analyse sociologique mettrait en évidence des logiques de réseau et de protection mutuelle, l’opinion perçoit un système opaque, intentionnellement dissimulé.

La défiance envers les puissants s’en trouve renforcée. Plus le statut de celui qui invoque l’ignorance est élevé, plus cette ignorance devient suspecte. Le « Si j’avais su » ne rassure pas ; il confirme l’idée que les élites vivent dans un monde séparé, soustrait aux contraintes morales ordinaires. En ce sens, cette posture ne désamorce pas la crise de confiance démocratique : elle l’aggrave. En l’absence de reconnaissance claire des angles morts et des responsabilités collectives, le discours officiel laisse le champ libre aux interprétations complotistes, qui trouvent dans cette ignorance proclamée l’un de leurs principaux arguments de crédibilité.

Comment peut-on ne pas savoir ?

Reste enfin une question centrale, rarement abordée frontalement : comment peut-on réellement ne pas savoir, à l’ère d’Internet et des réseaux sociaux ? Depuis le milieu des années 2000, les informations sur Epstein sont accessibles en quelques clics. Articles de presse, archives judiciaires, bases de données publiques, moteurs de recherche, réseaux sociaux : jamais l’accès à l’information n’a été aussi large, aussi rapide, aussi durable.

Ne pas savoir suppose alors un choix implicite. Celui de ne pas chercher. Celui de ne pas vérifier. Celui de considérer que certaines informations, bien que disponibles, ne méritent pas d’être intégrées. L’ignorance devient active. Elle repose sur une hiérarchisation des savoirs dans laquelle la respectabilité sociale l’emporte sur la vigilance morale.

Dans ce contexte, l’argument de l’ignorance perd sa dimension défensive pour devenir un révélateur. Il ne dit pas ce que les acteurs ignoraient, mais ce qu’ils acceptaient de ne pas vouloir savoir. À l’ère numérique, l’ignorance n’est plus un manque. Elle est une stratégie.

L’affaire Epstein ne révèle donc pas seulement des crimes, mais une culture du non-savoir partagée, rendue possible par la redevabilité, la proximité avec le pouvoir et la dissociation morale. Le « Si j’avais su » n’est pas une excuse. C’est le symptôme d’un système.

The Conversation

Frédérique Sandretto ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. « Si j’avais su » : la phrase qui absout les élites dans l’affaire Epstein ? – https://theconversation.com/si-javais-su-la-phrase-qui-absout-les-elites-dans-laffaire-epstein-275490

Le mystère de la « Dame à l’éventail », éclairé par une photo de Jeanne Duval

Source: The Conversation – in French – By Maria C. Scott, Associate Professor of French Literature and Thought, University of Exeter

On sait très peu de choses au sujet de la comédienne haïtienne Jeanne Duval (1818-1868), compagne de Charles Baudelaire peinte par Manet, qui continue de fasciner les spécialistes de la littérature, de la peinture et du féminisme.


En mai 2025, je suis tombée sur une photographie extraordinaire sur le site Wikipedia anglais consacré à Jeanne Duval. Duval, originaire d’Haïti, était la maîtresse et muse de longue date, supposée n’avoir jamais été photographiée, du poète français Charles Baudelaire.

Le portrait, représentant une femme assise vêtue d’habits bourgeois raffinés, avait été publié sur Wikipédia par une étudiante de l’historienne de l’art Justine De Young. De Young évoque ce portrait comme un exemple d’auto-mise en scène dans son dernier ouvrage, The Art of Parisian Chic. Imprimée sur une petite carte (il s’agit d’un portrait-carte de visite, en vogue à l’époque) et datée du 18 août 1862, l’image a été découverte dans les archives françaises par une autre chercheuse, comme je l’ai mentionné dans un récent article publié par le Times Litterary Supplement, et documentée en ligne par elle en 2021.

Une photo redécouverte

Jeanne Duval fascine de nombreuses chercheuses et chercheurs experts du féminisme et du postcolonialisme, en partie parce que l’on sait très peu de choses précises à son sujet. Intriguée, je me suis rendue moi-même aux archives à l’été 2025, juste pour voir la photo. Là, j’ai remarqué une deuxième photo au format carte de visite à côté de la première. Elle portait le même nom, « Jeanne », la même date, et provenait du même studio de photographie, l’atelier Nadar. Les deux cartes avaient été inscrites au registre du dépôt légal sous la mention « idem ».




À lire aussi :
Les femmes censurées des « Fleurs du mal »


Cette deuxième Jeanne se tient debout, dans une pose inhabituellement rigide pour une photographie de ce type. Elle porte une robe de soirée à épaules dénudées et ses cheveux tombent en cascade dans son dos, retenus sur le front par un simple bandeau.

Une inspiration pour Manet ?

Une version numérique haute résolution de cette image a révélé de fortes ressemblances avec le modèle de la première photographie, similitudes qui n’étaient pas immédiatement apparentes sur les petites cartes. Les deux photos révèlent une implantation capillaire similaire, une même imperfection sur le front et une bague au même doigt. Il était clair que si la première photographie représentait Duval, celle-ci aussi.

Cependant, le crucifix porté en pendentif sur une chaîne courte et les grandes boucles d’oreilles m’ont semblé particulièrement intéressants. Des bijoux très similaires sont en effet portés par le modèle dans le portrait d’Édouard Manet intitulé Dame à l’éventail (1862), également connu sous le nom de la Maîtresse de Baudelaire allongée. Ce dernier titre avait été inscrit au dos du tableau à un moment donné, soit pendant, soit avant l’inventaire posthume de l’atelier de l’artiste.

La pose maladroite et l’expression faciale impénétrable du modèle ont souvent été interprétées comme faisant référence aux difficultés et à la maladie que Duval endurait à l’époque. Elle se trouvait dans une situation financière désastreuse et souffrait d’une paralysie du côté droit depuis un accident vasculaire cérébral survenu en 1859. Cependant, l’identification du modèle de Manet comme étant Duval est parfois contestée par les chercheurs, pour plusieurs raisons.

Le portrait sur carte de « Jeanne » debout, réalisé la même année que le portrait à l’huile et son étude à l’aquarelle, présente des traits, une expression et des ombres très similaires. Les historiens de l’art Griselda Pollock et Therese Dolan ont émis l’hypothèse que Manet s’était inspiré d’une photographie ou d’une carte de visite de Duval pour réaliser Dame à l’éventail. Les liens entre la photographie de Jeanne debout et les portraits à l’huile et à l’aquarelle de Manet semblent confirmer que Duval est le sujet des deux peintures (aquarelle et huile) et des deux photographies.

Pourquoi ces photographies ont-elles été prises ?

Duval posait-elle donc pour Manet dans ces photographies ? Il convient de noter que Manet, Félix Nadar (le propriétaire du studio de photographie) et Baudelaire étaient tous des amis proches, et que Duval s’était séparée du poète, apparemment de manière définitive, en 1861.

Duval a peut-être proposé de poser, ou a été invitée à poser pour les photographies de Nadar (et indirectement pour Manet, qui travaillait souvent à partir de photographies) en échange d’argent. Nous savons qu’elle avait approché au moins un autre ami de Baudelaire en 1862 pour essayer de lui vendre les biens du poète. Le fait qu’elle tienne une cravache sur la photographie avec le crucifix vient étayer l’hypothèse de la monétisation. Peut-être espérait-elle, ou espéraient-ils, que le portrait sur carte de la muse sadique/angélique du recueil de poèmes de Baudelaire les Fleurs du mal (1857) aurait une valeur marchande.

Photographie en noir et blanc de Charles Baudelaire
Charles Baudelaire, vers 1862.
British Library

Il est également possible que Baudelaire ait commandé des portraits de son ancienne maîtresse à des fins personnelles. Malgré sa colère et son ressentiment envers Duval après leur séparation, ses lettres et ses croquis témoignent de sa loyauté et de son affection persistantes.

Ou peut-être Duval souhaitait-elle rétablir la vérité sur qui elle était. Peut-être voulait-elle que le monde sache qu’elle n’était en fait pas la muse diabolique et sexualisée au centre du volume de poésie scandaleux de Baudelaire, mais plutôt quelqu’un qui s’habillait avec des vêtements élégants et respectables (probablement empruntés) comme on le voit sur la première photographie.

Peut-être que le crucifix et la bague visible à l’annulaire des deux photos avaient également pour but de témoigner de ses valeurs morales. Cependant, certains détails de la deuxième image, notamment la cravache, les épaules nues et les grandes boucles d’oreilles, suggèrent que sa volonté n’était pas de se donner une image « respectable ».

Il est probable que les portraits-cartes de visite, s’ils représentent bien Jeanne Duval, aient été motivées par des raisons financières, qu’elles aient été son idée ou celle de Nadar, Manet ou Baudelaire. Il est également possible que la mise en scène de soi ait fait partie de son objectif, mais si tel est le cas, le message qu’elle voulait faire passer n’est pas clair.

Des chercheurs français ont récemment découvert que Duval était morte dans un hospice six ans seulement après la réalisation de ces portraits. Jusqu’alors, personne ne semblait savoir ce qu’elle était devenue. Ces photographies témoignent, du moins à mes yeux, de la résistance de Duval à se laisser cataloguer et de sa dignité tranquille.

The Conversation

Maria C. Scott publiera prochainement un article universitaire sur ce sujet dans la revue French Studies.

ref. Le mystère de la « Dame à l’éventail », éclairé par une photo de Jeanne Duval – https://theconversation.com/le-mystere-de-la-dame-a-leventail-eclaire-par-une-photo-de-jeanne-duval-275165

Comment deux amnésiques ont révolutionné nos connaissances sur la mémoire

Source: The Conversation – in French – By Olivier Després, Professeur de neuropsychologie – laboratoire de neurosciences cognitives et adaptatives (LNCA, CNRS-UNISTRA), Université de Strasbourg

Comment nous souvenons-nous des choses ? Paradoxalement, deux des personnes qui ont le plus aidé les neuroscientifiques à répondre à cette question étaient amnésiques. Retour sur les histoires exceptionnelles d’Henry Molaison et de Kent Cochrane, deux patients hors norme.


Et si perdre la mémoire n’était pas seulement une tragédie, mais aussi une clé pour comprendre ce que signifie se souvenir ? Deux patients, Henry Molaison et Kent Cochrane, ont marqué l’histoire des neurosciences au XXᵉ siècle.

Le premier, opéré en 1953 pour traiter une épilepsie sévère, a révélé le rôle crucial d’une structure cérébrale, l’hippocampe, dans la formation des souvenirs. Le second, victime d’un accident de moto en 1981 ayant provoqué une hémorragie cérébrale sévère, a montré que la mémoire du passé et la capacité à se projeter dans l’avenir reposent sur les mêmes réseaux cérébraux.

Leurs destins ont bouleversé notre compréhension de la mémoire humaine et, plus largement, de l’identité elle-même. Voici leurs histoires.

Henry Molaison, plongé à jamais dans l’oubli

Né en 1926, Henry Molaison souffrait depuis l’enfance d’une épilepsie résistante aux traitements médicamenteux. En 1953, le neurochirurgien William Scoville lui proposa une solution radicale : retirer une partie de ses lobes temporaux médians, situés à la base du cerveau et comprenant notamment les deux hippocampes (l’hippocampe est une structure présente de manière symétrique dans les deux hémisphères cérébraux).

L’intervention permit de réduire la fréquence des crises, mais bouleversa la vie du patient à jamais : Henry perdit la capacité de créer de nouveaux souvenirs, une amnésie dite « antérograde ».

La neuropsychologue Brenda Milner, de l’université McGill à Montréal, l’évalua dès 1955 et fit une découverte majeure : l’intelligence et les capacités langagières du patient semblaient intactes, mais toute nouvelle information s’effaçait au bout de quelques minutes. Chaque rencontre, chaque conversation disparaissait presque aussitôt. Henry ne parvint d’ailleurs jamais à se souvenir de ses entrevues répétées avec Brenda Milner, ignorant jusqu’à sa mort, en 2008, qui elle était.

Les observations menées sur Henry Molaison, révélèrent que l’hippocampe était une pièce maîtresse de la mémoire déclarative, celle qui permet de se souvenir des faits et des événements. Brenda Miller réalisa aussi que la mémoire n’est pas un processus global, mais une fonction composée de plusieurs systèmes, chacun reposant sur des structures cérébrales distinctes.

En effet, la neuropsychologue constata que, malgré son incapacité à enregistrer de nouveaux souvenirs, Henry conservait une certaine capacité d’apprentissage : il pouvait encore acquérir de nouveaux gestes moteurs, et par exemple apprendre à tracer une étoile dans un miroir. Ce type d’apprentissage, qui relève de la mémoire implicite, non consciente, dépend d’autres régions du cerveau que l’hippocampe. De ce fait, cette capacité restait, chez lui, préservée.

Les études menées sur le patient désigné par les initiales H. M., qui ont préservé son anonymat dans la littérature scientifique jusqu’à sa mort, ont été décisives pour montrer que la mémoire humaine n’est pas une fonction unique, mais repose en réalité sur des systèmes distincts, qui sont situés dans différentes régions du cerveau.

Elles ont également révélé le rôle central de l’hippocampe et des structures voisines des lobes temporaux médians dans la formation et la consolidation des souvenirs.

À ce jour, Henry Molaison reste l’un des patients les plus étudiés de l’histoire de la neuropsychologie.

Kent Cochrane, privé de passé et de futur

Quelques décennies après l’intervention chirurgicale subie par Henry Molaison, un Canadien allait devenir amnésique et, malgré lui, contribuer à enrichir encore nos connaissances sur le fonctionnement la mémoire.

Kent Cochrane, né en 1951, fut victime en 1981 d’un grave accident de moto. Le choc provoqua une hémorragie cérébrale et détruisit ses lobes temporaux médians. Comme le patient H. M., Kent Cochrane devint incapable d’enregistrer un quelconque nouveau souvenir de sa vie. Pire encore, il oublia de nombreux épisodes de sa vie passée. Cela incluait les moments les plus marquants sur le plan émotionnel, comme le jour où il apprit le décès de l’un de ses frères.

Le neuropsychologue Endel Tulving étudia le cas de Kent Cochrane pendant plus de vingt ans. Il constata que son patient conservait des connaissances sur lui-même et sur le monde, telles que les personnes qu’il côtoyait ou les lieux qu’il fréquentait ou avait visités. En revanche, il était incapable de revivre un souvenir personnel.

À partir de ces observations, Endel Tulving proposa la distinction entre deux formes de mémoire : la mémoire épisodique, qui concerne les événements vécus dans leur contexte spatial, temporel et émotionnel, et la mémoire sémantique, relative aux connaissances générales sans ancrage contextuel.

Par exemple, se souvenir du moment précis où l’on a rencontré la personne avec qui l’on partage sa vie relève de la mémoire épisodique : le lieu exact de cette première rencontre, les circonstances, les personnes présentes, les premiers mots échangés, ainsi que l’émotion ressentie à cet instant. La mémoire sémantique concerne quant à elle des informations plus générales, indépendantes de toute expérience vécue particulière. Elle inclut par exemple nos connaissances sur le monde et la société, le nom des artistes que nous apprécions, le nom des capitales de différents pays, ou encore la date de naissance de nos proches.

Chez Kent Cochrane, la mémoire sémantique demeurait intacte, alors que la mémoire épisodique était détruite. Ce contraste montrait que ces deux systèmes mnésiques reposent sur des réseaux cérébraux différents : les hippocampes pour la mémoire épisodique, et les pôles temporaux pour la mémoire sémantique.

Plus étonnant encore, Endel Tulving constata que la capacité à se projeter dans l’avenir mobilise les mêmes structures cérébrales que celle qui permet de se souvenir du passé. En effet, depuis l’accident qui l’avait privé de ses hippocampes, et donc de ses souvenirs, Kent Cochrane était incapable de s’imaginer dans l’avenir, même proche.

Le cas de ce patient a ainsi mis en lumière le fait que la mémoire ne sert pas seulement à évoquer le passé, mais aussi à anticiper le futur. Une faculté qui se situe au cœur de la conscience de soi, et de notre identité.

Au-delà de la science, une leçon d’humanité

En perdant la capacité de se souvenir des événements de leur propre vie, Henry Molaison et Kent Cochrane ont révélé à quel point la mémoire façonne notre rapport au monde et à nous-mêmes.

Ces deux destins, à la fois tragiques et éclairants, ont fait de la mémoire un miroir de notre identité. Ces deux cas cliniques posent une question essentielle : que reste-t-il de notre humanité lorsque notre mémoire s’efface ?

Au-delà de la reconnaissance de l’immense apport des études sur ces amnésies, les parcours de ces deux hommes nous invitent aussi à réfléchir sur notre empathie face à la vulnérabilité.

Enfin, ces deux histoires profondément humaines traduisent les liens singuliers qui unissent les chercheurs à ceux qui deviennent, souvent malgré eux, des figures majeures de la science.

Après la mort d’Henry Molaison, Brenda Milner confia que celles et ceux qui avaient travaillé auprès de lui avaient été profondément touchés par sa disparition. Elle ajoutait qu’il y a quelque chose de profondément paradoxal à être fortement ému par la mort d’un homme qui, toute sa vie durant, n’a jamais su qui vous étiez.

The Conversation

Olivier Després ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Comment deux amnésiques ont révolutionné nos connaissances sur la mémoire – https://theconversation.com/comment-deux-amnesiques-ont-revolutionne-nos-connaissances-sur-la-memoire-267352

La Chine serait-elle déjà la première puissance militaire mondiale ?

Source: The Conversation – in French – By Éric Martel-Porchier, Enseignant chercheur, Conservatoire national des arts et métiers (CNAM)

La supériorité militaire apparente d’une armée peut devenir une faiblesse lorsqu’elle nourrit un excès de confiance et une rigidité organisationnelle. L’exemple de la France vaincue en 1940 par une armée allemande reconstituée de fraîche date met en évidence le rôle décisif de l’adaptation, de l’innovation et de la capacité industrielle. Transposé à la rivalité sino‑américaine, ce précédent montre que la Chine, portée par une base industrielle très puissante et une doctrine centrée sur les drones et les systèmes autonomes, pourrait en cas de conflit ouvert compenser l’avance technologique américaine.


Cet article est la suite d’un article publié en 2020 qui posait déjà la question de la puissance économique de la Chine.

Aujourd’hui, il ne semble faire aucun doute que les États-Unis sont, de très loin, la première puissance militaire mondiale, en raison de l’importance de leurs dépenses annuelles, de leur nombre de bases à l’étranger et de la taille de leur armée. Celle-ci est aussi reconnue pour son expertise opérationnelle et ses performances technologiques. Malgré cela, cette puissance a priori majeure se trouve, dans les faits, en situation d’infériorité industrielle vis-à-vis de la Chine.

Dans l’hypothèse d’un conflit entre Washington à Pékin, il est fréquent d’entendre que, si à court terme la Chine subirait des dommages catastrophiques pour son économie et sa population, à long terme sa victoire serait acquise. L’histoire montre pourtant que les ressorts d’une victoire sont plus subtils que la simple comparaison des capacités militaires des belligérants au début du conflit. Il est même fréquent que la supériorité militaire perçue par un acteur soit à l’origine de sa défaite.

L’étrange défaite de la France en 1940

Juste après la bataille de France, en juin 1940, Marc Bloch, qui a été pendant l’invasion allemande officier de l’armée française, rédige un ouvrage de référence sur cette question. Dans l’Étrange défaite, il donne de précieuses indications sur la manière dont une organisation militaire peut être vaincue lorsqu’elle surestime sa puissance.

Ce n’est pas le seul exemple d’une armée défaite alors qu’elle se croyait toute puissante. Mais la description que fait Bloch des dysfonctionnements de l’état-major et de la société française en 1940 permet de comprendre avec précision les causes de la défaite. On l’attribue aujourd’hui volontiers à une infériorité numérique, en oubliant qu’elle n’était pas perçue comme telle par les généraux français, ce qui les a conduits à de graves erreurs. On oublie aussi que, lors de la Première Guerre mondiale, la supériorité militaire de l’Empire allemand était évidente, ce qui ne l’a pas empêché d’être vaincu.

Table ronde : « L’étrange défaite de 1940 » (14 janvier 2021), Maison Heinrich Heine, avec les historiens Alya Aglan, Robert Frank, Georges-Henri Soutou et Gilbert Merlio.

Marc Bloch montre comment l’excès de confiance de l’armée française a été la cause principale de son échec en 1940. Il décrit un mécanisme social par lequel une armée qui se considère comme puissante peut être vaincue par une armée nouvelle venant de se construire. Si l’on se réfère aux chiffres de l’époque, à l’exception de l’armée de l’air, la situation était plutôt favorable aux forces alliées : l’armée française disposait d’une supériorité en chars de combat et en véhicules, et les bombardements aériens n’étaient pas aussi efficaces que ceux de l’artillerie, même si leur effet psychologique était bien réel.

L’infériorité renforce les armées, la supériorité les affaiblit

Ce paradoxe d’une armée défaite par excès de confiance en sa propre puissance peut être transposé à l’actualité. Si l’on compare aujourd’hui l’état de l’armée américaine et celui de l’armée chinoise, on retrouve un phénomène similaire. Les Américains disposent d’une supériorité en avions de chasse, porte-avions et chars de combat, mais un paramètre nouveau rend ce critère de suprématie beaucoup moins pertinent : la transformation des guerres contemporaines, marquées par l’omniprésence des drones et l’usage croissant de systèmes militaires autonomes.

En 1940, l’armée française restait imprégnée de sa grande victoire de 1918. Elle avait alors été la première armée du monde, par sa performance technologique et organisationnelle. Très efficace, elle avait dirigé les armées alliées et appris aux Américains à mener une guerre de grande envergure avec les premiers chars réellement efficaces, comme les Renault FT.

Vingt-deux ans plus tard, la société et les militaires français n’ont pas compris que les méthodes de la guerre s’étaient complètement transformées. La victoire de 1918 tenait en partie à une certaine flexibilité et à une capacité d’innovation face à une armée allemande alors plus rigide. Paradoxalement, cette armée allemande, contrainte par le traité de Versailles à dissoudre une grande partie de ses effectifs et de son équipement, a dû, après l’avènement du nazisme, se reconstruire avec une grande flexibilité en tirant les enseignements de sa défaite. Lorsqu’une armée a le temps de comprendre les causes d’une défaite, elle en retire souvent des leçons décisives et peut devenir, quelques années plus tard, une force redoutable.

Devenue flexible et innovante sur le plan technologique, développant un nouvel art de la guerre fondé sur la rapidité et un système de communication très performant, l’armée allemande permet à des unités dotées d’une certaine autonomie d’agir avec une grande efficacité. À l’inverse, l’armée française souffre de graves problèmes de communication, aggravés par un management très centralisé. Au lieu de réagir immédiatement à une agression, il lui faut souvent deux ou trois jours pour donner des instructions pertinentes. Tandis que l’armée allemande a réellement innové, l’armée française reste figée dans un schéma hérité de la Première Guerre mondiale.

Si l’on compare aujourd’hui l’armée américaine et l’armée chinoise, on retrouve ces caractéristiques. La première tend à souffrir d’un sentiment de supériorité, persuadée que son expérience des combats lui confère une véritable flexibilité. La seconde se construit sur un sentiment d’infériorité qui l’amène à développer intensément ses capacités industrielles pour compenser ses faiblesses. Lorsque la Chine engage une guerre, en 1979 contre le Vietnam, les combats débutent d’ailleurs par une défaite, alors même que sa supériorité quantitative est avérée et que le Vietnam sort de quinze années de guerre contre les États-Unis.

Copier l’ennemi, puis innover

Cette expérience défavorable a pourtant un effet positif, renforcé par un sentiment d’infériorité à l’égard de la puissance américaine. Elle pousse la Chine à s’inspirer d’abord de l’armée américaine, à copier certains outils et systèmes, puis à se détourner de ce modèle pour construire sa propre logique militaire. Cette logique – copier, puis innover à partir de ce qui est copié – est d’ailleurs fréquente dans l’industrie. Après avoir débuté dans la production de voitures thermiques, la Chine est devenue leader dans la fabrication de voitures électriques.




À lire aussi :
Véhicules électriques : la domination chinoise en 10 questions


Si l’on observe la remise en route de l’armée allemande entre 1919 et 1939, on est frappé par la similarité de cette logique. Il faut d’abord comprendre le fonctionnement de l’armée ennemie, puis s’en libérer pour concevoir son propre modèle, qui surprendra l’adversaire.

La Chine a pris grand soin d’étudier la guerre d’Ukraine et de développer des technologies militaires issues de ces observations. Elle a compris la spécificité d’un conflit où l’usage de drones, aujourd’hui automatisés, transforme profondément les logiques militaires. Elle en a tiré la certitude qu’il est nécessaire de disposer d’une industrie militaire innovante et très flexible. Chaque année, son industrie est ainsi en mesure de proposer des modèles d’armes améliorés ou nouveaux.

Comment la supériorité affaiblit la flexibilité managériale

À cette souplesse en matière d’innovation s’ajoute une autre dimension essentielle : l’efficacité de la supervision militaire. Incapable de reconnaître sa faiblesse, l’armée française, marquée par sa victoire de 1918, souffre en 1940 d’une réelle incompétence managériale. Elle illustre un biais récurrent : toute armée qui se perçoit comme très supérieure à son ennemi se fragilise. Elle ne déploie pas d’efforts frénétiques pour le vaincre et ne cherche pas à se transformer en permanence, convaincue de la solidité de son système de commandement.

Or, comme l’avait montré l’armée française en 1914, c’est la capacité à se réorganiser rapidement et à démettre les officiers incompétents qui fonde l’efficacité. Ce syndrome de supériorité affecte ensuite l’armée nazie qui, dès 1942, ne comprend plus la montée en puissance de l’armée soviétique et commet de nombreuses erreurs stratégiques, à commencer par la bataille de Stalingrad.

On manque d’éléments précis pour juger de l’efficacité managériale chinoise, sinon les purges militaires récentes, poursuivies encore en 2025 et 2026, qui témoignent d’une préoccupation réelle pour la discipline et la loyauté de l’armée. Du côté américain, plusieurs indices suggèrent que la supervision des forces reste marquée, comme lors de la guerre du Vietnam, par un fonctionnement administratif rigide et peu flexible.

Faut-il préférer la supériorité technologique à la supériorité industrielle ?

En 1944, l’armée allemande se trouve confrontée à une nouvelle forme d’art militaire conçue par les Américains. S’appuyant sur leurs capacités industrielles, ceux-ci assurent un renouvellement permanent de leur matériel grâce à un développement sans précédent de la logistique. Les ingénieurs allemands sont frappés par l’infériorité technique apparente de l’équipement américain, mais certains comprennent le véritable danger : un véhicule américain peut être réparé en quelques heures, voire remplacé dès le lendemain, alors que la perte d’un engin allemand a des conséquences lourdes.

Avec l’omniprésence d’armes automatisées comme les drones et les missiles, qui obéissent à une logique industrielle quantitative, et la flexibilité industrielle chinoise, c’est aujourd’hui la Chine qui assume ce rôle. Les Américains, comme les Allemands en 1944, misent sur la supériorité technologique et se heurtent à de réelles difficultés de production et donc de remplacement des engins perdus. La guerre d’Ukraine a montré que détruire un drone bon marché avec un missile antiaérien coûteux peut être problématique.

L’idée selon laquelle la Chine pourrait gagner une guerre contre les États-Unis sur le long terme, tout en subissant seule des dommages catastrophiques pour son économie et sa population, apparaît alors illusoire. En cas de conflit ouvert, l’armée et l’économie américaines devraient très probablement, elles aussi, supporter de terribles pertes. Au vu du grand défilé qui a eu lieu à Pékin, le 8 septembre dernier et de la nouvelle logique militaire chinoise, on peut s’interroger sur la capacité de l’armée américaine à résister à une attaque de la part de la RPC.

« La Chine défie-t-elle les États-Unis ? », France 24, 3 septembre 2025.

L’illusion de la supériorité

Si l’on considère l’armée américaine aujourd’hui, elle semble souffrir d’un syndrome de supériorité, nourri par des opérations conduites contre des États du tiers monde et par un fort investissement technologique. L’armée irakienne, qu’elle a aisément vaincue en 1990, était, au-delà de sa faiblesse matérielle, minée par de graves problèmes organisationnels. Plus récemment, des frappes contre des puissances militaires faibles comme l’Iran ou le Yémen peuvent entretenir l’idée qu’elle reste la première armée du monde. Or l’histoire montre que ce type de conflits ne renforce pas durablement une armée ; on peut penser, par exemple, à la déroute de 1870 d’une armée française pourtant aguerrie par de nombreuses campagnes antérieures, le plus souvent victorieuses.

À cela s’ajoute un élément quantitatif : le budget militaire américain est infiniment supérieur à celui des autres nations, tout comme le nombre de chars, d’avions, de navires et d’unités. Pourtant, la guerre d’Ukraine a mis en lumière les limites de certaines technologies américaines, comme les chars Abrams ou les systèmes antiaériens Patriot, qui ne sont pas toujours plus performants que ceux de leurs adversaires, même si l’armée américaine n’a pas été directement engagée.

L’incident militaire survenu au Pakistan en mai 2025 nous révèle que les militaires chinois bénéficient d’une grande variété d’armements et d’une capacité avérée à introduire chaque année des innovations. C’est ainsi que l’on découvre que la supériorité industrielle et la diversité des arsenaux deviennent déterminants pour tenir dans un conflit de haute intensité.

De leur côté, de par leur compréhension rapide des conséquences de la guerre d’Ukraine les Chinois ont développé un système de chars modernes assistés par des véhicules spécialisés dans la lutte anti-drones. L’armée américaine, en revanche, semble moins capable de transformer rapidement son système militaire. La capacité de la Chine à produire massivement des drones et à les intégrer dans sa doctrine laisse entrevoir une supériorité potentielle.

Enfin, les États-Unis restent profondément attachés à la guerre aérienne comme vecteur de supériorité globale et laissent ainsi à l’armée chinoise l’initiative du combat terrestre. Cette confiance excessive dans la puissance aérienne est en soi problématique. La guerre du Vietnam leur avait pourtant montré l’inefficacité d’un contrôle aérien massif pour emporter une victoire politique, tout en entretenant l’illusion de pouvoir infliger des dommages décisifs à l’ennemi. Comme durant la Seconde Guerre mondiale, de nombreux indices suggèrent que cette foi dans la supériorité aérienne ne peut avoir, à terme, que des effets négatifs. La Chine a fait de sérieux efforts pour développer ses systèmes antiaériens et mettre en place des armées de drones capables de contester efficacement l’aviation américaine.

Suivant sa logique stratégique, il apparaît que l’armée chinoise ne montrera sa vraie puissance qu’une fois confrontée à un ennemi ayant perdu sa rationalité. En attendant, elle laisse son adversaire conserver sa supériorité illusoire.

The Conversation

Éric Martel-Porchier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La Chine serait-elle déjà la première puissance militaire mondiale ? – https://theconversation.com/la-chine-serait-elle-deja-la-premiere-puissance-militaire-mondiale-273772

Du plastique biodégradable pour pailler les sols agricoles : solution ou nouveau problème ?

Source: The Conversation – France (in French) – By Jules Bellon, Chargé de projets scientifiques, UniLaSalle

Beaucoup de cultures ont recours à des paillages plastiques pour limiter la prolifération des mauvaises herbes. Freepik

Les films de paillage ont changé le quotidien de nombreux agriculteurs en facilitant la gestion des mauvaises herbes et de l’eau. Mais exposés au soleil, à l’humidité et au travail du sol, ces plastiques se fragmentent progressivement en micro et nanoplastiques qui s’accumulent dans les sols. Que deviennent ces particules invisibles ? Les plastiques biodégradables peuvent-ils réellement limiter cette pollution ?


En maraîchage et en arboriculture fruitière, les films plastiques de paillage sont devenus incontournables dans certains conditions de température, d’humidité et d’aération des sols. Posés à sa surface, ils empêchent les mauvaises herbes de se développer, conservent l’humidité et accélèrent le réchauffement du sol au printemps. Le résultat ? Des cultures plus productives et une moindre dépendance aux herbicides, notamment dans les sols en milieu tempéré soumis à un stress hydrique saisonnier.

Aujourd’hui, l’immense majorité des films de paillage – près de 90 % – sont fabriqués à partir de polyéthylène, un polymère dérivé du pétrole. Solide, bon marché et imperméable, ce matériau s’est imposé dans les champs. Mais il présente un inconvénient majeur : il ne se biodégrade pas et, une fois fragmenté, peut rester dans l’environnement pendant des siècles.

Une fois les cultures récoltées, ces films ne sont pas complètement retirés. Les fragments qui restent dans les sols se dégradent lentement sous l’effet du soleil, de l’humidité et du travail mécanique des terres. Ils se fragmentent progressivement en microplastiques (dont les dimensions vont de un micromètre à cinq millimètres), atteignant dans certaines exploitations plusieurs milliers de particules par kilogramme de sol. Avec le temps, ces fragments deviennent encore plus petits et forment ce que l’on nomme des nanoplastiques (dont la taille est inférieure à un micromètre).

Invisibles et pendant longtemps peu étudiées, ces particules soulèvent aujourd’hui de nombreuses questions. Comment se comportent-elles dans les sols agricoles ? Quels sont leurs effets potentiels sur l’environnement ? Surtout, les alternatives dites « biodégradables » constituent-elles réellement une solution pour limiter cette pollution ?




À lire aussi :
Comment le plastique est devenu incontournable dans l’industrie agroalimentaire


L’agriculture européenne consomme 427 000 tonnes de plastique par an

Bien que les nano et microplastiques présents dans les sols agricoles aient des origines multiples, toutes les sources ne contribuent pas dans les mêmes proportions.

Parmi les apports externes figurent notamment les boues issues des stations d’épuration, parfois utilisées comme amendements organiques. Elles peuvent contenir jusqu’à près de 900 particules microplastiques par kilogramme de matière sèche. À l’échelle européenne, leur épandage représenterait chaque année l’introduction de 63 000 à 430 000 tonnes de microplastiques dans les sols agricoles.

Mais la contribution la plus importante se trouve souvent directement au champ. Les films plastiques de paillage constituent aujourd’hui la principale source de micro et nanoplastiques en agriculture. Chaque année, 427 000 tonnes de ces produits sont utilisées en Europe et 300 000 tonnes en Amérique du Nord. La Chine concentre, à elle seule, près de 30 % de la consommation mondiale, avec 2,6 millions de tonnes de films agricoles, dont 1,3 million de tonnes de films de paillage, soit environ les trois quarts de l’usage mondial.




À lire aussi :
Peut-on se passer de plastique en agriculture ?


Des plastiques, du champ à l’assiette

Or, dans les sols agricoles, les nano et microplastiques ne se comportent pas comme de simples déchets inertes. Ils peuvent modifier les propriétés physiques, chimiques et biologiques des sols en affectant leur structure, leur porosité, leur capacité à retenir l’eau ou encore les cycles du carbone et de l’azote.

Ces particules peuvent aussi se fixer aux racines, freinant l’absorption de l’eau et la croissance des plantes. Certaines cultures, comme la laitue ou le blé, absorbent même des microplastiques depuis le sol, qui peuvent ensuite migrer vers les parties comestibles que nous mangeons.

Ce n’est pas tout : plus un fragment de plastique est petit, plus sa surface exposée au milieu environnant augmente par rapport à son volume. Or, les interactions entre le plastique et le sol se produisent principalement à sa surface. Ainsi, à quantité de plastique égale, les micro et surtout les nanoplastiques présentent une surface de contact beaucoup plus importante avec leur environnement que les fragments de plus grande taille.

Cette surface élevée les rend particulièrement réactifs : ils interagissent plus fortement avec les molécules présentes dans le sol. De nombreuses substances chimiques peuvent ainsi se fixer à la surface de ces particules, notamment des polluants organiques ou des métaux. En présence de pesticides, les plastiques peuvent alors se comporter comme de véritables « éponges chimiques », captant et concentrant localement des substances indésirables et potentiellement toxiques.




À lire aussi :
Microplastiques, nanoplastiques : quels effets sur la santé ?


Plastique biodégradable ? Une promesse à nuancer

Pour répondre à cette problématique, des plastiques dits « biodégradables » ont été développés. Présentés comme une alternative aux films de plastique classiques, ils reposent sur un principe séduisant : après usage, ils seraient transformés par les microorganismes du sol en composés naturels, tels que l’eau et le dioxyde de carbone.

Mais cette promesse dépend fortement des conditions environnementales. En effet, la biodégradabilité est tributaire des conditions environnementales. Un plastique peut se dégrader rapidement dans une installation de compostage industriel, soumise à de fortes chaleurs, mais rester presque intact pendant longtemps dans un sol agricole plus frais.

C’est notamment le cas des polymères couramment utilisés dans les films de paillage biodégradables, comme le polybutylène adipate-co-téréphtalate (PBAT) ou le poly (butylène succinate) (PBS). Dans les conditions réelles des champs agricoles, leur dégradation peut rester incomplète.

Se pose alors la question de leur devenir à long terme et de leur capacité réelle à limiter l’accumulation de nano et microplastiques dans les sols.

Les vers de terre à la rescousse ?

Constatant ces échecs, des chercheurs s’attachent désormais à en comprendre les causes et à identifier les conditions environnementales et biologiques qui permettraient d’améliorer la dégradation de ces plastiques dans les sols agricoles. Il ne s’agit pas seulement de concevoir de nouveaux matériaux, mais aussi d’adapter les pratiques agricoles à leur présence dans les sols, en particulier dans les systèmes où l’usage des films de paillage est intensif.

Les scientifiques s’intéressent ainsi au rôle des amendements organiques, des biostimulants et des extraits microbiens, capables de modifier l’activité biologique des sols. Des études ont ainsi montré que le vermicompost – un compost produit par les vers de terre – peut fortement améliorer les performances de certains plastiques biodégradables en conditions agricoles. Cet effet s’expliquerait à la fois par l’apport de nutriments favorisant les microorganismes du sol et par la présence d’une flore microbienne spécifique, issue du tube digestif des vers de terre.

Pour mieux comprendre ces mécanismes, des expériences en laboratoire suivent la dégradation des plastiques à l’aide de systèmes respirométriques mesurant la transformation du carbone des plastiques en dioxyde de carbone par les microorganismes. Ces dispositifs permettent d’évaluer de manière quantitative dans quelles conditions cette dégradation est accélérée.




À lire aussi :
Du slip troué aux sachets de thé, quelques indicateurs pour mesurer la santé des sols


Améliorer les plastiques et les pratiques

Si les plastiques dits biodégradables représentent une piste intéressante contre l’accumulation dans les sols de nano et de microplastiques, leur efficacité dépend étroitement des conditions réelles du milieu agricole et ils ne peuvent pas être considérés comme une solution systématique ou tenue pour acquise.

Les travaux de recherche montrent qu’améliorer leur biodégradation passe à la fois par une meilleure compréhension de l’interaction entre les matériaux, le fonctionnement biologique des sols et les pratiques culturales associées. Amendements organiques spécifiques, apports de souches exogènes et stimulation de l’activité microbienne autochtone constituent autant de leviers potentiels.

À terme, réduire la pollution plastique en agriculture nécessitera une approche globale, combinant innovation technologique, pratiques agronomiques adaptées et cadres réglementaires cohérents, afin de concilier performance agricole et protection durable des sols.

The Conversation

Jules Bellon a reçu des financements de la Région Normandie pour mener ses travaux de recherche.

Feriel Bacoup a reçu des financements de Région Normandie

Richard Gattin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Du plastique biodégradable pour pailler les sols agricoles : solution ou nouveau problème ? – https://theconversation.com/du-plastique-biodegradable-pour-pailler-les-sols-agricoles-solution-ou-nouveau-probleme-274565

Réseaux sociaux : aider les adolescents à protéger leur santé mentale en revisitant leurs usages numériques

Source: The Conversation – France (in French) – By Caroline Rouen-Mallet, Enseignant-chercheur en marketing, Université de Rouen Normandie

Le dernier rapport de l’Agence nationale de sécurité sanitaire (Anses) l’a confirmé : les réseaux sociaux peuvent avoir des effets néfastes sur la santé mentale des adolescents et amplifier leurs vulnérabilités. Pour lutter contre cette spirale délétère, l’enjeu n’est pas de verser dans les discours moralisateurs ou de miser seulement sur la réglementation. Le marketing social permet de mieux connaître les motivations et les usages des jeunes pour les inviter à revisiter leurs pratiques. Explications.


Les adolescents sont aujourd’hui présents au quotidien sur les réseaux sociaux. Loin de n’être qu’un lieu d’expression ou de sociabilité, ces espaces numériques représentent un environnement saturé d’images idéalisées, de normes sociales et de mécanismes d’influence puissants.

Le rapport publié en décembre 2025 par l’Anses dresse un constat alarmant que notre projet ALIMNUM, financé par l’ANR, visant à identifier des leviers de prévention, avait déjà clairement identifié : les réseaux sociaux affectent de manière profonde l’image corporelle, l’estime de soi et la santé mentale des adolescentes. Et cette influence est suffisamment robuste pour être considérée comme un risque sanitaire avéré.

Les conclusions de l’Anses reposent sur des centaines d’études internationales. Elles établissent que les plateformes très visuelles (Instagram, Snapchat, TikTok) favorisent des mécanismes bien connus : intériorisation d’idéaux corporels irréalistes, auto-objectification, chute progressive de l’estime de soi…

Les effets apparaissent dès 9–11 ans et s’intensifient durant l’adolescence. Et les filles sont significativement plus touchées que les garçons par ces effets psychologiques délétères.

Une exposition massive à des images corporelles irréalistes

Cette confirmation survient dans un contexte où les usages numériques atteignent un niveau d’intensité sans précédent. Le Baromètre du numérique du Credoc montre que 75 % des internautes utilisent les réseaux sociaux chaque jour, et que cette pratique est particulièrement marquée chez les 12–17 ans, dont 58 % se connectent quotidiennement.

Les jeunes filles sont reconnues comme les utilisatrices les plus assidues : 48 % d’entre elles consultent les réseaux au moins une fois par jour, contre 41 % des garçons. Cette différence n’est pas anodine : elle détermine l’exposition à un environnement visuel et social qui, selon l’Anses, reconfigure durablement la manière dont les adolescentes perçoivent leur corps.




À lire aussi :
« Dans la vraie vie aussi, j’aimerais bien porter un filtre » : les réseaux sociaux vus par les 8-12 ans


Cette dynamique expose les jeunes filles à un flot continu de contenus, présentant des corps répondant à des idéaux irréalistes, valorisant la retouche photo et les filtres, mettant en avant l’hypersexualisation, encourageant la comparaison ascendante (se comparer à plus « beau », plus mince, plus parfait), diffusant des conseils nutritionnels non vérifiés et des routines de « transformation » qui mélangent bien-être et injonction à la performance.

Une spirale algorithmique qui amplifie les vulnérabilités adolescentes

L’un des apports les plus importants du rapport Anses est de confirmer les effets des algorithmes dans l’exposition des adolescentes à des risques sanitaires. Celles-ci interagissent avec des contenus liés à la minceur, au fitness ou à l’alimentation restrictive et voient ces contenus se multiplier à l’instar d’un puits sans fond.

La tendance « healthy », omniprésente sur les réseaux sociaux, fabrique ainsi un idéal de discipline corporelle, de performance sportive et d’alimentation contrôlée. Une expérience citée par l’agence montre que d’ailleurs que TikTok recommande des contenus liés aux troubles alimentaires en moins de huit minutes lorsqu’un compte se comporte comme un adolescent de 13 ans.

Cette personnalisation algorithmique crée une spirale dans laquelle les insécurités physiques sont renforcées, parfois jusqu’à la détresse psychologique. Les études longitudinales montrent que ces usages sont liés à une augmentation des symptômes anxieux et dépressifs, à des troubles du sommeil et à une exposition accrue aux cyberviolences.

À cela s’ajoute un paradoxe mis en lumière par le CREDOC : bien que les jeunes soient très exposés aux interactions toxiques, seuls 34 % des 12–17 ans déclarent avoir déjà utilisé un dispositif de signalement. Les adolescentes restent donc vulnérables, sans recourir aux outils censés les protéger.

Comprendre les comportements pour mieux prévenir les risques

Face à ce faisceau de données, le marketing social apparaît comme un champ scientifique particulièrement utile pour identifier des leviers d’action. Il offre un cadre pertinent pour concevoir des stratégies de prévention ancrées dans les pratiques réelles des jeunes.

Contrairement aux discours moralisateurs ou purement réglementaires, le marketing social privilégie une démarche compréhensive fondée sur les motivations qui sous-tendent les comportements de consommation : pourquoi les adolescentes publient-elles des selfies ? Pourquoi recherchent-elles des « likes » ? Pourquoi passent-elles plusieurs heures par jour à se comparer aux autres ? Pourquoi les parents et les éducateurs peinent-ils à intervenir ?

Les travaux en marketing social apportent plusieurs éléments de réponse dans ce domaine. Les adolescents utilisent les réseaux sociaux pour appartenir à un groupe, contrôler leur image et obtenir une reconnaissance sociale qui leur fait parfois défaut dans la vie réelle. Ces motivations, naturelles à cet âge, deviennent problématiques lorsque l’environnement numérique les amplifie.

Face à ces enjeux, le marketing social insiste sur la nécessité de travailler avec – et non contre – ces motivations. En fait, le marketing social recommande d’accompagner plutôt que de contrôler en insistant sur certains leviers : co-construire les règles d’usage numérique, promouvoir l’esprit critique face aux images retouchées.

Il se fonde sur une segmentation fine des publics cibles : adolescentes très actives, utilisatrices passives, parents dépassés, enseignants, professionnels de santé. Chacun de ces publics suppose des messages adaptés et non une prévention uniforme, pour renforcer l’efficacité des actions à mener.

Créer un environnement social propice à l’éducation aux médias

L’approche ci-dessus est mobilisée dans le cadre du projet de sciences participatives MEALS, financé aussi par l’ANR, qui s’intéresse aux effets des réseaux sociaux sur les pratiques alimentaires des jeunes. Les jeunes n’y sont pas seulement des sujets d’étude, ils collaborent eux-mêmes à la recherche pour comprendre ce phénomène.

Avec cette méthode innovante, MEALS ambitionne de créer des outils pour développer un esprit critique face aux contenus numériques et de co-construire des messages de prévention adaptés aux jeunes, pour que les réseaux soient des alliés – et non des pièges – en matière de santé publique. Nous cherchons à identifier des comportements, à segmenter en fonction des motivations pour encourager non pas une déconnexion totale, peu réaliste, mais un usage réflexif des réseaux sociaux.

Dans ce contexte, nos jeunes co-chercheurs sont invités à proposer des activités alternatives offrant les mêmes bénéfices sociaux que les plateformes numériques : des espaces d’expression valorisants, des collectifs sportifs, des ateliers non compétitifs, des projets créatifs où le regard des pairs joue un rôle positif dans la construction identitaire.

Concrétement, au travers de ce projet, nous ne souhaitons pas évacuer les réseaux sociaux du quotidien des jeunes mais à revisiter leurs pratiques, en nous servant des contenus numériques qu’ils fréquentent pour les convertir en moments vecteurs de lien social. Il peut s’agir de réaliser une recette trouvée sur TikTok, de débattre d’une vidéo de TiboInschape ou de Louloukitchen, de créer une pièce de théâtre mettant en scène un influenceur, de rédiger un post dans le cadre d’un séminaire d’écriture…

Plus globalement, face aux risques sanitaires relevés par les publications scientifiques dans le cadre du rapport de l’Anses, l’enjeu est de créer des temps forts propices à une réflexion collective autour de l’utilisation des médias numériques. C’est une démarche à explorer pour éduquer les générations futures.



Les projets Alimentation et numérique – ALIMNUM et Manger avec les réseaux sociaux – MEALS sont soutenus par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Caroline Rouen-Mallet a reçu des financements de l’Agence Nationale de la Recherche (ANR) ) pour le projet ALIMNUM.

Pascale Ezan a reçu des financements de Agence Nationale de la Recherche pour les projets ALIMNUM (Alimentation et Numérique) et MEALS (Manger ensemble avec les réseaux sociaux)

Stéphane Mallet a reçu des financements de l’Agence Nationale de la Recherche (ANR) ) pour le projet ALIMNUM.

ref. Réseaux sociaux : aider les adolescents à protéger leur santé mentale en revisitant leurs usages numériques – https://theconversation.com/reseaux-sociaux-aider-les-adolescents-a-proteger-leur-sante-mentale-en-revisitant-leurs-usages-numeriques-275271

« Le plastique, c’est fantastique. » Vers un retour des jouets en plastique dans le Happy Meal ?

Source: The Conversation – France (in French) – By Sophie Renault, Professeur des Universités en Sciences de Gestion et du Management, Université d’Orléans

Dans sa nouvelle campagne (photo), McDonald’s s’est associé à la célèbre marque de figurines Playmobil pour ses fameux Happy Meal. ©McDonald’s – visuel promotionnel de la campagne En avant Playmobil® , Fourni par l’auteur

Bannis des menus enfants depuis 2022, les jouets en plastique font leur retour chez McDonald’s par l’intermédiaire d’une collaboration avec Playmobil. Derrière l’argument du plastique végétal, que dit vraiment ce retour ? Et qu’omet-il de rappeler ?


Novembre 2025 marque, en France, un tournant symbolique chez le géant du fast-food McDonald’s. Après plusieurs années de « diète plastique » dans le menu enfant où il a fallu se contenter de cartes à collectionner, de coloriages ou d’autres livrets d’activité, les jouets en plastique ont fait leur grand retour dans le Happy Meal.

Grâce à une collaboration avec Playmobil, McDonald’s tourne la page du « tout-papier ». L’enseigne semble entonner le refrain d’Elmer Food Beat : « Le plastique, c’est fantastique. » Ce revirement s’appuie sur une mécanique redoutable mêlant nostalgie et vernis écologique.




À lire aussi :
La nostalgie, un puissant levier du marketing


Du jouet jetable à l’objet patrimonial : la requalification morale du plastique

En France, depuis le 1er janvier 2022, la loi Agec (anti-gaspillage pour une économie circulaire) interdit, dans son article 81, la distribution de jouets en plastique dans les menus destinés aux enfants. Il s’agit, d’une part, de réduire les déchets à usage unique et, d’autre part, de limiter l’exposition des enfants à des objets à faible durée de vie. En filigrane, cette mesure interroge le rôle des jouets comme leviers d’attractivité des offres de restauration rapide auprès des plus jeunes, dans un contexte de préoccupations croissantes liées à la prévention de l’obésité infantile et à la promotion de pratiques alimentaires plus équilibrées. Pour les enseignes de restauration rapide à l’instar du géant McDonald’s, cette mesure a signé la fin d’un pilier historique du menu enfant, longtemps structuré autour de la promesse d’un jouet en plastique à collectionner.

Durant cette parenthèse, où le jouet enfant était principalement réduit à du papier ou carton, le plastique n’avait pas quitté l’écosystème de McDonald’s. Il s’était simplement déplacé vers la cible adulte. C’est là toute l’habileté de la stratégie du géant du fast-food. Alors que l’enfant apprenait la sobriété écologique, les opérations pour adultes remettaient l’objet en plastique au centre du désir. En France, ce déplacement s’est matérialisé en 2025 autour de deux opérations emblématiques.

Tout a commencé avec les collaborations menées avec des univers culturels fortement chargés en capital affectif à l’occasion d’une part de la sortie du film Minecraft en avril, puis de la nouvelle saison de Mercredi en juillet  2025. Des figurines en plastique à vocation de collection ont été intégrées à des menus et dispositifs promotionnels tournés vers une clientèle adulte.

Du jouet pour enfants à l’artefact pour « kidults »

L’objet change ainsi de statut : de jouet jetable pour enfant, il devient artefact culturel pour kidults. La contrainte environnementale n’a pas fait disparaître le plastique. Elle l’a requalifié, en l’inscrivant dans une économie de la nostalgie et de la collection, socialement plus acceptable.

La subtilité réside dans le changement de statut du jouet en plastique : dans le menu enfant, le plastique était devenu un déchet polluant à bannir ; dans le menu adulte, il est célébré comme un objet de collection. En réhabilitant le plastique auprès des parents, McDonald’s a préparé les esprits. Une fois que le plastique a été « relégitimé » par la culture pop, il devenait plus simple de le réintroduire dans le menu enfant. Encore fallait-il lui trouver une vertu morale.

Pour acter ce retour en arrière, le choix du partenaire était crucial. Il semble, dans ce contexte, que l’association avec Playmobil ait pu agir comme un bouclier. Contrairement aux jouets sous licence de films, séries ou autres dessins animés susceptibles d’être jetés une fois la mode passée, les figurines Playmobil bénéficient d’une aura de respectabilité.

Il s’agit de jouets robustes qui se transmettent de génération en génération. L’argument implicite est fort, il ne s’agit pas d’un déchet plastique mais d’un patrimoine ludique. En outre, la collection de dix figurines d’animaux sauvages s’inscrit dans un imaginaire largement associé à la préservation de la nature et à la protection du vivant, ce qui renforce la portée affective et symbolique de l’opération.

Le « plastique végétal » : fantastique ou cynique ?

Face à l’urgence climatique, pour que ce retour soit socialement acceptable, il fallait un argument technique imparable : le plastique végétal. C’est ici que l’analyse doit se faire critique, car le terme flirte avec le malentendu.

D’une part, dire qu’un plastique est végétal signifie qu’il est fabriqué à partir de biomasse (fibres de canne à sucre, amidon de maïs, etc.) et non de pétrole. S’il s’agit d’un progrès en termes d’empreinte carbone, un polymère végétal a toutefois des similitudes avec son cousin pétrolier. S’il est perdu dans la nature, il mettra des décennies à se désagréger.

D’autre part, fabriquer des millions de figurines en plastique végétal implique d’utiliser des ressources agricoles. La systématisation de cette production pour des objets considérés comme « gratuits » pose la question de l’allocation des terres arables dans un monde aux ressources contraintes.

Enfin, et c’est peut-être la critique fondamentale, le plastique végétal est une solution technologique qui permet de tout changer pour que rien ne change. Il valide la poursuite d’un modèle basé sur la distribution massive de petits objets manufacturés avec un repas, plutôt que de questionner la nécessité même de ce « cadeau » systématique. De là à parler d’habillage éthique, il n’y a qu’un pas…

Archives INA.

Du Happy Meal au Happy Doggy : déplacer l’affect pour légitimer le plastique

Chez McDonald’s, les enjeux environnementaux n’ont pas fait disparaître le plastique. Ils l’ont rendu plus rare, plus scénarisé et de facto plus désirable. Dans le Happy Meal, les jouets en papier et carton demeurent ainsi la norme. Lorsque le jouet en plastique réapparaît, il est présenté comme un collector, pensé pour durer. La circulation de ces objets sur les plates-formes de vente en ligne, comme Vinted ou leboncoin, en témoigne. Le plastique se voit attribuer une seconde vie, socialement valorisée, qui le distingue du jetable.

In fine, le problème ne serait plus la matière, mais l’éphémère. Le jouet en soi n’est pas problématique, en revanche son absence de valeur affective l’est. Quid en ce sens des jouets en papier/carton ayant succédé à l’ère du plastique ? Ne sont-ils pas jetés bien plus rapidement que leurs homologues en plastique ? En requalifiant subtilement le plastique comme support de mémoire et de collection, McDonald’s transforme une pratique de consommation potentiellement dissonante en plaisir légitime.

L’introduction en novembre 2025 de jouets pour chiens (les Happy Doggy) dans le menu Best Of s’inscrit dans cette logique de déplacement symbolique. Le plastique trouve dans l’univers du pet marketing un nouvel espace de légitimation affective, moins exposé aux injonctions de sobriété adressées à la consommation enfantine.

The Conversation

Sophie Renault ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. « Le plastique, c’est fantastique. » Vers un retour des jouets en plastique dans le Happy Meal ? – https://theconversation.com/le-plastique-cest-fantastique-vers-un-retour-des-jouets-en-plastique-dans-le-happy-meal-273711

Tout sauf l’Ehpad ? Les ambiguïtés de la politique du grand âge

Source: The Conversation – France in French (3) – By Dominique Argoud, Professeur des Universités en sociologie, Université Paris-Est Créteil Val de Marne (UPEC)

Trois Français sur quatre ne souhaitent pas vivre dans un établissement pour personnes âgées dans le futur. En 2001, ils n’étaient qu’un sur deux. Age Cymru/Unsplash, CC BY

En France, les établissements d’hébergement pour personnes âgées dépendantes (Ehpad) font figure de repoussoirs. En 2001, 53 % des Français déclaraient en ne pas souhaiter vivre dans un établissement pour personnes âgées dans le futur, ce pourcentage s’élève aujourd’hui à 74 %. Les pouvoirs publics cherchent à promouvoir d’autres formes d’hébergement moins médicalisées. Est-ce une bonne approche ?


Les établissements d’hébergement pour personnes âgées dépendantes (Ehpad) constituent aujourd’hui le mode dominant d’accueil pour les personnes âgées ne pouvant pas rester à leur domicile. Fin 2023, sur les 700 000 personnes fréquentant un établissement d’hébergement pour personnes âgées, près de 80 % vivent en Ehpad. Compte tenu du vieillissement démographique, si les pratiques d’entrée en institution restent inchangées, il faudra ouvrir 108 000 places en Ehpad d’ici à 2030, puis 211 000 places entre 2030 et 2050. Cela reviendrait à un peu plus que doubler, dans la durée, le rythme d’ouverture de places observé depuis 2012.

Or, une telle projection se heurte à l’image dégradée dont bénéficient les Ehpad en France. Ceux-ci font office de repoussoir pour un grand nombre de personnes âgées et de familles, encore plus depuis l’affaire Orpea et la parution du livre Les fossoyeurs du journaliste Victor Castanet. La crainte de perdre sa liberté en établissement d’hébergement, voire d’être maltraité, conduit à plébisciter le maintien à domicile pour ses vieux jours. Ainsi, selon le baromètre de la DREES, alors que 53 % des Français déclaraient en 2001 de ne pas souhaiter vivre dans un établissement pour personnes âgées dans le futur, ce pourcentage s’élève aujourd’hui à 74 %. 44 % des Français feraient en sorte de s’occuper de son parent âgé à son domicile, 21 % seraient prêts à l’accueillir chez eux et 16 % les soutiendraient financièrement afin qu’il puisse bénéficier d’aides à domicile. Entre 2014 et 2023, la proportion de personnes qui privilégient de s’occuper de leur proche à son domicile a augmenté de presque 20 points, passant de 25 % en 2014 à 44 % en 2023.

Une politique domiciliaire en panne

Dans ce contexte, quelles sont les orientations de la politique vieillesse ? Depuis quelques années, l’État s’engage à promouvoir une approche domiciliaire pour tenir compte des réticences croissantes manifestées à l’égard des institutions d’hébergement. Cette approche est confortée par les projections des attentes des nouvelles générations de personnes âgées, qui correspondront aux baby-boomers (nés entre 1946 et 1964) atteignant le grand âge au cours des prochaines décennies. Ainsi, il est attendu que ces nouvelles générations soient plus enclines à vouloir préserver leur pleine et entière citoyenneté et à moins dépendre de décisions leur échappant.

Schématiquement, la politique domiciliaire engagée par l’État se structure autour de deux axes. Le premier consiste à renforcer les capacités du domicile pour que les gens puissent s’y maintenir plus nombreux et dans de bonnes conditions. Le second axe vise à transformer le fonctionnement des Ehpad pour qu’ils deviennent des lieux de vie ouverts sur la cité et où les résidents puissent y être « comme chez eux ». En réalité, cette politique relativement consensuelle se situe dans le prolongement des orientations antérieures. Mais de sérieux doutes ont été émis par l’Inspection générale des affaires sociales quant à la capacité de l’État à la mettre réellement en œuvre. Le coût budgétaire de la politique domiciliaire de même que la faible attractivité des métiers du grand âge en constituent autant de freins.

Une volonté politique d’encourager les habitats intermédiaires

D’un côté, l’Ehpad comme mode d’hébergement des personnes âgées n’a plus le vent en poupe, et de l’autre, le maintien à domicile des personnes en perte d’autonomie présente des limites. C’est pourquoi, pour mettre en œuvre l’approche domiciliaire, les pouvoirs publics misent fortement sur le développement de « l’habitat intermédiaire ».

Par habitat intermédiaire, il faut entendre toutes les formes d’habitat qui se situent entre le domicile historique et les établissements proposant un hébergement collectif. La Caisse nationale de solidarité pour l’autonomie (CNSA) estime qu’il y aurait aujourd’hui 275 000 places en habitat intermédiaire (résidences autonomie, résidences services seniors, habitats inclusifs, accueil familial, résidences intergénérationnelles…). Compte tenu des besoins liés au vieillissement de la population, elle projette la nécessité de créer 500 000 solutions de logement en habitat intermédiaire d’ici 2050.

La justification de cette incitation publique en faveur de l’habitat intermédiaire est qu’il s’agit d’une formule qui répond au souhait des personnes de vivre chez elles sans êtres seules, tout en préservant leur intimité et leur liberté de choix.

Une autre de ses caractéristiques est que le public visé est plutôt constitué de personnes ayant une perte d’autonomie modérée, dont l’isolement ou les problèmes de santé les inciteraient à rejoindre un cadre de vie plus sécurisant. De fait, l’habitat intermédiaire apparaît comme une formule aux antipodes de l’Ehpad. Ce dernier accueille en effet des personnes plus dépendantes et représente un coût plus important pour les finances publiques compte tenu de la présence de personnels soignants.

Les Ehpad condamnés à faire figure de repoussoir

Cette politique en faveur de l’habitat intermédiaire contient un implicite : demain, encore plus qu’aujourd’hui, les Ehpad auront vocation à accueillir les personnes âgées très dépendantes. Malgré toute l’énergie que mettent les directions d’Ehpad pour ouvrir leurs établissements sur la vie de la cité, l’image repoussoir risque de se renforcer : la moitié des résidents en Ehpad a plus de 88 ans et 85 % sont en perte d’autonomie (classés en GIR 1 à 4) ; 38 % sont atteint d’une maladie neurodégénérative, soit 4 points de plus qu’en 2019. Parallèlement, le nombre de personnes autonomes qui intègrent un établissement a encore reculé en l’espace de quatre ans.

Pourtant, cette évolution n’est pas inéluctable. Les Ehpad ont toujours accueilli des personnes en situation de perte d’autonomie modérée. En effet, l’entrée en établissement d’hébergement ne résulte pas d’un processus linéaire qui rendrait le maintien à domicile impossible à partir d’un certain seuil de dépendance. De multiples facteurs entrent en ligne de compte dans ce processus, mêlant tant des éléments subjectifs (la perception individuelle de la situation) que des éléments objectifs comme la qualité de son cadre de vie ou la présence d’aidants mobilisables pour intervenir à domicile.

Une approche alternative aurait été possible

En favorisant le développement d’un habitat intermédiaire, quoi qu’il s’en défende, l’État contribue à segmenter l’offre en fonction du degré de dépendance. Toute catégorisation qui se veut positive tend à produire son contraire, à savoir une catégorie qui concentre les éléments négatifs. Que va-t-il advenir des personnes dont l’état de santé ne permettra plus de rester en habitat intermédiaire si ce dernier est amené à se développer ?

Un modèle alternatif était pourtant possible. Il a été défendu à partir des années 1980 par la Fondation de France qui encourageait la création de « lieux de vie jusqu’à la mort ». Contre l’idée de segmentation, il s’agissait de promouvoir des petites unités de vie, bien insérées dans le tissu social local, où les personnes auraient pu être accompagnées par des services d’aide et de soins à domicile jusqu’à la fin de leur vie. Ces structures, de petite taille, reposaient sur un mode de vie et d’accompagnement familial, prenant le contre-pied des grands établissements hospitaliers et médicalisés.

À la différence de beaucoup d’habitats intermédiaires actuels, leur ambition était de pouvoir accompagner jusqu’au bout des personnes âgées en perte d’autonomie. C’est sur ce modèle que se sont développées ces dernières années, par exemple, des colocations accueillant des personnes atteintes de la maladie d’Alzheimer.

Mais, pour l’essentiel, cette option a peu été soutenue par les pouvoirs publics et beaucoup d’opérateurs sont restés prisonniers de cadres organisationnels et économiques favorables à la réalisation d’économies d’échelle, aboutissant à la constitution de lieux de relégation. Dans les faits, il s’est avéré plus aisé de produire une offre segmentée avec, d’un côté, des Ehpad ou des unités spécialisées hébergeant des personnes très dépendantes et, de l’autre, des habitats intermédiaires accueillant une population fragilisée mais encore peu dépendante. Ce processus de segmentation s’est opéré avec l’assentiment des élus locaux soucieux de proposer une offre non stigmatisée sur leur territoire, qui est elle-même valorisée par les familles.

Il n’est toutefois pas certain que le mot d’ordre « tout sauf l’Ehpad » contribue à rendre la société plus inclusive pour faire face au vieillissement de la population. Alors que les lieux de vie visent à accompagner l’ensemble des « gens du coin » dans leur vieillissement, le paysage gérontologique tend au contraire à spécialiser les réponses d’hébergement, enfermant un peu plus la figure du « vieux dépendant » dans son rôle de repoussoir.

The Conversation

Dominique Argoud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Tout sauf l’Ehpad ? Les ambiguïtés de la politique du grand âge – https://theconversation.com/tout-sauf-lehpad-les-ambigu-tes-de-la-politique-du-grand-age-274989

The seductive simplicity — and danger — of pop psychology’s ‘love languages’

Source: The Conversation – Canada – By Maha Khawaja, PhD Student, McMaster University

Do you know how you prefer to give and receive love? Do you need words of affirmation? Spending quality time? Acts of service? Gifts? Or physical touch?

Figuring out what your “love language” is has become one of the most successful relationship ideas of the past two decades.

Why? Because the idea is simple, flattering and easy to apply.

Introduced by Gary Chapman, an American Baptist pastor, author and marriage counsellor, in his 1992 book The 5 Love Languages: The Secret to Love that Lasts, the idea is now a dominant framework in modern relationship advice.

While incredibly popular and often used as a “go-to” tool on first dates, recent research suggests that the idea lacks strong scientific evidence for its central claims.

Instead of scientific theory, love languages function like a culturally appealing system that individualizes relational strain, obscures power and substitutes a checklist for the harder work of understanding how relationships actually function over time.

A simple idea replacing scientific evidence

That popularity of love languages is exactly what makes them an archetype of bad pop psychology as they package a complex set of relational processes into a simple idea, providing a memorable vocabulary, and then get treated as explanation, diagnosis and solution all at once.

Most notably, this framework emerges from a pastoral counselling context rather than systematic research, and its core claim — that people have a stable primary language that should be matched for relational success — doesn’t apply well to how relational needs operate.

People typically value all five domains: quality time, words of affirmation, receiving gifts, acts of service and physical touch. They shift depending on stress, life stage, illness, caregiving demands and conflict history.

What gets named as a “primary” language is often better understood as a moving indicator of current deprivation — “this is what I’m not getting” — and not a durable trait. Because the categories are broad and emotionally resonant, they also invite the Barnum effect, in which the model feels deeply accurate precisely because it is flexible enough to fit most people most of the time.

When intimacy becomes a simplified checklist

Another problem with the five love languages is what they do to how people think about relational support. They turn intimacy into a problem of translation: if you just deliver the right behaviours in the right format, your partner will feel loved.

That can push couples toward transactional care (“I did your language, so you should be satisfied”) and away from curiosity and context (“What is happening for you this week? What support do you actually need?”). It also promotes a form of individualization in which relational issues become framed as mismatched preferences instead of relational processes that require ongoing work.

Once the label enters the relationship, it can function like a conversational dead end.

It also doesn’t seriously address conflict regulation, responsiveness or how couples cope under stress, all of which are areas where relationship science has far more to say. Many “love language” conflicts are not actually about the absence of gifts or affirmation, but are about chronic misattunement, uneven emotional labour, perceived disregard or an unsafe climate.

The structural conditions love languages ignore

Love languages can also obscure power and normalize inequality.

Some categories are easily folded into gendered divisions of labour, like how acts of service and emotional affirmation often land on women as feminized care work, while other partners receive the benefits without addressing uneven burdens.

The framework also sidesteps structural constraints like poverty, disability, illness, class and religious norms that shape what is possible.

When someone is overworked, sick or carrying the relationship’s invisible labour, the problem is rarely that their “language” is being spoken incorrectly. It is that relational and structural conditions make mutuality difficult, and “speaking languages” can become a way to manage the symptoms while leaving the conditions untouched.

The model is also particularly risky where consent and vulnerability are involved. Physical touch as a love language, for example, can be used to moralize access to someone else’s body, especially in contexts of sexual pleasure, coercion, post-partum recovery, trauma or chronic pain.

What sustains relationships beyond labels

The love languages framework tends to treat touch as an unambiguous good instead of a context-sensitive practice shaped by consent, safety, timing and bodily autonomy in health contexts like having cancer, disability, medication changes and depression. Intimacy largely shifts because bodies and conditions shift.

A model that encourages partners to “deliver touch” can easily misfire when what’s needed is patience, alternative sexual scripts and co-ordinated coping, not increased physical contact as proof of love.

Above all, love languages only thrive because they are marketable. They offer the satisfaction of self-knowledge, compatibility narratives and quick fixes.

Relationships, of course, are not solved by personalization alone. Importantly, they are shaped by mutual responsiveness, practical and emotional equity, the ability to repair after harm and the capacity to adapt to changing bodies and lives.

If love languages are useful at all, it is as a thin starting vocabulary for talking about care, and not as a diagnostic framework or substitute for confronting misattunement, power and the real conditions that make intimacy sustainable.

The Conversation

Maha Khawaja does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. The seductive simplicity — and danger — of pop psychology’s ‘love languages’ – https://theconversation.com/the-seductive-simplicity-and-danger-of-pop-psychologys-love-languages-273296