Five everyday habits that could be harming your pancreas

Source: The Conversation – UK – By Dipa Kamdar, Senior Lecturer in Pharmacy Practice, Kingston University

A few everyday habits play a major role in pancreatic damage. carlesmiro/Shutterstock

The pancreas is essential for staying alive and healthy. This small organ sits behind the stomach and has two main jobs. It produces digestive enzymes that break down food and hormones such as insulin and glucagon that control blood sugar.

Everyday habits such as heavy drinking and unhealthy eating can gradually damage the pancreas. Once injured, the consequences can be serious and include inflammation, diabetes and, in some cases, cancer.

Several common lifestyle factors can put the pancreas under strain:

1. Alcohol

Regular heavy drinking is one of the leading causes of pancreatitis. Acute pancreatitis causes severe abdominal pain, nausea and vomiting and often needs hospital care. Repeated episodes can develop into chronic pancreatitis, where long-lasting inflammation and scarring permanently reduce pancreatic function. This can lead to malabsorption of fats, vitamins and other nutrients, diabetes and a higher risk of pancreatic cancer. Researchers have several theories about how this damage occurs.

Alcohol can cause digestive enzymes such as trypsin, which normally work in the small intestine, to activate inside the pancreas before they reach the gut. Instead of digesting food, they digest pancreatic tissue and trigger severe inflammation.

Alcohol also makes pancreatic juices thicker and stickier. These thicker fluids can form protein plugs that harden into stones and block tiny ducts. Over time this causes irritation, scarring and the loss of pancreatic cells. When the pancreas breaks down alcohol it produces a toxic chemical called acetaldehyde that irritates and damages cells and triggers inflammation.

Alcohol also encourages the release of chemical messengers that switch on inflammation and keep it active. This makes tissue damage more likely.

Guidelines recommend drinking no more than 14 units of alcohol per week. It is safest to spread this across several days and to avoid binge drinking.

2. Smoking

Smoking increases the risk of both acute and chronic pancreatitis. Acute pancreatitis develops suddenly with severe pain and sickness. Chronic pancreatitis develops over many years and repeated inflammation causes permanent damage. Several studies show that the more someone smokes, the higher the risk. Another study found that quitting significantly reduces risk, and after about 15 years the risk can fall close to that of a non smoker.

Smoking is also strongly linked to pancreatic cancer. Scientists do not yet fully understand every mechanism, but laboratory studies show that nicotine can trigger sudden increases in calcium inside pancreatic cells. Too much calcium harms cells and worsens inflammation. Tobacco smoke also contains carcinogens that damage DNA.

One of the earliest genetic changes in pancreatic cancer involves a gene called Kras, which acts like a switch that controls how cells grow. In more than 90 percent of pancreatic cancers this gene is mutated, which locks the growth switch in the on position and encourages uncontrolled cell growth.

3. Diet

Diet affects the pancreas in several ways. Eating a lot of saturated fat, processed meat or refined carbohydrates raises the risk of pancreatic problems.

One major cause of acute pancreatitis is gallstones. Gallstones can block the bile duct and trap digestive enzymes inside the pancreas. When enzymes build up they begin to damage the organ. Diet contributes to gallstone formation because high cholesterol levels make bile more likely to form stones.

Another type of fat in the blood is triglycerides. When triglycerides rise to very high levels, large fat particles known as chylomicrons can clog tiny blood vessels in the pancreas. This reduces oxygen supply and triggers the release of harmful fatty acids that irritate pancreatic tissue.

Frequent spikes in blood sugar from high sugar foods also strain the pancreas. Constant surges in insulin over time reduce insulin sensitivity and may increase the risk of pancreatic cancer.

4. Obesity

Obesity increases the risk of acute pancreatitis, chronic pancreatitis and pancreatic cancer. Fat can accumulate in and around the pancreas, a condition called pancreatic steatosis or non-alcoholic fatty pancreatic disease. This build up can replace healthy cells and weaken the organ.

Excess body fat also increases levels of pro-inflammatory molecules such as TNF-alpha and IL-6, creating long-lasting inflammation that supports tumour growth. Obesity disrupts insulin sensitivity and hormone signals from fat tissue. Gallstones are more common in people who are obese and can increase the risk of pancreatitis.

5. Physical inactivity

A sedentary lifestyle worsens insulin resistance and forces the pancreas to produce more insulin. Without activity to help muscles absorb glucose, the pancreas remains under constant strain. This metabolic stress increases susceptibility to diabetes and pancreatic cancer.

Physical activity may lower pancreatic cancer risk both directly and indirectly. It supports immune function, improves cell health, reduces obesity and lowers type 2 diabetes risk. Regular movement strengthens antioxidant defences and increases the activity of disease fighting immune cells.

Pancreatic cancer may lead to diabetes, as a damaged pancreas cannot produce enough insulin. Diabetes can increase the risk of pancreatic cancer.

Adults are encouraged to include strength training at least twice a week and to aim for 150 minutes of moderate activity or 75 minutes of vigorous activity each week.

Because pancreatic conditions can be life threatening, recognising early symptoms is important. Seek medical advice if you have persistent abdominal pain, unexplained weight loss, loss of appetite, nausea or vomiting that do not settle, jaundice, greasy or foul smelling stools or chronic fatigue.

Many risks are modifiable. Limiting alcohol intake, quitting smoking, eating a diet rich in fruit, vegetables and whole grains and being physically active all reduce the likelihood of pancreatic disease. Even small changes such as choosing plant-based protein or cutting back on sugary drinks help lighten the load on this vital organ.

By understanding how the pancreas becomes damaged and by noticing symptoms early, you can take simple steps to protect it. Look after your pancreas and it will look after you.

The Conversation

Dipa Kamdar does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Five everyday habits that could be harming your pancreas – https://theconversation.com/five-everyday-habits-that-could-be-harming-your-pancreas-266647

Economic forecasts point to a Democrat win in the 2026 US midterm elections

Source: The Conversation – UK – By Paul Whiteley, Professor, Department of Government, University of Essex

The resounding victories in recent elections by Democrats Zohran Mamdani in New York, Abigail Spanberger in Virginia and Mikie Sherrill in New Jersey has reinvigorated the party after a dismal year since Donald Trump became president.

The victories were not a mandate for a sharp ideological shift to the left. This may be true for Mamdani, but it is not for Spanberger and Sherrill, since both are mainstream centrist Democrats. The main reason for the victories can be seen in the chart below.

Trends in presidential job approval and Donald Trump’s handling of the economy 2025:

The data comes from successive polls in the United States conducted by YouGov on behalf of the Economist magazine. All three candidates focused on the issue of the US economy which proved to be a winning strategy since it is clear the economy strongly affects Donald Trump’s job approval ratings.

As the president’s ratings on the economy decline, so does his job approval ratings. The result is that the Republicans took the blame for failing to deal with the issue.

The midterm Congressional elections in the US are due to take place in November 2026. Given the strong relationship between the economy and support for the president, it is interesting to examine how the economy is likely to influence support for the Democrats in those elections.

To investigate this, we can look at elections to the House of Representatives over a long period, given that they occur every two years.

The graph below compares the number of House seats won by the Democrats and economic growth in the US in all 40 House elections since 1946. Economic growth is weighted so that the Democrats benefit from high growth when they control the House but are penalised by this when the Republicans are in control.

This also works in reverse with low growth producing a poor electoral performance for the party when Democrats are in charge and a good performance when the Republicans are in control.

The relationship between economic growth and House seats won by Democrats 1946 to 2024:

The impact of the economy on voting in these elections is clearly quite strong, but the number of House seats won declines as the party’s majority gets larger. This is what is known as a “ceiling” effect meaning that when the majority is very large it is difficult to win more seats even in a thriving economy.

But this relationship can nonetheless be used to develop a forecasting model of the seats likely to be captured by the party in midterm elections next year.

When forecasting seats, an additional factor to consider is the inertia of party support over successive elections. If the Democrats did well in one year, they were likely to do well two years later.

For example, in 2008 when Barack Obama won the presidential election, the Democrats captured 233 House seats and the Republicans 202. In the following midterm election in 2010 the party won 257 seats while the Republicans won 178 and so the Democrats retained control of the House.

At the moment the House has a Republican majority of 219 against 213 Democrats. So Republican control is quite vulnerable to a surge in support for the Democrats.

Multiple regression analysis

The forecasting model involves a multiple regression analysis. This uses several variables to predict the behaviour of a specific variable – in this case the number of House seats won by the Democrats.

In addition to the two variables already mentioned, approval ratings and the performance of the economy, the fact that the incumbent president is a Republican is included in the modelling as well since this influences the vote for the Democrats.

We know the number of House seats from the 2024 election and the fact that Trump is a Republican, so to forecast Democrat House seats we need a prediction for economic growth in 2026.

The Federal Reserve Bank of St Louis provides data which forecasts growth in the US economy up to 2028. It predicts that growth in real terms will be 1.8% in 2026 – and when this is included in the modelling, the overall forecast from these variables is 80% accurate.

If a variable is a perfect predictor of House seats it would score 1.0 and if it failed to predict any seats at all it would score 0. The impact of growth on seats when the Democrats controlled the House was 0.75, the inertia effect of past Democrat seats was 0.26 and Trump’s presidency was 0.19.

Low growth boosts Democrats’ prospects

Clearly economic growth dominates the picture showing that low growth rates next year will strengthen the Democrat challenge. This is likely to happen since a recent IMF report suggests that US growth is likely to slow next year.

Actual and predicted House seats in elections 1946 to 2026:

The third chart shows the relationship between Democratic House seats predicted by the model and the actual number of seats won by the party. The predictions track the actual number of Democrat House seats fairly closely and so the forecast should be reasonably accurate

It should be noted that all forecasting models are subject to significant errors. As the chart shows, the predicted number of seats is not the same as the actual number and if something unforeseen happens the predictions could be wrong. That said, however, the forecast is that the Democrats will win 223 seats – an increase of ten over their performance in 2024. This will give them enough to hand them control of the House.

The Conversation

Paul Whiteley has received funding from the British Academy and the ESRC.

ref. Economic forecasts point to a Democrat win in the 2026 US midterm elections – https://theconversation.com/economic-forecasts-point-to-a-democrat-win-in-the-2026-us-midterm-elections-270178

These dinner-plate sized computer chips are set to supercharge the next leap forward in AI

Source: The Conversation – UK – By Luo Mai, Reader at the School of Informatics, University of Edinburgh

It’s becoming increasingly difficult to make today’s artificial intelligence (AI) systems work at the scale required to keep advancing. They require enormous amounts of memory to ensure all their processing chips can quickly share all the data they generate in order to work as a unit.

The chips that have mostly been powering the deep-learning boom for the past decade are called graphics processing units (GPUs). They were originally designed for gaming, not for AI models where each step in their thinking process must take place in well under a millisecond.

Each chip contains only a modest amount of memory, so the large language models (LLMs) that underpin our AI systems must be partitioned across many GPUs connected by high-speed networks. LLMs work by training an AI on huge amounts of text, and every part of them involves moving data between chips – a process that is not only slow and energy-intensive but also requires ever more chips as models get bigger.

For instance, OpenAI used some 200,000 GPUs to create its latest model, GPT-5, around 20 times the number used in the GPT-3 model that powered the original version of Chat-GPT three years ago.

To address the limits of GPUs, companies such as California-based Cerebras have started building a different kind of chip called wafer-scale processors. These are the size of a dinner plate, about five times bigger than GPUs, and only recently became commercially viable. Each contains vast on-chip memory and hundreds of thousands of individual processors (known as cores).

The idea behind them is simple. Instead of coordinating dozens of small chips, keep everything on one piece of silicon so data does not have to travel across networks of hardware. This matters because when an AI model generates an answer – a step known as inference – every delay adds up.

The time it takes the model to respond is called latency, and reducing that latency is crucial for applications that work in real-time, such as chatbots, scientific-analysis engines and fraud-detection systems.

Wafer-scale chips alone are not enough, however. Without a software system engineered specifically for their architecture, much of their theoretical performance gain simply never appears.

The deeper challenge

Wafer-scale processors have an unusual combination of characteristics. Each core has very limited memory, so there is a huge need for data to be shared within the chip. Cores can access their own data in nanoseconds, but there are so many cores on each chip over such a large area that reading memory on the far side of the wafer can be a thousand times slower.

Limits in the routing network on each chip also mean that it can’t handle all possible communications between cores at once. In sum, cores cannot access memory fast enough, cannot communicate freely, and ultimately spend most of their time waiting.

Illustration of a computer chip network
Wafer-scale chips get slowed down by communication delays.
Brovko Serhii

We’ve recently been working on a solution called WaferLLM, a joint venture between the University of Edinburgh and Microsoft Research designed to run the largest LLMs efficiently on wafer-scale chips. The vision is to reorganise how an LLM runs so that each core on the chip mainly handles data stored locally.

In what is the first paper to explore this problem from a software perspective, we’ve designed three new algorithms that basically break the model’s large mathematical operations into much smaller pieces.

These pieces are then arranged so that neighbouring cores can process them together, handing only tiny fragments of data to the next core. This keeps information moving locally across the wafer and avoids the long-distance communication that slows the entire chip down.

We’ve also introduced new strategies for distributing different parts (or layers) of the LLM across hundreds of thousands of cores without leaving large sections of the wafer idle. This involves coordinating processing and communication to ensure that when one group of cores is computing, another is shifting data, and a third is preparing its next task.

These adjustments were tested on LLMs like Meta’s Llama and Alibaba’s Qwen using Europe’s largest wafer-scale AI facility at the Edinburgh International Data Facility. WaferLLM made the wafer-scale chips generate text about 100 times faster than before.

Compared with a cluster of 16 GPUs, this amounted to a tenfold reduction in latency, as well as being twice as energy efficient. So whereas some argue that the next leap in AI performance may come from chips designed specifically for LLMs, our results suggest you can instead design software that matches the structure of existing hardware.

In the near term, faster inference at lower cost raises the prospect of more responsive AI tools capable of evaluating many more hypotheses per second. This would improve everything from reasoning assistants to scientific-analysis engines. Even more data-heavy applications like fraud detection and testing ideas through simulations would be able to handle dramatically larger workloads without the need for massive GPU clusters.

The future

GPUs remain flexible, widely available and supported by a mature software ecosystem, so wafer-scale chips will not replace them. Instead, they are likely to serve workloads that depend on ultra-low latency, extremely large models or high energy efficiency, such as drug discovery and financial trading.

Meanwhile, GPUs aren’t standing still: better software and continuous improvements in chip design are helping them run more efficiently and deliver more speed. Over time, assuming there’s a need for even greater efficiency, some GPU architectures may also adopt wafer-scale ideas.

Medicine capsules being made
More powerful AI could unlock new types of drug discovery.
Simplystocker

The broader lesson is that AI infrastructure is becoming a co-design problem: hardware and software must evolve together. As models grow, simply scaling out with more GPUs will no longer be enough. Systems like WaferLLM show that rethinking the software stack is essential for unlocking the next generation of AI performance.

For the public, the benefits will not appear as new chips on shelves but as AI systems that will support applications that were previously too slow or too expensive to run. Whether in scientific discovery, public-sector services or high-volume analytics, the shift toward wafer-scale computing signals a new phase in how AI systems are built – and what they can achieve.

The Conversation

The authors do not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. These dinner-plate sized computer chips are set to supercharge the next leap forward in AI – https://theconversation.com/these-dinner-plate-sized-computer-chips-are-set-to-supercharge-the-next-leap-forward-in-ai-270094

« Les Dents de la mer », ou comment deux notes de musique ont révolutionné le cinéma

Source: The Conversation – France (in French) – By Jared Bahir Browsh, Assistant Teaching Professor of Critical Sports Studies, University of Colorado Boulder

Pour beaucoup d’historiens du cinéma, le film _Les Dents de la mer_ (1975) fut le premier blockbuster. Steve Kagan/Getty Images

La séquence de deux notes légendaires, qui fait monter la tension dans « les Dents de la mer », géniale trouvaille du compositeur John Williams, trouve son origine dans la musique classique du début du XXᵉ siècle, mais aussi chez Mickey Mouse et chez Hitchcock.


Depuis les Dents de la mer, deux petites notes qui se suivent et se répètent – mi, fa, mi, fa – sont devenues synonymes de tension, et suscitent dans l’imaginaire collectif la terreur primitive d’être traqué par un prédateur, en l’occurrence un requin sanguinaire.

Il y a cinquante ans, le film à succès de Steven Spielberg – accompagné de sa bande originale composée par John Williams – a convaincu des générations de nageurs de réfléchir à deux fois avant de se jeter à l’eau.

En tant que spécialiste de l’histoire des médias et de la culture populaire, j’ai décidé d’approfondir la question de la longévité de cette séquence de deux notes et j’ai découvert qu’elle était l’héritage direct de la musique classique du XIXe siècle, mais qu’elle a aussi des liens avec Mickey Mouse et le cinéma d’Alfred Hitchcock.

Lorsque John Williams a proposé un thème à deux notes pour les Dents de la mer, Steven Spielberg a d’abord pensé qu’il s’agissait d’une blague.

Le premier blockbuster estival de l’histoire

En 1964, le pêcheur Frank Mundus tue un grand requin blanc de deux tonnes au large de Long Island au nord-est des États-Unis.

Après avoir entendu cette histoire, le journaliste indépendant Peter Benchley se met à écrire un roman qui raconte comment trois hommes tentent de capturer un requin mangeur d’hommes, en s’inspirant de Mundus pour créer le personnage de Quint. La maison d’édition Doubleday signe un contrat avec Benchley et, en 1973, les producteurs d’Universal Studios, Richard D. Zanuck et David Brown, achètent les droits cinématographiques du roman avant même sa publication. Spielberg, alors âgé de 26 ans, est engagé pour réaliser le film.

Exploitant les peurs à la fois fantasmées et réelles liées aux grands requins blancs – notamment une série tristement célèbre d’attaques de requins le long de la côte du New Jersey en 1916 –, le roman de Benchley publié en 1974, devient un best-seller. Le livre a joué un rôle clé dans la campagne marketing d’Universal, qui a débuté plusieurs mois avant la sortie du film.

À partir de l’automne 1974, Zanuck, Brown et Benchley participent à plusieurs émissions de radio et de télévision afin de promouvoir simultanément la sortie de l’édition de poche du roman et celle à venir du film. La campagne marketing comprend également une campagne publicitaire nationale à la télévision qui met en avant le thème à deux notes du compositeur émergent John Williams. Le film devait sortir en été, une période qui, à l’époque, était réservée aux films dont les critiques n’étaient pas très élogieuses.

Les publicités télévisées faisant la promotion du film mettaient en avant le thème à deux notes de John Williams.

À l’époque, les films étaient généralement distribués petit à petit, après avoir fait l’objet de critiques locales. Cependant, la décision d’Universal de sortir le film dans des centaines de salles à travers le pays, le 20 juin 1975, a généré d’énormes profits, déclenchant une série de quatorze semaines en tête du box-office américain.

Beaucoup considèrent les Dents de la mer comme le premier véritable blockbuster estival. Le film a propulsé Spielberg vers la célébrité et marqué le début d’une longue collaboration entre le réalisateur et Williams, qui allait remporter le deuxième plus grand nombre de nominations aux Oscars de l’histoire, avec 54 nominations, derrière Walt Disney et ses 59 nominations.

Le cœur battant du film

Bien qu’elle soit aujourd’hui considérée comme l’une des plus grandes musiques de l’histoire du cinéma, lorsque Williams a proposé son thème à deux notes, Spielberg a d’abord pensé qu’il s’agissait d’une blague.

Mais Williams s’était inspiré de compositeurs des XIXe et XXe siècles, notamment Claude Debussy (1862-1918), Igor Stravinsky (1882-1971) et surtout de la Symphonie n° 9 (1893), d’Antonin Dvorak (1841-1904), dite Symphonie du Nouveau Monde. Dans le thème des Dents de la mer, on peut entendre des échos de la fin de la symphonie de Dvorak, et reconnaître l’emprunt à une autre œuvre musicale, Pierre et le Loup (1936), de Sergueï Prokofiev.

Pierre et le Loup et la bande originale des Dents de la mer sont deux excellents exemples de leitmotivs, c’est-à-dire de morceaux de musique qui représentent un lieu ou un personnage.

Le rythme variable de l’ostinato – un motif musical qui se répète – suscite des émotions et une peur de plus en plus intenses. Ce thème est devenu fondamental lorsque Spielberg et son équipe technique ont dû faire face à des problèmes techniques avec les requins pneumatiques. En raison de ces problèmes, le requin n’apparaît qu’à la 81ᵉ minute du film qui en compte 124. Mais sa présence se fait sentir à travers le thème musical de Williams qui, selon certains experts musicaux, évoque les battements du cœur du requin.

Un faux requin émergeant et attaquant un acteur sur le pont d’un bateau de pêche
Pendant le tournage, des problèmes avec le requin mécanique ont contraint Steven Spielberg à s’appuyer davantage sur la musique du film.
Screen Archives/Moviepix/Getty Images

Des sons pour manipuler les émotions

Williams doit également remercier Disney d’avoir révolutionné la musique axée sur les personnages dans les films. Les deux hommes ne partagent pas seulement une vitrine remplie de trophées. Ils ont également compris comment la musique peut intensifier les émotions et amplifier l’action.

Bien que sa carrière ait débuté à l’époque du cinéma muet, Disney est devenu un titan du cinéma, puis des médias, en tirant parti du son pour créer l’une des plus grandes stars de l’histoire des médias, Mickey Mouse.

Lorsque Disney vit le Chanteur de jazz en 1927, il comprit que le son serait l’avenir du cinéma.

Le 18 novembre 1928, Steamboat Willie fut présenté en avant-première au Colony Theater d’Universal à New York. Il s’agissait du premier film d’animation de Disney à intégrer un son synchronisé avec les images.

Contrairement aux précédentes tentatives d’introduction du son dans les films en utilisant des tourne-disques ou en faisant jouer des musiciens en direct dans la salle, Disney a utilisé une technologie qui permettait d’enregistrer le son directement sur la bobine de film. Ce n’était pas le premier film d’animation avec son synchronisé, mais il s’agissait d’une amélioration technique par rapport aux tentatives précédentes, et Steamboat Willie est devenu un succès international, lançant la carrière de Mickey et celle de Disney.

L’utilisation de la musique ou du son pour accompagner le rythme des personnages à l’écran fut baptisée « mickeymousing ».

En 1933, King Kong utilisait habilement le mickeymousing dans un film d’action réelle, avec une musique calquée sur les états d’âme du gorille géant. Par exemple, dans une scène, Kong emporte Ann Darrow, interprétée par l’actrice Fay Wray. Le compositeur Max Steiner utilise des tonalités plus légères pour traduire la curiosité de Kong lorsqu’il tient Ann, suivies de tonalités plus rapides et inquiétantes lorsque Ann s’échappe et que Kong la poursuit. Ce faisant, Steiner encourage les spectateurs à la fois à craindre et à s’identifier à la bête tout au long du film, les aidant ainsi à suspendre leur incrédulité et à entrer dans un monde fantastique.

Le mickeymousing a perdu de sa popularité après la Seconde Guerre mondiale. De nombreux cinéastes le considéraient comme enfantin et trop simpliste pour une industrie cinématographique en pleine évolution et en plein essor.

Les vertus du minimalisme

Malgré ces critiques, cette technique a tout de même été utilisée pour accompagner certaines scènes emblématiques, avec, par exemple, les violons frénétiques qui accompagne la scène de la douche dans Psychose (1960), d’Alfred Hitchcock, dans laquelle Marion Crane se fait poignarder.

Spielberg idolâtrait Hitchcock. Le jeune Spielberg a même été expulsé des studios Universal après s’y être faufilé pour assister au tournage du Rideau déchiré, en 1966.

Bien qu’Hitchcock et Spielberg ne se soient jamais rencontrés, les Dents de la mer sont sous l’influence d’Hitchcock, le « maître du suspense ». C’est peut-être pour cette raison que Spielberg a finalement surmonté ses doutes quant à l’utilisation d’un élément aussi simple pour représenter la tension dans un thriller.

Un jeune homme aux cheveux mi-longs parle au téléphone devant l’image d’un requin à la gueule ouverte
Steven Spielberg n’avait que 26 ans lorsqu’il a signé pour réaliser les Dents de la mer.
Universal/Getty Images

L’utilisation du motif à deux notes a ainsi permis à Spielberg de surmonter les problèmes de production rencontrés lors de la réalisation du premier long métrage tourné en mer. Le dysfonctionnement du requin animatronique a contraint Spielberg à exploiter le thème minimaliste de Williams pour suggérer la présence inquiétante du requin, malgré les apparitions limitées de la star prédatrice.

Au cours de sa carrière légendaire, Williams a utilisé un motif sonore similaire pour certains personnages de Star Wars. Chaque fois que Dark Vador apparaissait, la « Marche impériale » était jouée pour mieux souligner la présence du chef du côté obscur.

Alors que les budgets des films avoisinent désormais un demi-milliard de dollars (plus de 434 millions d’euros), le thème des Dents de la mer – comme la façon dont ces deux  notes suscitent la tension – nous rappelle que dans le cinéma, parfois, le minimalisme peut faire des merveilles.

The Conversation

Jared Bahir Browsh ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. « Les Dents de la mer », ou comment deux notes de musique ont révolutionné le cinéma – https://theconversation.com/les-dents-de-la-mer-ou-comment-deux-notes-de-musique-ont-revolutionne-le-cinema-268947

Les textes des COP parlent-ils vraiment de climat ? Le regard de l’écolinguistique

Source: The Conversation – France in French (2) – By Albin Wagener, Professeur en analyse de discours et communication à l’ESSLIL, chercheur au laboratoire ETHICS, Institut catholique de Lille (ICL)

Derrière les grandes déclarations de la diplomatie climatique, que disent vraiment les textes des COP ? Une étude de leurs discours, passés au crible du « text mining », montre comment les mots des COP sont davantage centrés sur les mécaniques institutionnelles que sur l’urgence environnementale. Le langage diplomatique sur le climat fabrique ainsi un récit institutionnel dont la nature est presque absente.


Alors que la COP30 se tient au Brésil en ce mois de novembre 2025, des voix s’élèvent : ces montagnes onusiennes accoucheraient-elles de souris ? En effet, ces grand-messes du climat aboutissent le plus souvent à des textes consensuels. Certes, ils reconnaissent – sur le papier – la réalité des enjeux climatiques, mais ils ne sont que rarement suivis d’effets. On se souvient, par exemple, du texte de la COP26, à Glasgow (2021), qui évoquait enfin clairement la question de la sortie des énergies fossiles. Mais la mise en œuvre de cette promesse, non réitérée lors de la COP29, à Bakou (2024), reste encore à concrétiser.

Leur processus de décision même est de plus en plus critiqué. Il ne fait intervenir que les délégations nationales à huis clos, tout en donnant un poids important aux lobbies. On y retrouve bien sûr des ONG, mais aussi des grandes entreprises, comme Coca-Cola lors de la COP27, à Charm el-Cheikh (2022). L’occasion pour les États producteurs d’énergie fossile de se livrer à des opérations remarquables d’écoblanchiment – comme les Émirats arabes unis furent accusés de le faire lors de la COP28 à Dubaï. Dans le même temps, les populations autochtones et les mouvements des jeunes pour le climat peinent à se faire entendre à l’occasion de ces événements.

Afin de mieux comprendre l’évolution sémantique dans les déclarations des COP et de voir dans quelle mesure celles-ci reflètent l’urgence climatique, j’ai mené une analyse de discours à partir des déclarations officielles (en anglais) des COP entre 2015 – soit juste après la signature de l’accord de Paris – et 2022. Cela permet de mieux saisir les représentations sociales des instances internationales à propos du changement climatique, dans la mesure où ces discours prennent sens au cours de leur circulation dans la société.

Écolinguistique et text mining, mode d’emploi

Cette étude s’inscrit dans l’approche écolinguistique héritée des travaux d’Arran Stibbe ; une approche qui permet notamment d’explorer la manière dont les institutions cadrent les discours sur l’environnement, tout en aidant à comprendre comment les intérêts divergents d’acteurs différents aboutissent à des positions médianes. Pour le climat comme pour les autres grands sujets politiques internationaux, la façon dont les acteurs en parlent est capitale pour aboutir à des consensus, des prises de décision et des textes engageant les États.

J’ai mené cette analyse grâce à l’outil Iramuteq, développé par Pascal Marchand et Pierre Ratinaud. Il permet une approche statistique du nombre de mots présents dans un corpus textuel, des mots avec lesquels ils apparaissent le plus souvent, mais également de les croiser avec les définitions et leur sens en contexte.

Les sept catégories de récit que l’on retrouve le plus souvent dans les textes des COP climat entre 2015 et 2022.
Fourni par l’auteur

Par ordre de poids statistique, on retrouve ainsi les thèmes suivants :

  • Fonds de soutien international (26,2 %, en vert fluo, classe 3), qui recoupe les discussions sur l’aide aux pays en voie de développement et la proposition d’un fonds afin de faire face au changement climatique.

  • Textes des COP (14,2 %, en bleu, classe 5). Cette catégorie intègre les passages qui évoquent le fonctionnement des COP elles-mêmes et des leurs organes administratifs, dont les objectifs sont actés grâce aux textes.

  • Préparation des COP (13,7 %, en rouge, classe 1). Il s’agit de tout le jargon lié aux coulisses des COP et aux travaux d’organisation qui permettent aux COP d’aboutir et à leurs décisions d’être appliquées de manière concrète.

  • Organisation des COP (13,6 %, en gris, classe 2). Il s’agit du détail concernant les événements des COP elles-mêmes, c’est-à-dire leur organisation et leur calendrier, avec le fonctionnement par réunions et documents à produire.

  • Conséquences négatives du changement climatique (11,6 % seulement, en violet, classe 6). Il s’agit des passages où l’accent est mis sur les dommages, les risques et les vulnérabilités, c’est-à-dire les conséquences négatives du réchauffement climatique.

  • Écologie (11,3 %, rose, classe 7). Cette classe traite des éléments d’ordre écologique liés au changement climatique, ainsi que des causes du réchauffement planétaire.

  • Gouvernance de la COP (9,2 %, vert pâle, classe 4). Dans cette dernière classe, on retrouve les éléments d’ordre stratégique liés aux COP, à savoir la gouvernance, les parties prenantes, les groupes de travail et les plans à suivre.




À lire aussi :
Les mots de la COP : dictionnaire portatif des négociations climatiques


Que retenir de ce découpage ? Les questions strictement climatiques et écologiques ne totalisent que 22,9 % des occurrences dans les textes, ce qui paraît assez faible alors qu’il s’agit des raisons pour lesquelles ces COP existent. Dans une grande majorité des thématiques abordées par le corpus, les COP parlent d’abord d’elles-mêmes.

C’est peu surprenant pour une institution internationale de ce calibre, mais cela pose de sérieuses questions concernant la prise en compte des dimensions extra-institutionnelles du problème.

L’écologie déconnectée des autres mots clés

J’ai ensuite poussé le traitement des données un peu plus loin grâce à une méthode statistique appelée « analyse factorielle de correspondance ». Celle-ci permet de comprendre comment les différentes thématiques sont articulées entre elles dans les discours au sein du corpus.

Les récits en lien avec les thèmes qu’on retrouve au centre droit du graphe, liés aux textes des COP (bleu), à leur préparation (rouge), à leur organisation (gris) et à leur gouvernance (vert pâle) forment ainsi un ensemble homogène.

On note toutefois, dans la partie en bas à gauche, que la gouvernance des COP (vert pâle) a un positionnement hybride et semble jouer le rôle d’interface avec la thématique des conséquences négatives du réchauffement climatique (violet) et celle des fonds de soutien internationaux (vert fluo).

En d’autres termes, ces observations confirment que les COP se donnent bien pour objectif de remédier aux conséquences du changement climatique. Et cela, à travers la gouvernance mise en place par les COP, et avec la proposition d’aides aux pays les plus vulnérables comme moyen.

Quant au thème de l’écologie (en rose), il se retrouve en haut à gauche du graphe. Surtout, il semble comme déconnecté du reste des thématiques. Ceci montre que, dans ces textes, il existe peu de liens entre les propos qui traitent de l’écologie et ceux qui évoquent le fonctionnement des COP ou la mise en œuvre concrète de solutions.




À lire aussi :
Les classes populaires en ont-elles vraiment marre de l’écologie ?


L’absence de termes pourtant centraux

Plus intéressant encore, les textes analysés brillent par l’absence relative de certains termes clés.

Ainsi, le terme animal (en anglais) n’est jamais utilisé. Certains termes n’apparaissent qu’une fois dans tous les textes étudiés, comme life, river ou ecological. D’autres apparaissent, mais très peu, comme natural (trois occurrences), earth (quatre occurrences). Des termes comme water, biodiversity ou ocean, aux enjeux colossaux, ne totalisent que six occurrences.

Ainsi, alors que les COP ont pour objectif de s’intéresser aux conséquences du réchauffement climatique sur les sociétés humaines et le vivant en général, il est marquant de constater que la plupart des champs thématiques du corpus parlent non pas des problèmes liés au changement climatiques, mais surtout des COP elles-mêmes, plus précisément de leur fonctionnement.

En d’autres termes, les COP se parlent à elles-mêmes, dans une logique de vase clos qui vise d’abord à s’assurer que les dispositions prises pour respecter l’accord de Paris sont bien respectées.




À lire aussi :
À quoi servent les COP ? Une brève histoire de la négociation climatique


Cet état de fait contraste avec les conséquences concrètes du réchauffement climatique. Il illustre la vivacité de représentations d’ordre gestionnaire et institutionnel, qui s’autoalimentent en voyant d’abord l’environnement, la biodiversité et le vivant comme des ressources à préserver ou des objectifs à accomplir. En restant focalisées sur l’accord de Paris, les déclarations officielles voient ainsi le vivant et la biodiversité comme autant d’outils, d’objets ou de cases à cocher pour rendre compte d’engagements pris au niveau international.

C’est compréhensible étant donnée la nature des textes des COP et du contexte socio-institutionnel qui encadrent leur production. Il n’en reste pas moins que cela trahit bon nombre de représentations qui continuent de percoler nos imaginaires. Dans cette logique, les éléments d’ordre naturel, environnemental ou écologique constituent soit des ressources à utiliser ou préserver, soit des éléments à gérer, soit des objectifs à remplir. Or, cette représentation est loin d’être neutre, comme l’explique George Lakoff.

Ici, le changement climatique est donc traité comme un ensemble de problèmes auxquels il s’agit d’apporter de simples solutions techniques ou des mécanismes de compensation, sans que les conditions qui alimentent ce même dérèglement climatique (notamment liées au système économique et aux modes de production et de consommation) ne soient abordées à aucun moment dans les textes.

C’est cette même logique qui semble condamner les instances internationales à tenter de gérer les conséquences du réchauffement climatique, tout en évitant soigneusement d’en traiter les causes.

The Conversation

Albin Wagener ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les textes des COP parlent-ils vraiment de climat ? Le regard de l’écolinguistique – https://theconversation.com/les-textes-des-cop-parlent-ils-vraiment-de-climat-le-regard-de-lecolinguistique-269674

On peut réactiver un souvenir ou le faire disparaître de façon réversible – chez la souris

Source: The Conversation – France in French (2) – By Jean-Christophe Cassel, Professeur de neurosciences à l’Université de Strasbourg, Université de Strasbourg

Comprendre les mécanismes qui régissent notre mémoire à l’échelle des neurones est un enjeu de taille. Nikolett Emmert/Unsplash, CC BY

Après avoir démontré que les souvenirs s’inscrivent de façon matérielle dans notre cerveau, les scientifiques s’attèlent à la tâche de réactiver des souvenirs attaqués par des maladies neurodégénératives chez des souris.


Chacun sait ce qu’est un souvenir : un événement, une odeur, une sensation de notre passé que nous pouvons rappeler. Mais à quoi ressemble-t-il dans notre cerveau ?

Il est porté par des groupes de neurones interconnectés. À cette échelle, le support du souvenir est appelé « engramme ». Ce mot désigne le substrat matériel constitué par un réseau spécifique de neurones, dont les interconnexions se sont renforcées durablement lors de la mémorisation. Ainsi, quand on se souvient, une partie de ce réseau est réactivée. Les recherches récentes montrent comment se fait cette réactivation et comment on peut la contrôler de façon réversible chez la souris.

Mieux comprendre les mécanismes cellulaires qui sous-tendent nos souvenirs est un enjeu de taille, car nombre de maladies neurodégénératives et de traumatismes altèrent notre mémoire, non seulement en perturbant l’accès aux images de notre passé, mais aussi en s’attaquant directement au matériel biologique dans lequel ces images sont fixées.

Comment les souvenirs s’inscrivent dans le cerveau

L’idée que nos souvenirs ne sont pas quelque chose d’immatériel mais ont un support physique est ancienne. Déjà Platon imaginait que l’âme recèle des tablettes de cire dans lesquelles se grave ce que nous voulons retenir.

Mais il a fallu bien longtemps pour affiner cette intuition, puis pour la démontrer expérimentalement. À la fin du XIXe siècle, l’Espagnol Santiago Ramon y Cajal pense que les connexions entre certains neurones sont renforcées lors d’activations répétées accompagnant l’apprentissage – ainsi se formerait le souvenir.

Dans les années 1960, ces spéculations commencent à trouver une assise expérimentale. C’est d’abord chez un mollusque marin, l’aplysie, qu’on les démontre. Lorsqu’on stimule mécaniquement une partie de son dos, il rétracte ses branchies pour les protéger. Mais si cette stimulation est répétée quelques fois, le réflexe s’atténue durablement. Cette adaptation repose sur une réduction prolongée de l’excitabilité synaptique et du nombre de synapses dans le circuit moteur qui pilote la rétraction.

À l’inverse, une sensibilisation de ce réflexe, déclenchée par une stimulation nociceptive (douleur déclenchée par une agression de l’organisme, ndlr) appliquée sur la queue de l’animal, provoque une augmentation persistante de l’excitabilité synaptique et fait apparaître des connexions additionnelles. En 1973, un mécanisme du même type est décrit dans l’hippocampe du lapin – il est nommé « potentialisation à long terme ».

Pour désigner l’encodage permanent dans le substrat cérébral des éléments d’une expérience vécue, rappelons la formule laconique de Carla Shatz :

« Neurons that fire together, wire together » (Les neurones qui se coactivent s’interconnectent.) Carla Shatz, 1992, « Scientific American »

Observer directement les souvenirs en « allumant » les neurones interconnectés

Si les neurones coactivés au cours de l’encodage se réactivent pour permettre le rappel d’un souvenir (Figure 1), on doit pouvoir prouver que leur réactivation accompagne le rappel du souvenir et montrer que leur destruction l’empêche.

Pour ce qui est de la réactivation lors du rappel, le groupe de Mark Mayford a appris à des souris à reconnaître un signal sonore annonçant un choc électrique désagréable. Lorsque plus tard, les souris réentendent ce son, leur immobilité traduit la peur, donc une réactivation du souvenir de ce qu’annonce le son.

Pour imager les neurones qui portent la réactivation du souvenir, voici la procédure : avant l’apprentissage, on infecte des cellules de l’amygdale
– une structure cruciale pour les émotions, dont la peur – avec un virus qui permettra de rendre fluorescents les neurones activés pendant l’apprentissage. Ultérieurement, une fois que ces souris ont réentendu le son, elles sont mises à mort et, à l’aide d’un second marquage, on visualise les neurones qui se sont activés pendant ce rappel. Du coup, les neurones doublement marqués auront été activés pendant l’apprentissage et réactivés pendant le rappel. Or, Mayford et ses collègues constatent qu’il y a bien eu augmentation du double marquage chez les souris ayant eu peur pendant le rappel (comparativement aux différentes conditions de contrôle).

Pour ce qui est de la destruction des neurones qui aboutissent à l’anéantissement du souvenir, on utilisera également une stratégie reposant sur une infection virale des neurones de l’amygdale, mais cette fois, les neurones activés pendant l’apprentissage seront tués avant le rappel à l’aide d’une toxine. De cette manière, le groupe de Paul Frankland a pu montrer qu’une destruction de ces neurones faisait disparaître toute réaction de peur chez les souris car, du fait de la mort des neurones « souvenir », elles ont oublié la signification du signal sonore.

Comment réactiver un souvenir ou le faire disparaître de façon réversible ?

Aujourd’hui, les chercheurs ont peaufiné cette démonstration en parvenant à manipuler ponctuellement et réversiblement l’engramme (le réseau de neurones souvenirs) pour induire l’expression ou la disparition d’un souvenir.

C’est là qu’intervient une technique relativement récente : l’optogénétique. Elle permet de contrôler (soit activer, soit inhiber) avec une grande précision l’activité de certains neurones en les exposant à de la lumière par l’intermédiaire d’une fibre optique plongée dans une région d’intérêt du cerveau. Il suffit pour cela de rendre ces neurones sensibles à une longueur d’onde lumineuse par introduction de gènes codant pour des protéines photosensibles. De plus, il est possible de faire dépendre l’expression de ces gènes de l’activation même des neurones.

C’est ainsi que le groupe de Susumu Tonegawa a pu montrer, chez la souris, qu’après l’apprentissage d’un danger lié à un contexte donné, l’activation par la lumière des neurones ayant participé à l’apprentissage induisait un comportement de peur, donc un rappel… et cela dans un contexte sans danger bien connu de la souris, et sans rapport avec celui de l’apprentissage ! Par ailleurs, lorsque ces neurones étaient inhibés par la lumière dans le contexte dangereux, la souris ne manifestait plus aucune peur.

Implanter un faux souvenir

Il y a même mieux, puisque le groupe de Tonegawa a aussi réussi à implanter un faux souvenir dans la mémoire des souris.

Les souris ont d’abord encodé un premier contexte parfaitement neutre. Les neurones ayant été activés pendant l’encodage de ce contexte ont exprimé une protéine photoactivable avec de la lumière bleue. Les chercheurs ont ensuite exposé ces souris à un autre contexte, celui-là désagréable, tout en activant conjointement la trace du premier avec de la lumière bleue.

Lorsque les souris étaient ultérieurement réexposées au premier contexte (pourtant neutre, à la base), elles se sont mises à le craindre.

Enfin, dans un modèle murin de maladie d’Alzheimer, le groupe de Tonegawa est même allé jusqu’à ressusciter un souvenir le temps d’une photoactivation d’un engramme d’abord rendu photoactivable mais ultérieurement oublié, alors même que celui-ci était invalidé du fait de l’évolution d’un processus neurodégénératif.

Pour l’heure, ces résultats, bien que spectaculaires, et avec lesquels s’alignent les données produites par d’autres groupes de recherche, se limitent à des mémoires simples qui pilotent des comportements simples dans des modèles animaux raisonnablement complexes.

Reste à savoir si les travaux menés sur ces modèles sont généralisables sans nuances à l’humain, et par quel mécanisme un motif d’activation neuronale peut générer des images et des impressions passées dans une phénoménologie consciente actuelle.


Cet article est publié dans le cadre de la Fête de la science (qui a eu lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.

The Conversation

Jean-Christophe Cassel a reçu des financements de l’ANR. ANR-14-CE13-0029-01
ANR-23-CE37-0012-02

ref. On peut réactiver un souvenir ou le faire disparaître de façon réversible – chez la souris – https://theconversation.com/on-peut-reactiver-un-souvenir-ou-le-faire-disparaitre-de-facon-reversible-chez-la-souris-267656

Nutri-Score : pourquoi exempter les aliments AOP et IGP n’aurait aucun sens

Source: The Conversation – in French – By Serge Hercberg, Professeur Emérite de Nutrition Université Sorbonne Paris Nord (Paris 13) – Praticien Hospitalier Département de Santé Publique, Hôpital Avicenne (AP-HP), Equipe de Recherche en Epidémiologie Nutritionnelle, U1153 Inserm,Inra,Cnam, Université Sorbonne Paris Nord

Les discussions parlementaires concernant l’obligation d’afficher Nutri-Score, le logo qui associe cinq lettres à cinq couleurs pour informer les consommateurs sur la qualité nutritionnelle des aliments, se poursuivent à l’Assemblée nationale et au Sénat. Mais s’il était adopté, l’un des sous-amendements débattus pourrait créer une brèche dans le dispositif, en excluant les produits bénéficiant d’une appellation d’origine protégée (AOP) ou une indication d’origine protégée (IGP). Une décision dépourvue de tout fondement scientifique.


Le 7 novembre 2026, dans le cadre de la discussion sur le projet de loi de financement de la Sécurité sociale (PLFSS) à l’Assemblée nationale, les députés ont adopté deux amendements rendant obligatoire l’affichage du Nutri-Score sur les emballages de tous les aliments. Les entreprises qui souhaiteraient déroger à cette mesure se verraient dans l’obligation de s’acquitter d’une taxe de 5 % de leur chiffre d’affaires.

Si les parlementaires résistent aux pressions des lobbies qui s’y opposent et maintiennent cette disposition jusqu’à l’issue du processus législatif, il s’agira d’une très bonne nouvelle pour les consommateurs, et d’une victoire en matière de santé publique.

Toutefois, une nuance de taille tempère l’enthousiasme que pourrait susciter un tel texte de loi : quelques députés ont en effet réussi, par un sous-amendement, à faire exclure de l’obligation d’afficher le Nutri-Score les produits ayant une appellation d’origine protégée (AOP) ou une indication d’origine protégée (IGP).

Pourtant de telles exemptions n’ont pas de sens ni en termes scientifiques, ni en matière de santé publique, ni même pour la défense des produits AOP/IGP.

AOP et IGP ne donnent aucune indication nutritionnelle

Rappelons que le fait qu’un aliment soit « traditionnel », « gastronomique » ou « fabriqué selon une méthode ancestrale » ne donne aucune information sur sa valeur nutritionnelle, et ne signifie pas qu’il peut-être consommé sans restriction.

Les appellations et indications d’origines protégées informent uniquement sur le rattachement à un terroir, à un mode de production vertueux et un savoir-faire reconnu avec un cahier des charges précis. Si intéressants que soient ces éléments, ils n’ont rien à voir avec le sujet sur lequel renseigne le Nutri-Score, qui est, rappelons-le, la qualité nutritionnelle des aliments.

Les arguments en faveur de l’exemption des aliments AOP et IGP, mis en avant de longue date par certains lobbies agroalimentaires, s’appuient sur des arguments que l’on pourrait qualifier de « gastro-populistes ». Il s’agit de promouvoir certaines caractéristiques ou qualités des aliments, comme le terroir ou la tradition, pour occulter leur composition nutritionnelle ou leurs effets sur la santé. Avec, en arrière-plan, la volonté de défendre des intérêts économiques.

Dans un tel contexte, un « aliment avec un signe d’identification de la qualité et de l’origine » n’est pas forcément un « aliment favorable à la santé ». En effet, dans le cahier des charges pour attribuer une AOP ou une IGP, ne figure aucune référence à la composition et la qualité nutritionnelle des produits. Les critères d’attribution portent sur d’autres éléments que les aspects nutritionnels.

À l’inverse, la notion de profil nutritionnel n’implique que cette dimension spécifique : il ne s’agit pas de qualifier les caractéristiques des aliments en termes d’autres qualités, notamment liées à l’origine des produits. Mais la qualité nutritionnelle est assurément la dimension principale à prendre en compte si l’on veut préserver sa santé.

Les aliments AOP et IGP sont, sur le plan nutritionnel, des aliments comme les autres

On l’a vu, ce n’est pas parce qu’un produit est traditionnel, qu’il fait partie du patrimoine culinaire et qu’il est lié aux terroirs (ce sont des éléments tout à fait respectables) que cela lui confère une qualité nutritionnelle favorable. Même avec une appellation d’origine (AOP/IGP), si un produit traditionnel est gras, sucré ou salé, il reste un produit gras, sucré ou salé !

C’est le cas de la majorité des fromages et des charcuteries, du fait de leur teneur en graisses saturées et en sel ainsi que de leur densité calorique, qui, même s’ils ont une AOP ou une IGP, se retrouvent légitimement classés D ou E (et C pour les moins salés et les moins gras, comme les fromages emmental ou mozzarella, ou encore certains jambons).

Il faut souligner que fromages et charcuteries sont les principales catégories de produits traditionnels qui ont un Nutri-Score défavorable. Une étude de l’UFC Que Choisir a montré qu’en réalité, 62 % des aliments « traditionnels » sont classés A, B ou C.

Aucune interdiction à consommer ces aliments, mais avec modération

Comme il est fait état dans la communication qui accompagne le Nutri-Score, le fait d’être classé D ou E n’indique pas que le produit ne doit pas être consommé, mais qu’il peut l’être dans le cadre d’une alimentation équilibrée en petites quantités et/ou pas trop fréquemment, en évitant des consommations excessives.

Selon les recommandations du Programme national nutrition santé (PNNS), il faut limiter la consommation de charcuterie à 150 grammes par semaine et le nombre de produits laitiers à 2 par jour (ce qui comprend le lait, les yaourts et les fromages). En outre, la recommandation générale sur le fait de ne pas manger trop gras et trop salé amène à limiter la consommation de fromages et charcuteries (qui sont riches en graisses saturées et en sel !).

En réalité, il n’y a donc rien de révolutionnaire dans le fait d’afficher un Nutri-Score mettant en évidence la réalité de la composition nutritionnelle, non optimale sur le plan santé, de ces produits.

Le classement des fromages et des charcuteries par le Nutri-Score (qu’ils bénéficient d’une AOP/IGP ou non) est en totale cohérence avec les recommandations nutritionnelles générales du PNNS et celles en vigueur au niveau international, qui soulignent toutes la nécessité de limiter leur consommation.

Pourrait-on imaginer que ces recommandations de santé publique, en matière de consommation de fromages et de charcuteries, s’appliquent à tous les produits de ce type, mais que ceux bénéficiant d’une AOP ou d’une IGP en soient exclus ? Une telle décision viderait de leur sens lesdites recommandations. C’est pourtant le même raisonnement qui sous-tend le sous-amendement sur le Nutri-Score proposé dans le cadre de la discussion sur le PLFSS.

Les intérêts économiques avant la santé publique ?

Il semblerait en réalité que, derrière cette pseudo-défense des fromages avec une AOP ou une IGP, se cache la défense d’intérêts économiques considérables.

Rappelons que la multinationale française Lactalis, qui commercialise la marque Société, est la n°1 mondiale des produits laitiers (30,3 milliards d’euros de chiffre d’affaires en 2024). Elle se partage la grande majorité des AOP fromagères avec Savencia Saveurs & Spécialités (5ᵉ groupe fromager mondial, 7,1 milliards d’euros de chiffre d’affaires en 2024), qui commercialise la marque Papillon, ainsi qu’avec le groupe coopératif laitier Sodiaal (Société de diffusion internationale agroalimentaire, 5,5 milliards de chiffre d’affaires en 2022).

S’il y a moins de grands industriels derrière les charcuteries affichant une IGP, on retrouve, comme pour les fromages, des élus des régions productrices qui montent au créneau pour défendre ces produits, avec des arguments identiques de déni de leurs compositions nutritionnelles (jusqu’à la ministre de l’agriculture elle-même, élue du Doubs, zone de production de charcuteries et de fromages avec une AOP ou une IGP).

Consommer moins mais mieux, grâce au double affichage

Pour finir, soulignons qu’il ne s’agit pas d’opposer deux systèmes d’affichage caractérisant des dimensions différentes des aliments, ce qui aurait d’autant moins de sens que, comme nous l’avons rappelé, leur vocation n’est pas la même.

Il est important d’afficher les labels AOP/IGP, afin de valoriser les aliments qui, dans leur catégorie, ont un mode de production vertueux et sont rattachés aux terroirs, par rapport aux produits équivalents qui n’en ont pas.

Mais cela ne dispense pas de renseigner de façon claire les consommateurs sur leur composition nutritionnelle. Or, pour cela, le Nutri-Score a démontré, études à l’appui, son intelligibilité.

Il serait donc plutôt utile de rappeler que l’affichage du label AOP/IGP aux côtés du Nutri-Score est parfaitement en ligne avec le concept « consommer moins, mais mieux ». Les consommateurs qui consommeront en connaissance de cause ces produits, en respectant les recommandations nutritionnelles qui visent à limiter leur consommation, auront ainsi leurs possessions tous les éléments qui leur permettront de s’orienter vers des produits qualitatifs, locaux, artisanaux. À l’inverse, les produits avec une AOP ou une IGP qui n’affichent pas le Nutri-Score pourraient bien se voir perdre leur confiance.

The Conversation

Chantal Julia a reçu des financements de publics (Santé publique France, Ministère de la Santé, Joint Action prevent NCDs, IRESP…).

Mathilde Touvier a reçu des financements d’organismes publics ou associatifs à but non lucratif (ERC, INCa, ANR…).

Aline Meirhaeghe, Pilar Galan et Serge Hercberg ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. Nutri-Score : pourquoi exempter les aliments AOP et IGP n’aurait aucun sens – https://theconversation.com/nutri-score-pourquoi-exempter-les-aliments-aop-et-igp-naurait-aucun-sens-270202

South Africans are flourishing more than you might expect – here’s why

Source: The Conversation – Africa – By Richard G. Cowden, Research Scientist, Harvard University

A celebration at the Twelve Apostles Church in Christ International. Faith helps South Africans flourish, according to a global survey. GCIS/Flickr, CC BY-ND

South Africa is often portrayed in the media as a country struggling with inequality, corruption, crime, infrastructure collapse and public health challenges. But this isn’t the whole story.

When South Africans are asked to describe their own lives, they often reveal signs that they are flourishing in vital ways. According to the Global Flourishing Study, many South Africans are in fact showing resolve by striving to move forward from the country’s difficult past and maintaining hope for a better future.

Human flourishing is sometimes used to describe an ideal state in which all aspects of a person’s life are good, including the environments and communities they’re part of. The global study was launched in 2021 to better understand human flourishing around the world.

Over 200,000 people in 22 countries from Argentina to Japan participated in the first wave of the Global Flourishing Study. They completed a survey about their background, upbringing, health, well-being, and other areas of life.

Recently, we analysed the data from 2,561 South Africans in the study to drill deeper. We explored how they are doing across nearly 70 health, well-being and related outcomes. The analysis offers the first comprehensive overview of flourishing in South Africa.

So, what does flourishing look like in South Africa right now?

Contrary to a gloomy view of the country, adult South Africans are flourishing in many ways that mirror the broader world. The country even has some notable strengths it could capitalise on. There are also lingering struggles that may be hindering flourishing in South Africa.

These findings show that some flourishing is still possible amid adversity. Insights from South Africa could offer clues about how to support the well-being of people living in places that are going through significant social and structural challenges.

What South Africa has in common with others

Part of our analysis compared South Africa’s average for each indicator of flourishing to the average across all other countries in the study.

For example, consider the question, “In general, how happy or unhappy do you usually feel?” (rated on a scale from 0-10, with 0 being extremely unhappy and 10 being extremely happy). The average response was 6.95 in South Africa and 7.00 across the other countries. This suggests average happiness in South Africa is about the same as in the other countries, taken together.

The findings were similar for more than 30 of the main outcomes, including sense of purpose, social belonging, depression, gratitude, and general health.




Read more:
What makes people flourish? A new survey of more than 200,000 people across 22 countries looks for global patterns and local differences


Despite deep-seated societal problems, many South Africans report experiences of well-being that are not very different from the rest of the world. This doesn’t mean that the country’s social and structural challenges should be minimised or overlooked. However, it does show that many people can still experience high levels of well-being in circumstances of material fragility and deprivation.

It raises questions for South African leaders, policymakers and citizens to reflect on. For example, what might the flourishing of South Africans look like if these social-structural constraints were loosened or lifted?

South Africa’s strengths

The findings also suggest that South Africans have several strengths. Compared with the combined averages of the other countries, South Africans reported lower pain and suffering, greater inner peace, hope and forgiveness of others, and greater religious or spiritual engagement. On many of these, South Africa was ranked among the top five countries.

This shines a light on the enormous potential for flourishing in South Africa. For instance, many South Africans say they have the capacity to reckon with wounds from the oppressive system of racial segregation that shaped society for decades (through forgiveness).

South Africans tend to stay grounded amid the challenges of daily life (through inner peace), which puts them in a position to transcend adversities. And they generally hold onto the possibility of a brighter future despite enduring social-structural vulnerabilities (through hope).




Read more:
Christianity is changing in South Africa as pentecostal and indigenous churches grow – what’s behind the trend


Perhaps the most inspiring of these findings is forgiveness. This is a strength that appears to have been cultivated through South Africa’s protracted reckoning with the legacy of apartheid. It may reflect a general societal commitment to pursuing peace and healing over discord and bitterness.

Faith may be a foundational source for the strengths seen in South Africa. For many South Africans, religion or spirituality is something they lean on to navigate the struggles they face in one of the most unequal societies in the world.

The challenges

Like many countries in the Global Flourishing Study, South Africa has clear opportunities to strengthen and expand the conditions that support human flourishing.

South Africans also tended to report lower well-being on several outcomes. These included satisfaction with life, meaning in life, place satisfaction, social trust, experiences of discrimination, charitable giving, and several socioeconomic factors such as employment and financial well-being.




Read more:
Which African countries are flourishing? Scientists have a new way of measuring well-being


These point to actionable areas that government, civil society, and private sector leaders can prioritise to improve flourishing in the country. Special attention should be directed toward supporting vulnerable groups that the analysis showed are struggling in many aspects of flourishing, including women, divorced people, and those with lower levels of education.

What this all means

The concept of flourishing invites South Africa to envision the highest ideals for its people and the kind of society those ideals might sustain. This does not mean that everyone will agree on what those ideals are, or how best to achieve them.

But the language of flourishing offers a way to unite different sectors and stakeholders around a shared goal: harnessing South Africa’s strengths while addressing challenges that hold back deeper forms of human flourishing in the country.

The Conversation

Richard G. Cowden does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. South Africans are flourishing more than you might expect – here’s why – https://theconversation.com/south-africans-are-flourishing-more-than-you-might-expect-heres-why-268695

Ciara’s Beninese citizenship: marketing ploys can’t heal the past

Source: The Conversation – Africa – By Kwasi Konadu, Professor in Africana & Latin American Studies, Colgate University

African American singer Ciara received citizenship from the Republic of Benin in 2025 as a descendant of enslaved Africans. The images of her ceremony at Ouidah’s slave route memorial site, “Door of No Return”, were broadcast worldwide. Surrounded by drummers and dignitaries, she held a new Beninese passport aloft, a gesture hailed as both homecoming and healing.

As a historian of Africa, the African diaspora and Ghana, I see Ciara’s citizenship as part of a broader, complex story about how African states are reengaging with their diasporas. These are the global communities of people whose ancestors were displaced through slavery, migration and colonialism.

Several African countries have offered national identity to these descendants.

For many in the global African diaspora, Ciara’s ceremony felt like justice finally taking physical form. It was a symbolic reversal of forced displacement, affirming that descendants of the enslaved can now return as citizens rather than commodities. But behind the symbolism lies a deeper set of questions about power, inequality, and the politics of belonging.

At stake is whether Africa’s experiment with citizenship based on ancestry – what might be called citizenship diplomacy – represents genuine repair for past injustices or a ploy by governments to rebrand themselves.

A new wave of diaspora citizenship

Benin enacted a new law in 2024 which offers nationality to adults who can prove they descend from people enslaved and shipped from African shores. Proof may include DNA testing, genealogical documentation, or oral testimony. Recipients must finalise the process in person within three years.

The initiative follows similar efforts elsewhere. Ghana’s “Year of Return” in 2019 granted citizenship to dozens of African Americans; Sierra Leone has extended passports to descendants using DNA verification. Rwanda and The Gambia have launched programmes to attract “repatriates”.

These policies share a powerful moral ambition: to repair the rupture of slavery and reconnect global Africans with the continent.

Yet as Africa transforms its history into diplomacy, its diplomacy runs the risk of being less about genuine reuniting and more about using identity as a marketing strategy – selling the idea of “returning home” to improve an African nation’s global image.

This tension gives rise to four key issues revealed in my research: unequal access, genealogical governance, heritage commodification, and domestic inequality.

The unequal path to return

The first tension is access. DNA tests and ancestral research are expensive. The documentation required to verify lineage privileges those with resources, education and digital literacy. Celebrities can easily navigate this process; millions of others cannot.

In fact, those whose family histories were most violently erased are least able to prove descent.

These programmes are often promoted as open arms to the world’s Black descendants. However, they rely on technologies and bureaucracies rooted in western data regimes.

As scholars have shown, genetic ancestry databases are overwhelmingly managed by companies in the United States and Europe. These companies market and sell DNA while claiming to restore identity. The proof of African belonging is, once again, mediated by foreign tools and global capital.

Genealogy as governance

This reliance on genetics and archives revives colonial ways of classifying identity. European empires once defined African subjects through blood, “tribe” and lineage. Today, the state risks reinstating similar categories.

To decide who “counts” as African, governments are outsourcing moral authority to laboratories and paperwork. Instead, they could focus on community-based verification. This uses local historical societies, oral historians and cultural institutions that recognise shared heritage without reducing it to data.

The bureaucracy of belonging threatens to eclipse the politics of solidarity.

From memory to marketing

Another layer of complexity is economic. Governments market these citizenship programmes as engines of tourism, philanthropy and investment. Ghana’s Year of Return generated millions of dollars in tourism revenue, prompting other states to follow suit.

But when heritage becomes an industry, memory risks turning into merchandise. The descendants of the enslaved become consumers of identity rather than coauthors of the continent’s future.

There is nothing wrong with diaspora investment or travel. However, reparation should not be measured in flight packages and photo opportunities.

Inequality on the ground

Citizenship by ancestry can also create new inequalities within African societies. Returnees with foreign capital might purchase prime land, establish gated enclaves, or get privileges unavailable to locals.

In Ghana, tensions have surfaced between diaspora residents and citizens over property rights and cultural authority.

If unaddressed, these disparities could reproduce the very economic divides that colonialism imposed.

Citizenship as reparation must not translate into citizenship as entitlement. The moral gesture of inclusion loses meaning when it mirrors the social exclusions of global wealth.

Confronting historical complicity

Benin deserves recognition for acknowledging its historical role in the Atlantic slave trade, when the Kingdom of Dahomey captured and sold captives to European traders. The current government has invested in memorial tourism and educational projects around Ouidah’s slave route sites.

But recognition is only the first step. Apology without transformation leaves history unhealed. A citizenship programme can value memory only if it also builds institutions that dismantle the legacies of exploitation.

These national programmes expose a broader governance gap. The African Union (AU) officially designates the diaspora as Africa’s “sixth region”, yet there is no unified policy guiding diaspora citizenship. Each nation improvises its own standards, often shaped by domestic politics or diplomatic ambitions.

The absence of coordination creates a patchwork of eligibility rules and inconsistent rights. In some states, new citizens can vote or own property; in others, their status remains largely symbolic.

A continental framework could establish shared legal, ethical and economic principles for diaspora citizenship. Coordination would protect migrants from exploitation, prevent nationality shopping, and turn symbolic gestures into coherent policy.

Beyond ancestry: towards agency

The most profound shift must be philosophical. The descendants of the enslaved do not simply seek to return to Africa. They seek to return with Africa, to participate in a collective rethinking of freedom, belonging and justice.

Drawing from my research on diaspora reconstruction and transatlantic history, I argue that reconnecting should not be a sentimental pilgrimage. It should be a political partnership. Governments can collaborate with diaspora communities to build archives and fund educational exchanges. They can also invest in cultural institutions that preserve collective histories.

In that sense, citizenship as reparation can succeed only when it becomes citizenship as responsibility. That is, a mutual pact to build societies more equitable than the world that slavery and colonialism created.

Homecoming is an unfinished conversation. It is one that begins each time the continent and its diasporas meet not as strangers or symbols, but as partners in building the world that history denied them.

The Conversation

Kwasi Konadu does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Ciara’s Beninese citizenship: marketing ploys can’t heal the past – https://theconversation.com/ciaras-beninese-citizenship-marketing-ploys-cant-heal-the-past-269213

What Yiddish literature reveals about Canada’s diverse canon and multilingual identity

Source: The Conversation – Canada – By Regan Lipes, Assistant Professor of Comparative Literature and English, MacEwan University

As an assistant professor of comparative literature, when I ask undergraduate students how they define “Canadian literature,” I get half-hearted answers about it encompassing anything inherently Canadian. They don’t, however, specify which language, if any, they believe Canadian literature must be written in.

I specifically ask this question because — although I teach in an anglophone environment — just as Canadian identities are multilingual, so too is the literature that tells Canada’s stories.

Defining a national literary canon can be complex. But literature written in any language can be Canadian when the experiences it describes are grounded in the realities of life in Canada.

Yiddish literature, though often overlooked, is an example that offers essential Canadian stories that broaden the national canon.

Reflecting multilayered identities

In my literary trends and traditions class, I teach the short story collection Natasha And Other Stories by Canadian author David Bezmozgis. Bezmozgis’s six English-language stories about a young Soviet-born, Russian-speaking, Latvian-Jewish immigrant to Toronto chronicle the gradual cultivation of a Canadian identity.

Students have a much easier time seeing the work of Bezmozgis as Canadian literature, despite the diversity of multilayered cultural influences, because it was written in English. To them, it’s more accessible.

I follow my first question with another: can Canadian literature be written in Yiddish?

This is usually answered with noncommittal shrugs. Some students are unsure whether Yiddish is still a functioning language and are surprised to learn it is the mother tongue of daily life in many communities globally, with 41,000 speakers residing in Canada.

Yiddish, traditionally spoken by Eastern and Central European Jews before the Second World War, has also experienced a renaissance because of growing appreciation for its evocative flair among contemporary culture connoisseurs.

My students were skeptical when I tell them we are going to read Canadian literature that had been translated from Yiddish. I introduce them to Jewish-Canadian writer Chava Rosenfarb, who was recognized by the University of Lethbridge with an honorary doctorate in 2006 for her literary achievements.

Born in Łódź, Poland, in 1923, Rosenfarb has become a core literary figure for the city because of her three-volume novel Tree of Life chronicling the conditions of perpetual struggle in the Łódź Ghetto. In 2023, a street in Łódź, was named after Rosenfarb, underscoring her importance in the Polish literary sphere.

But outside of Yiddish circles in Canada, her poetry and prose were not widely associated with the country’s literary canon for a long time.

Yiddish literature is Canadian

Though Rosenfarb spent most of her adult life in Canada, raising a family in Montréal, it is only in recent years that she is being appreciated for her significant contribution to Canadian literature. Even though it may have limited her audience, she predominantly published her work in Yiddish because it remained the language in which she felt most artistically at home.

Although Rosenfarb’s individual stories have been previously published in Yiddish literary magazines and in separate translations, it was not until In the Land of The Postscript: The Complete Short Stories of Chava Rosenfarb came out in 2023 that we had the author’s short fiction in a single volume for the first time.

Chava Rosenfarb’s daughter, Dr. Goldie Morgentaler — professor emerita at the University of Lethbridge who was honoured with a Canadian Jewish Literary Award for her translation work from Yiddish to English — translated the collection unifying the text with an insightful and synthesizing forward. She finally brought her mother’s short fiction, about the lives of Holocaust survivors rebuilding lives in Montréal, to anglophone audiences.

Rosenfarb’s stories in the collection tackle the philosophical and existential quandaries of the universal human experience, but with a recognizably Canadian backdrop. Her characters grapple with the obstacles of immigration and ongoing displacement while simultaneously navigating the legacy of their Holocaust trauma. The resettlement of survivors contributed significantly to Canadian Jewish culture, and the impact is still present today.

As Morgentaler notes, it is the ever-visible silhouette of Mount Royal in Montréal that reminds Edgia, the title character of “Edgia’s Revenge,” that as a Jew, she is always under the watchful gaze of the dominant Christian power structure. When Lolek, Edgia’s husband, later dies, it is a set of spiral wooden stairs characteristic of Montréal architecture that are to blame for his fall.

These are distinctly local, Montréal-rooted elements of Rosenfarb’s storytelling, and are immediately familiar to readers. Despite being written in Yiddish, these are Canadian stories that depict the lived experiences of a generation of traumatized newcomers.

Translation supports Canadian narratives

A nation’s literature used to be tied to language, but this can no longer be the narrow criterion for defining a canon. Migration, both voluntary and resulting from forcible displacement, has diversified and enriched the chorus of voices that narrate the stories of Canada. And translation makes it possible to appreciate Canadian literature in its diversity of voices.

Despite having written her short fiction in Yiddish, Rosenfarb’s work tells Canadian stories that provide a valuable glimpse into a chapter of the national narrative seldom explored.

After exposing my students to Rosenfarb’s short fiction, I ask them again whether they consider literature written in languages other than those officially recognized by the Canadian government as belonging to the genre of Canadian literature. And without exception, they agree their perspective has changed.

This marks a point in literary studies where scholars are moving past the traditional paradigm of examining national literature through the lens of national languages.

And the growing literary canon is not only stronger for it, it better reflects the country’s cultural reality.

The Conversation

Regan Lipes does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. What Yiddish literature reveals about Canada’s diverse canon and multilingual identity – https://theconversation.com/what-yiddish-literature-reveals-about-canadas-diverse-canon-and-multilingual-identity-267190