Google plans to power a new data center with fossil fuels, yet release almost no emissions – here’s how its carbon capture tech works

Source: The Conversation – USA (2) – By Ramesh Agarwal, Professor of Engineering, Washington University in St. Louis

Carbon capture and storage projects capture carbon dioxide emissions from industrial facilities and power plants and pipe them underground to geological formations. Nopphinan/iStock/Getty Images Plus

As AI data centers spring up across the country, their energy demand and resulting greenhouse gas emissions are raising concerns. With servers and energy-intensive cooling systems constantly running, these buildings can use anywhere from a few megawatts of power for a small data center to more than 100 megawatts for a hyperscale data center. To put that in perspective, the average large natural gas power plant built in the U.S. generates less than 1,000 megawatts.

When the power for these data centers comes from fossil fuels, they can become major sources of climate-warming emissions in the atmosphere – unless the power plants capture their greenhouse gases first and then lock them away.

Google recently entered into a unique corporate power purchase agreement to support the construction of a natural gas power plant in Illinois designed to do exactly that through carbon capture and storage.

So how does carbon capture and storage, or CCS, work for a project like this?

I am an engineer who wrote a 2024 book about various types of carbon storage. Here’s the short version of what you need to know.

How CCS works

When fossil fuels are burned to generate electricity, they release carbon dioxide, a powerful greenhouse gas that remains in the atmosphere for centuries. As these gases accumulate in the atmosphere, they act like a blanket, holding heat close to the Earth’s surface. Too high of a concentration heats up the Earth too much, setting off climate changes, including worsening heat waves, rising sea levels and intensifying storms.

Carbon capture and storage involves capturing carbon dioxide from power plants, industrial processes or even directly from the air and then transporting it, often through pipelines, to sites where it can be safely injected underground for permanent storage.

An illustration showing pipes from oil pumps and power plants to underground layers
A snapshot of some of the ways carbon capture and storage works. The pipelines into the oil layer, in black, and the oil well illustrate enhanced oil recovery.
Congressional Budget Office, U.S. Federal Government

The carbon dioxide might be transported as a supercritical gas – which is right at the phase change from liquid to gas and has the properties of both – or dissolved in a liquid. Once injected deep underground, the carbon dioxide can become permanently trapped in the geologic structure, dissolve in brine or become mineralized, turning it to rock.

The goal of carbon storage is to ensure that carbon dioxide can be kept out of the atmosphere for a long time.

Types of underground carbon storage

There are several options for storing carbon dioxide underground.

Depleted oil and natural gas reservoirs have plentiful storage space and the added benefit that most are already mapped and their limits understood. They already held hydrocarbons in place for millions of years.

Carbon dioxide can also be injected into working oil or gas reservoirs to push out more of those fossil fuels while leaving most of the carbon dioxide behind. This method, known as enhanced oil and gas recovery, is the most common one used by carbon capture and storage projects in the U.S. today, and one reason CCS draws complaints from environmental groups.

Volcanic basalt rock and carbonate formations are considered good candidates for safe and long-term geological storage because they contain calcium and magnesium ions that interact with carbon dioxide, turning it into minerals. Iceland pioneered this method using its bedrock of volcanic basalt for carbon storage. Basalt also covers most of the oceanic crust, and scientists have been exploring the potential for sub-seafloor storage reservoirs.

How Iceland uses basalt to turn captured carbon dioxide into solid minerals.

In the U.S., a fourth option likely has the most potential for industrial carbon dioxide storage – deep saline aquifers, which is what Google plans to use. These widely distributed aquifers are porous and permeable sediment formations consisting of sandstone, limestone or dolostone. They’re filled with highly mineralized groundwater that cannot be used directly for drinking water but is very suitable for storing CO2.

Deep saline aquifers also have large storage capacities, ranging from about 1,000 to 20,000 gigatons. In comparison, the nation’s total carbon emissions from fossil fuels in 2024 were about 4.9 gigatons.

As of fall 2025, 21 industrial facilities across the U.S. used carbon capture and storage, including industries producing natural gas, fertilizer and biofuels, according to the Global CCS Institute’s 2025 report. Five of those use deep saline aquifers, and the rest involve enhanced oil or gas recovery. Eight more industrial carbon capture facilities were under construction.

Google’s plan is unique because it involves a power purchase agreement that makes building the power plant with carbon capture and storage possible.

Google’s deep saline aquifer storage plan

Google’s 400-megawatt natural gas power plant, to be built with Broadwing Energy, is designed to capture about 90% of the plant’s carbon dioxide emissions and pipe them underground for permanent storage in a deep saline aquifer in the nearby Mount Simon sandstone formation.

The Mount Simon sandstone formation is a huge saline aquifer that lies underneath most of Illinois, southwestern Indiana, southern Ohio and western Kentucky. It has a layer of highly porous and permeable sandstone that makes it an ideal candidate for carbon dioxide injection. To keep the carbon dioxide in a supercritical state, that layer needs to be at least half a mile (800 meters) deep.

A thick layer of Eau Claire shale sits above the Mount Simon formation, serving as the caprock that helps prevent stored carbon dioxide from escaping. Except for some small regions near the Mississippi River, Eau Claire shale is considerably thick – more than 300 feet (90 meters) – throughout most of the Illinois basin.

The estimated storage capacity of the Mount Simon formation ranges from 27 gigatons to 109 gigatons of carbon dioxide.

The Google project plans to use an existing injection well site that was part of the first large-scale carbon storage demonstration in the Mount Simon formation. Food producer Archer Daniels Midland began injecting carbon dioxide there from nearby corn processing plants in 2012.

Carbon capture and storage has had challenges as the technology developed over the years, including a pipeline rupture in 2020 that forced evacuations in Satartia, Mississippi, and caused several people to lose consciousness. After a recent leak deep underground at the Archer Daniels Midland site in Illinois, the Environmental Protection Agency in 2025 required the company to improve its monitoring. Stored carbon dioxide had migrated into an unapproved area, but no threat to water supplies was reported.

Why does CCS matter?

Data centers are expanding quickly, and utilities will have to build more power capacity to keep up. The artificial intelligence company OpenAI is urging the U.S. to build 100 gigawatts of new capacity every year – doubling its current rate.

Many energy experts, including the International Energy Agency, believe carbon capture and storage will be necessary to slow climate change and keep global temperatures from reaching dangerous levels as energy demand rises.

The Conversation

Ramesh Agarwal does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Google plans to power a new data center with fossil fuels, yet release almost no emissions – here’s how its carbon capture tech works – https://theconversation.com/google-plans-to-power-a-new-data-center-with-fossil-fuels-yet-release-almost-no-emissions-heres-how-its-carbon-capture-tech-works-270425

Sugar starts corroding your teeth within seconds – here’s how to protect your pearly whites from decay

Source: The Conversation – USA (3) – By José Lemos, Professor of Oral Biology, University of Florida

Sugar feeds the colonies of bacteria living in your mouth and surrounding your teeth. Andrii Zastrozhnov/iStock via Getty Images Plus

Between Halloween candy, Thanksgiving pies and holiday cookies, the end of the year is often packed with opportunities to consume sugar. But what happens in your mouth during those first minutes and hours after eating those sweets?

While you’re likely aware that eating too much sugar can cause cavities – that is, damage to your teeth – you might be less familiar with how bacteria use those sugars to build a sticky film called plaque on your teeth as soon as you take that first sweet bite.

We are a team of microbiologists that studies how oral bacteria cause tooth decay. Here’s what happens in your mouth the moment sugar passes your lips – and how to protect your teeth:

An acid plunge

Within seconds of your first bite or sip of something sugary, the bacteria that make the human mouth their home start using those dietary sugars to grow and multiply. In the process of converting those sugars into energy, these bacteria produce large quantities of acids. As a result, just a minute or two after consuming high-sugar foods or drinks, the acidity of your mouth increases into levels that can dissolve enamel – that is, the minerals making up the surface of your teeth.

An array of cookies, cakes, candies and other sweets
Sweets present a delicious assault on your teeth.
Nazar Abbas Photography/Moment via Getty Images

Luckily, saliva comes to the rescue before these acids can start corroding the surface of your teeth. It washes away excess sugars while also neutralizing the acids in your mouth.

Your mouth is also home to other bacteria that compete with cavity-causing bacteria for resources and space, fighting them off and restoring the acidity of your mouth to levels that aren’t harmful to teeth.

However, frequent consumption of sweets and sugary drinks can overfeed harmful bacteria in a way that neither saliva nor helpful bacteria can overcome.

An assault on enamel

Cavity-causing bacteria also use dietary sugars to make a sticky layer called a biofilm that acts like a fortress attached to the teeth. Biofilms are very hard to remove without mechanical force, such as from routinely brushing your teeth or cleaning at the dentist’s office.

Microbes form vast communities called biofilms.

In addition, biofilms impose a physical barrier that restricts what crosses its border, such that saliva can no longer do its job of neutralizing acid as well. To make matters worse, while cavity-causing bacteria are able to survive in these acidic conditions, the good bacteria fighting them cannot.

In these protected fortresses, cavity-causing bacteria are able to keep multiplying, keeping the acidity level of the mouth elevated and leading to further loss of tooth minerals until a cavity becomes visible or painful.

How to protect your (sweet) teeth

Before eating your next sugary treat, there are a few measures you can take to help keep the cavity-forming bacteria at bay and your teeth safe.

First, try to reduce the amount of sugar you eat and consume your sugary food or drink during a meal. This way, the increased saliva production that occurs while eating can help wash away sugars and neutralize acids in your mouth.

In addition, avoid snacking on sweets and sugary drinks throughout the day, especially those containing table sugar or high-fructose corn syrup. Continually exposing your mouth to sugar will keep its acidity level higher for longer periods of time.

Finally, remember to brush regularly, especially after meals, to remove as much dental plaque as possible. Daily flossing also helps remove plaque from areas that your toothbrush cannot reach.

The Conversation

José Lemos receives funding from NIH and Vaxcyte.

Jacqueline Abranches receives funding from NIH/NIDCR and Vaxcyte.

ref. Sugar starts corroding your teeth within seconds – here’s how to protect your pearly whites from decay – https://theconversation.com/sugar-starts-corroding-your-teeth-within-seconds-heres-how-to-protect-your-pearly-whites-from-decay-269352

We are hardwired to sing − and it’s good for us, too

Source: The Conversation – USA (3) – By Elinor Harrison, Faculty Affiliate, Philosophy-Neuroscience-Psychology, Washington University in St. Louis

Gospel choir director Clyde Lawrence performs at the New Orleans Jazz & Heritage Festival on April 25, 2025.
AP Photo/Gerald Herbert

On the first Sunday after being named leader of the Catholic Church in May 2025, Pope Leo XIV stood on the balcony of St. Peter’s Basilica in Rome and addressed the tens of thousands of people gathered. Invoking tradition, he led the people in noontime prayer. But rather than reciting it, as his predecessors generally did, he sang.

In chanting the traditional Regina Caeli, the pope inspired what some have called a rebirth of Gregorian chant, a type of monophonic and unaccompanied singing done in Latin that dates back more than a thousand years.

The Vatican has been at the forefront of that push, launching an online initiative to teach Gregorian chant through short educational tutorials called “Let’s Sing with the Pope.” The stated goals of the initiative are to give Catholics worldwide an opportunity to “participate actively in the liturgy” and to “make the rich heritage of Gregorian chant accessible to all.”

These goals resonated with me. As a performing artist and scientist of human movement, I spent the past decade developing therapeutic techniques involving singing and dancing to help people with neurological disorders. Much like the pope’s initiative, these arts-based therapies require active participation, promote connection, and are accessible to anyone. Indeed, not only is singing a deeply ingrained human cultural activity, research increasingly shows how good it is for us.

The same old song and dance

For 15 years, I worked as a professional dancer and singer. In the course of that career, I became convinced that creating art through movement and song was integral to my well-being. Eventually, I decided to shift gears and study the science underpinning my longtime passion by looking at the benefits of dance for people with Parkinson’s disease.

The neurological condition, which affects over 10 million people worldwide, is caused by neuron loss in an area of the brain that is involved in movement and rhythmic processing – the basal ganglia. The disease causes a range of debilitating motor impairments, including walking instability.

An older woman sings from her music sheet.
A woman sings as part of a chorus for Parkinson’s patients and their care partners at a YMCA in Hanover, Mass., on Feb. 13, 2019.
David L. Ryan/The Boston Globe via Getty Images

Early on in my training, I suggested that people with Parkinson’s could improve the rhythm of their steps if they sang while they walked. Even as we began publishing our initial feasibility studies, people remained skeptical. Wouldn’t it be too hard for people with motor impairment to do two things at once?

But my own experience of singing and dancing simultaneously since I was a child suggested it could be innate. While Broadway performers do this at an extremely high level of artistry, singing and dancing are not limited to professionals. We teach children nursery rhymes with gestures; we spontaneously nod our heads to a favorite song; we sway to the beat while singing at a baseball game. Although people with Parkinson’s typically struggle to do two tasks at once, perhaps singing and moving were such natural activities that they could reinforce each other rather than distract.

A scientific case for song

Humans are, in effect, hardwired to sing and dance, and we likely evolved to do so. In every known culture, evidence exists of music, singing or chanting. The oldest discovered musical instruments are ivory and bone flutes dating back over 40,000 years. Before people played music, they likely sang. The discovery of a 60,000-year-old hyoid bone shaped like a modern human’s suggests our Neanderthal ancestors could sing.

In “The Descent of Man,” Charles Darwin speculated that a musical protolanguage, analogous to birdsong, was driven by sexual selection. Whatever the reason, singing and chanting have been integral parts of spiritual, cultural and healing practices around the world for thousands of years. Chanting practices, in which repetitive sounds are used to induce altered states of consciousness and connect with the spiritual realm, are ancient and diverse in their roots.

Though the evolutionary reasons remain disputed, modern science is increasingly validating what many traditions have long held: Singing and chanting can have profound benefits to physical, mental and social health, with both immediate and long-term effects.

Physically, the act of producing sound can strengthen the lungs and diaphragm and increase the amount of oxygen in the blood. Singing can also lower heart rate and blood pressure, reducing the risk of cardiovascular diseases.

Vocalizing can even improve your immune system, as active music participation can increase levels of immunoglobulin A, one of the body’s key antibodies to stave off illness.

Singing also improves mood and reduces stress.

Studies have shown that singing lowers cortisol levels, the primary stress hormone, in healthy adults and people with cancer or neurologic disorders. Singing may also rebalance autonomic nervous system activity by stimulating the vagus nerve and improving the body’s ability to respond to environmental stresses. Perhaps this is why singing has been called “the world’s most accessible stress reliever.”

A woman sings from a church podium.
A woman performs a Gregorian chant on Christmas Eve in 2023 in Spain.
saac Buj/Europa Press via Getty Images

Moreover, chanting may make you aware of your inner states while connecting to something larger. Repetitive chanting, as is common in rosary recitation and yogic mantras, can induce a meditative state, inducing mindfulness and altered states of consciousness. Neuroimaging studies show that chanting activates brainwaves associated with suspension of self-oriented and stress-related thoughts.

Singing as community

Singing alone is one thing, but singing with others brings about a host of other benefits, as anyone who has sung in a choir can likely attest.

Group singing provides a mood boost and improves overall well-being. Increased levels of neurotransmitters such as dopamine, serotonin and oxytocin during singing may promote feelings of social connection and bonding.

When people sing in unison, they synchronize not just their breath but also their heart rates. Heart rate variability, a measure of the body’s adaptability to stress, also improves during group singing, whether you’re an expert or a novice.

In my own research, singing has proven useful in yet another way: as a cue for movement. Matching footfalls to one’s own singing is an effective tool for improving walking that is better than passive listening. Seemingly, active vocalization requires a level of engagement, attention and effort that can translate into improved motor patterns. For people with Parkinson’s, for example, this simple activity can help them avoid a fall. We have shown that people with the disease, in spite of neural degeneration, activate similar brain regions as healthy controls. And it works even when you sing in your head.

Whether you choose to sing with the pope or not, you don’t need a mellifluous voice like his to raise your voice in song. You can sing in the shower. Join a choir. Chant that “om” at the end of yoga class. Releasing your voice might be easier than you think.

And, besides, it’s good for you.

The Conversation

Elinor Harrison received funding from the National Institutes of Health, the National Endowment for the Arts and the Grammy Museum Foundation. She is affiliated with the International Association of Dance Medicine and Science and the Society for Music Perception and Cognition.

ref. We are hardwired to sing − and it’s good for us, too – https://theconversation.com/we-are-hardwired-to-sing-and-its-good-for-us-too-262861

Crise de la dette: les quatre leviers qui peuvent aider le Sénégal à éviter la restructuration

Source: The Conversation – in French – By Souleymane Gueye, Professor of Economics and Statistics, City College of San Francisco

Le Fonds monétaire international (FMI) a réévalué la dette du Sénégal à 132 % du PIB, entraînant une dégradation de sa note souveraine. Les discussions avec le FMI avancent lentement et le pays rencontre des difficultés pour lever des financements sur les marchés internationaux.

Malgré tout, la dette reste soutenable depuis 2024, mais elle place le Sénégal devant un dilemme : restructurer immédiatement ou poursuivre la stratégie actuelle, qui permet de rembourser les échéances sans accord avec le FMI et de maintenir son Plan de redressement économique et social.
.
En tant qu’économiste ayant étudié les relations entre le FMI et le Sénégal sur quarante ans, je ne préconise pas une restructuration de cette dette.

En dépit d’un besoin de financement de 5 800 milliards de F CFA pour 2025, il est préférable de poursuivre la trajectoire actuelle et le plan de redressement, tout en recherchant un accord avec le FMI, aligné sur la “Vision 2050”.

Qu’est-ce qu’une restructuration de la dette ?

Une restructuration de la dette est un « réaménagement négocié des obligations d’un État pour restaurer la soutenabilité de sa dette » . Elle intervient lorsque le pays n’est plus en mesure de payer ses dettes sans compromettre sa stabilité économique et sociale. Autrement dit, elle intervient en cas de défaut de paiement. Or, ce n’est pas la situation actuelle du Sénégal. Une restructuration vise surtout à alléger la pression financière et à redonner des marges budgétaires.




Read more:
Pourquoi la dernière dégradation de la note du Sénégal par Moody’s ne tient pas la route


Elle repose sur deux principes simples : un pays ne peut pas continuer à emprunter indéfiniment, et les créanciers ont parfois du mal à se coordonner entre eux.

Une restructuration peut prendre plusieurs formes :

  • réduction du principal (haircut) : le créancier accepte d’abandonner une partie de la somme due. C’est la solution la plus lourde, réservée aux situations de détresse sévère.

  • reprofilage : le pays paie tout, mais plus lentement et moins cher, parfois avec une période de grâce. Cela facilite l’ajustement budgétaire sans choc majeur.

  • rééchelonnement : report des échéances dans le temps, souvent sous l’égide du Club de Paris – un groupe informel de pays créanciers dont le rôle est coordonner la restructuration de la dette publique des États qui n’arrivent plus à rembourser leurs emprunts – ou de créanciers privés, avec des conditions financières assouplies.

  • cadre commun du G20 : restructuration globale et coordonnée entre tous les créanciers, visant à éviter les blocages, garantir la transparence et s’accompagner d’un programme macroéconomique avec le FMI.




Read more:
Sortir du piège de la dette : les alternatives au modèle FMI pour le Sénégal


Les implications économiques

Plusieurs études comme celle de l’économiste américain Barry Eichengreen montrent qu’une restructuration de la dette peut réduire fortement l’investissement privé, fragiliser les banques exposées aux titres publics et limiter l’accès du pays aux financements extérieurs. Elle augmente aussi les primes de risque et peut entraîner une crise de confiance.

Dans une économie comme celle du Sénégal, intégrée à l’Union économique et monétaire ouest-africaine (Uemoa) et sans politique monétaire indépendante, ces chocs sont très difficiles à absorber.

À long terme, une restructuration peut être utile si elle est bien pensée et accompagnée de réformes crédibles. Elle peut améliorer la structure de la dette, réduire les intérêts, libérer des marges pour les dépenses prioritaires et restaurer la confiance.

Mais ces avantages dépendent du maintien d’une dynamique de croissance non entravée par des ajustements trop brutaux. Ce qui est impossible à avoir avec le FMI.

Le Sénégal doit-il restructurer sa dette publique ?

Le Sénégal a un endettement très élevé, mais il reste soutenable selon le mode de calcul courant. On compare les dépenses obligatoires de l’État (salaires, transferts, dépenses de fonctionnement et d’investissement) à ses recettes. Puis, on vérifie si le service de la dette reste supportable. Selon ce calcul, basé sur la dernière loi de finances initiale, le Sénégal se situe dans la catégorie des pays à haut risque, mais pas en situation de défaut de paiement.

En revanche, les besoins de financement augmentent, et la confiance des marchés s’est affaiblie après la révélation des dettes cachées et l’absence d’accord avec le FMI.




Read more:
Sénégal : ce que révèle la dégradation de la note sur la dette cachée et les notations de crédit


Malgré ce contexte difficile, le Sénégal continue de payer sa dette, mais les taux d’intérêt très élevés aggravent le coût du service de la dette et réduisent les marges pour investir. Aujourd’hui, 16 % des recettes fiscales et 50 % des revenus de l’État servent à rembourser la dette, contre 25 % en moyenne en Afrique.

Cette situation peut-elle durer ? Une restructuration pourrait alléger la pression, car refuser d’y recourir expose le pays à un risque de crise de liquidité pouvant se transformer en crise financière et économique.

Ce contexte financier est très tendu, mais il reste, selon nous, soutenable. Il peut même s’améliorer si le pays exploite pleinement ses atouts. Le Sénégal dispose en effet d’un environnement prometteur qui peut éviter une restructuration immédiate de la dette.

Ces atouts tournent autour de ces facteurs :

  • Une population jeune, dynamique et entreprenante

  • Une stabilité politique et institutionnelle dans une région instable.

  • Une croissance potentielle solide (8 % -10 %), renforcée par le gaz, le pétrole et l’or.

  • Une administration fiscale et financière en constante amélioration grâce
    aux réformes récentes.

. Un potentiel enviable dans l’agrobusiness, les ressources halieutiques, les services et le numérique, et l’accès encore possible aux financements extérieurs confessionnels.

Eviter la restructuration du type FMI

Fort de ces atouts, le Sénégal doit éviter une restructuration encadrée par le FMI, car impliquant forcément un programme du FMI. Celui-ci est fondé sur des politiques bien connues :

• Une politique fiscale restrictive : forte réduction du déficit, diminution des dépenses publiques, élimination des subventions, hausse des impôts, licenciements administratifs,

• Une privatisation des entreprises publiques et para publiques,

• Une politique monétaire restrictive (augmentation du coût du crédit) si le pays dispose d’une politique monétaire autonome,

• Une libéralisation totale du secteur financier et du commerce extérieur.

Ces politiques risqueraient d’exacerber la contraction de l’activité économique au lieu de la résoudre car, du fait du régime de change fixe, le Sénégal ne dispose pas du levier monétaire et du taux de change pour atténuer les effets négatifs que ces mesures auraient sur l’activité économique.

Autrement dit, les déséquilibres budgétaires vont être rétablis au détriment d’une croissance économique endogène et inclusive, exacerbant les inégalités économiques et sociales, et la paupérisation des populations.

Entrer dans une restructuration maintenant créerait un cercle vicieux : une contraction de l’activité économique occasionnant une baisse des recettes et des difficultés à atteindre les objectifs du programme. Ce qui entraînera alors davantage d’austérité.

Il faudra donc tout faire pour éviter ce scénario et concevoir une autre stratégie pour desserrer la pression sur les finances publiques et mieux gérer la dette.

Une stratégie alternative

Éviter une restructuration immédiate ne veut pas dire rester passif. Il faut au contraire bâtir une stratégie solide autour de quatre leviers :

  • D’abord, privilégier une approche basée sur la transparence : terminer l’inventaire de la dette, publier tous les rapports et élaborer un plan de gestion conforme aux recommandations de la Cour des comptes. Cette approche devrait idéalement s’accompagner d’un accord formel avec le FMI pour valider le cadre macroéconomique proposé par le Sénégal et renforcer la transparence budgétaire, envoyant ainsi un signal fort de confiance aux marchés internationaux.

  • Le deuxième levier consiste à distinguer clairement la dette de l’État central de celle des entreprises publiques et des garanties souveraines.

Pour la dette centrale, le gouvernement sénégalais peut renégocier les maturités des Euro-obligations et prêts commerciaux à taux élevés sur le long terme sans une restructuration formelle. L’État doit chercher à convertir les prêts bilatéraux à court terme en financements concessionnels ou partenariats sectoriels, tout en privilégiant les financements auprès de partenaires bilatéraux et multilatéraux (Chine, Turquie, Inde, pays du Golfe).

Ce reprofilage partiel, conçu indépendamment du FMI, pourrait améliorer la liquidité et libérer des marges pour soutenir l’économie. L’État doit se concentrer sur les obligations à court terme (bons du Trésor et titres de moins de deux ans) pour refinancer, renégocier les taux ou prolonger les échéances, afin de ne pas déstabiliser le système bancaire de l’Uemoa.

  • Le troisième levier consiste à étaler l’ajustement fiscal sur plusieurs années, élargir l’assiette fiscale et engager une réforme axée sur l’équité. Le gouvernement doit aussi renforcer la gouvernance des régies financières et mettre en place une gestion efficace des revenus tirés du gaz, du pétrole et des autres ressources naturelles.

  • L’exploitation du gaz et du pétrole offre au Sénégal un levier supplémentaire : valoriser les revenus futurs pour négocier de meilleures conditions. La création d’un fonds de stabilisation et d’un cadre transparent d’exploitation de ces ressources peut réduire la charge de la dette et permettre d’investir dans la formation des jeunes, le capital humain et les services publics.




Read more:
Comment le Sénégal peut financer son économie sans s’endetter davantage


Que retenir ?

Tant que le FMI maintient ses conditions classiques ou retarde les négociations, le Sénégal ne devrait pas restructurer sa dette. La stratégie à suivre consiste à :

• Consolider graduellement les finances publiques en réduisant les dépenses de fonctionnement de l’État central et en fusionnant les directions et les agences publiques

• Préserver l’investissement public, relancer l’investissement privé et élaborer des mesures spécifiques de relance de la croissance economique;

• Négocier des conditions moins procycliques et contraignantes;

• Finaliser un programme avec le FMI basé sur la Vision 2050;

• Et n’envisager une restructuration qu’en dernier recours, dans un cadre structuré, repensé et adossé aux priorités économiques du gouvernement sénégalais et plus favorable.

Une dette bien analysée et bien gérée ne peut pas déboucher sur une défaillance économique. Au contraire, elle peut devenir un outil puissant de souveraineté pour favoriser le plein emploi, réduire la pauvreté et promouvoir la justice économique et sociale.

The Conversation

Souleymane Gueye receives funding from Monterey Institute of International Studies and the Fullbright foundation

ref. Crise de la dette: les quatre leviers qui peuvent aider le Sénégal à éviter la restructuration – https://theconversation.com/crise-de-la-dette-les-quatre-leviers-qui-peuvent-aider-le-senegal-a-eviter-la-restructuration-270177

Larry Summers’ sexism is jeopardizing his power and privilege, but the entire economics profession hinders progress for women

Source: The Conversation – USA (2) – By Yana van der Meulen Rodgers, Professor of Labor Studies, Rutgers University

Larry Summers attends a prestigious conference in July 2025 in Sun Valley, Idaho. Kevin Dietsch/Getty Images

House lawmakers released damning correspondence between economist Larry Summers and the late convicted sex offender Jeffrey Epstein on Nov. 12, 2025. The exchanges, which were among more than 20,000 newly released public documents, documented how Summers – a former U.S. Treasury secretary and Harvard University president – repeatedly sought Epstein’s advice while pursuing an intimate relationship with a woman he was mentoring.

The two men exchanged texts and emails until July 5, 2019, the day before Epstein was arrested on federal charges of the sex trafficking of minors. That was more than a decade after Epstein pleaded guilty to soliciting prostitution from a girl who was under 18. Epstein died by suicide that August, while in jail.

“As I have said before, my association with Jeffrey Epstein was a major error of judgement,” Summers wrote in a statement to The Crimson, Harvard’s newspaper, after the documents came to light. “I am deeply ashamed of my actions and recognize the pain they have caused,” he said in another statement.

The texts have ignited a new round of scrutiny of Summers and calls for Harvard to revoke his tenure.

Four women hold photos of Jeffrey Epstein aloft.
Protesters hold signs bearing photos of convicted sex criminal and Larry Summers confidante Jeffrey Epstein in front of a federal courthouse on July 8, 2019, in New York City.
Stephanie Keith/Getty Images

Prestigious career is unraveling

These revelations are leading to the unraveling of Summers’ prestigious career.

The 70-year-old economist went on leave from teaching at Harvard on Nov. 19. He has also stepped down from several boards on which he was serving, including Yale University’s Budget Lab, OpenAI and two think tanks – the Center for American Progress and the Center for Global Development.

In addition, Harvard has launched an investigation into whether Summers and other people affiliated with the university broke university policies through their interactions with Epstein and should be subject to disciplinary action.

Many organizations have severed their ties with Summers. Summers’ withdrawal from public commitments include his role as a paid contributor to Bloomberg TV and as a contributing opinion writer at The New York Times. He also withdrew from the Group of 30, an international group of financial and economics experts.

Choice of a wingman was problematic

The correspondence that surfaced in late 2025 indicated that the prominent economist had engaged in more than casual banter with a convicted sex criminal.

Epstein called himself Summers’ “wing man.” Summers asked Epstein about “getting horizontal” with his mentee – a female economist who had studied at Harvard. And, not for the first time, Summers questioned the intelligence of women.

Summers, who is one of the nation’s most influential economists, also complained about the growing intolerance among the “American elite” of sexual misconduct.

These comments call into question Summers’ judgment, behavior and beliefs and the power dynamics between him and the women he has mentored.

As a female economist and a board member of the Committee on the Status of Women in the Economics Profession, I wasn’t surprised by the latest revelations, shocking as they may appear.

After all, it was Summers’ disparaging remarks about what he said was women’s relative inability to do math that led him to relinquish the Harvard presidency in 2006. And researchers have been documenting for years the gender bias that pervades the profession of economics.

A leaky pipeline in higher education

Summers taught my first-year Ph.D. macroeconomics course before he became a prominent policymaker during the Clinton administration, and he advised me during his office hours. Thankfully I did not experience any sexual harassment, but as an economics doctoral candidate at Harvard in the late 1980s, I did gain firsthand insight into the elitist culture of the nation’s top economics program.

Back then, only about 1 in 5 of the people who earned a Ph.D. in economics in the U.S. were women. This percentage rose to 30.5% by 1995 and has barely budged since then.

In 2024, according to the National Science Foundation, 34.2% of newly minted economics Ph.D.s – about 1 in 3 – in the U.S. were women, a considerably lower share than in other social sciences, business, the humanities and science.

After earning doctoral degrees in economics, women face a leaky pipeline in the tenure track, the highest-paid, most secure and prestigious academic jobs. The higher the rank, the lower the representation of women.

In 2024, 34% of assistant professors in economics were women, but only 28% of tenured associate professors – the next step on the ladder – were women. And just 18% of tenured full professors in economics were women.

The gender gap is wider in influential positions, such as economics department chairs and the editorial board members of economics journals. As of 2019, only 24% of the 55,035 editorial board members of economics journals were women. A brief look at the websites of the top 10 economics departments in late 2025 indicates that only one of those 10 department chairs is a woman.

Publication patterns also reflect this inequality. Women are substantially underrepresented as authors in the top economics journals, and this imbalance is not explained by quality differences. Rather, studies have found that women face higher hurdles in peer review, departmental support and finding productive co-authors.

Chilly climate

The data paints a clear picture of systemic bias in the profession’s practices and culture. That bias influences who succeeds and who is sidelined.

A 2019 survey by the American Economic Association, a professional association for economists, documented widespread sexual discrimination and harassment. Almost half of the women surveyed among the association’s members said that they had experienced sexual discrimination that interfered with their careers in some way, and 43% reported having experienced offensive sexual behavior from another economist.

A follow-up survey in 2023 indicated that the association’s new initiatives to improve the professional climate had resulted in little improvement.

Beyond academia

Economists can influence policymakers’ decisions on interest rates, taxation and social spending. In turn, the underrepresentation of women in economics can hamper policymaking by limiting the range of perspectives that inform economic decisions.

Researchers have found that arguments from female economists are roughly 20% more persuasive in shaping public opinion than identical arguments from men.

And yet the gender gap still pervades economics outside academia. At the 12 regional Federal Reserve banks, for example, women constituted just 23% of 411 research track economists in 2022.

Following its own code of conduct

“Economists have a professional obligation to conduct civil and respectful discourse in all forums,” the American Economic Association’s code of conduct states. The code gives organizations in economics a clear basis for deciding whether to keep or cut ties with Summers.

The Committee on the Status of Women in the Economics Profession has called for all economic institutions to undertake investigations into Summers’ conduct.

As of early December, the extent to which economic journals and other economics groups are responding to the controversy was still unclear.

I believe that eliminating inequity in economics would take more than an investigation of Summers’ conduct. In my view, institutions and professional associations, including the American Economic Association, should strengthen and enforce codes of conduct that cover harassment, conflicts of interest and misuse of mentorship roles.

In addition, I think that Summers’ ties to Epstein are a powerful reminder of why university economics departments need clearer standards and more transparency in hiring, promotions and leadership appointments. Strengthening those standards would help them root out the sexism and other forms of elitism that have historically marked the profession so that academic success is driven more by merit than self-perpetuating privilege.

It makes little sense to me that the economics profession is claiming to wield authority while tolerating inequity and ethical lapses. Taking these steps toward greater accountability would help to restore trust.

The Conversation

Yana Rodgers serves on the board of the Committee on the Status of Women in the Economics Profession. Dr. Summers taught her PhD macroeconomics course at Harvard University in 1988.

ref. Larry Summers’ sexism is jeopardizing his power and privilege, but the entire economics profession hinders progress for women – https://theconversation.com/larry-summers-sexism-is-jeopardizing-his-power-and-privilege-but-the-entire-economics-profession-hinders-progress-for-women-270367

Planning life after high school isn’t easy – 4 tips to help students and families navigate the process

Source: The Conversation – USA (2) – By Shannon Pickett, Professor of Psychology and Licensed Mental Health Counselor, Purdue University

While many high school students think mostly about four-year college opportunities, some students might be less certain about what is best. iStock/Getty Images Plus

Many high school seniors are now focusing on what they will do once they graduate – or how they don’t at all know what is to come.

Families trying to guide and support these students at the juncture of a major life transition likely also feel nervous about the open-ended possibilities, from starting at a standard four-year college to not attending college at all.

I am a mental health counselor and psychology professor.

Here are four tips to help make deciding what comes after high school a little easier for everyone involved:

1. Shadow someone with a job you might want

I have worked with many college students who are interested in a particular career path, but are not familiar with the job’s day-to-day workings.

A parent, teacher or another adult in this student’s life could connect them with someone they shadow at work, even for a day, so the student can better understand what the job entails.

High school students may also find that interviewing someone who works in a particular field is another helpful way to narrow down career path options, or finalize their college decisions.

Research published in 2025 shows that high school students who complete an internship are better able to decide whether certain careers are a good fit for them.

2. Look at the numbers

Full-time students can pay anywhere from about US$4,000 for in-state tuition at a public state school per semester to just shy of $50,000 per semester at a private college or university. The average annual cost of tuition alone at a public college or university in 2025 is $10,340, while the average cost of a private school is $39,307.

Tuition continues to rise, though the rate of growth has slowed in the past few years.

About 56% of 2024 college graduates had taken out loans to pay for college.

Concerns about affording college often come up with clients who are deciding on whether or not to get a degree. Research has shown that financial stress and debt load are leading to an increase in students dropping out of college.

It can be helpful for some students to look at tuition costs and project what their monthly student loan payments would be like after graduation, given the expected salary range in particular careers. Financial planning could also help students consider the benefits and drawbacks of public, private, community colleges or vocational schools.

Even with planning, there is no guarantee that students will be able to get a job in their desired field, or quickly earn what they hope to make. No matter how prepared students might be, they should recognize that there are still factors outside their control.

A blue circular maze shows people from above walking on different paths.
No matter what route graduating high school students take, it’s often a stressful period of time.
Klaus Vedfelt/Royalty-Free

3. Normalize other kinds of schools

I have found that some students feel they should go to a four-year college right after they graduate because it is what their families expect. Some students and parents see a four-year college as more prestigious than a two-year program, and believe it is more valuable in terms of long-term career growth.

That isn’t the right fit for everyone, though.

Enrollment at trade-focused schools increased almost 20% from the spring of 2020 through 2025, and now comprises 19.4% of public two-year college enrollment.

Going to a trade school or seeking a two-year associate’s degree can put students on a direct path to get a job in a technical area, such as becoming a registered nurse or electrician.

But there are also reasons for students to think carefully about trade schools.

In some cases, trade schools are for-profit institutions and have been subjected to federal investigation for wrongdoing. Some of these schools have been fined and forced to close.

Still, it is important for students to consider which path is personally best for them.

Research has shown that job satisfaction has a positive impact on mental health, and having a longer history with a career field leads to higher levels of job satisfaction.

4. Consider a gap year before shutting down the idea

One strategy that high school graduates have used in recent years is taking a year off between high school and college in order to better determine what is the right fit for a student. Approximately 2% to 3% of high school graduates take a gap year – typically before going on to enroll in college.

Some young people may travel during a gap year, volunteer, or get a job in their hometown.

Whatever the reason students take gap years, I have seen that the time off can be beneficial in certain situations. Taking a year off before starting college has also been shown to lead to better academic performance in college.

The Conversation

Shannon Pickett does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Planning life after high school isn’t easy – 4 tips to help students and families navigate the process – https://theconversation.com/planning-life-after-high-school-isnt-easy-4-tips-to-help-students-and-families-navigate-the-process-263864

Pourquoi l’IA oblige les entreprises à repenser la valeur du travail

Source: The Conversation – France (in French) – By Caroline Gans Combe, Associate professor Data, econometrics, ethics, OMNES Education

Une étude souligne que sur 178 références citées par une IA, 69 renvoyaient à des références incorrectes ou inexistantes. GoldenDayz/Shutterstock

Le rapport entre intelligence artificielle et emploi nécessite de repenser en profondeur l’analyse des tâches dans une entreprise. Il se joue à deux niveaux : dans la compréhension des chaînes de valeur de l’entreprise et dans la capacité des dirigeants à l’appréhender. L’enjeu ? Identifier avec précision où et comment injecter l’IA. Car celle-ci peut mentir, inventer des références et se tromper.


Les sombres prédictions sur la disparition des emplois intellectuels d’entrée de carrière alimentent un débat déjà ancien sur la fongibilité du travail face aux avancées de l’intelligence artificielle (IA) – soit le remplacement d’un emploi par un autre.

Et si la véritable question n’est pas ce qui peut être substitué, mais par où et comment cette substitution crée ou détruit de la valeur pour l’entreprise ? C’est que nous soulignons dans notre étude réalisée par le Global Partnership on AI (GPAI) et le Centre d’expertise international de Montréal en intelligence artificielle (Ceimia).

L’enjeu pour l’intelligence artificielle est de dépasser l’identification par catégorie des emplois, et plus finement des tâches automatisables, pour comprendre leur position stratégique dans la chaîne de création de valeur.

Encore aujourd’hui, l’essentiel des études sur l’impact de l’IA dans le domaine procède par décomposition : identifier des tâches, évaluer la capacité de celles-ci à être automatisées, agréger les résultats. Cette méthodologie, héritée de Carl Benedikt Frey et Michael Osborne, qui estimaient que l’automatisation présentait un risque pour 47 % des emplois, comprend des limites.

Elle ignore la fonction économique spécifique de chaque tâche prise individuellement dans la définition d’un emploi, mais aussi le processus de création de valeur.

Alors où et comment l’IA peut-elle avoir une valeur ajoutée dans l’entreprise ? Comment les dirigeants peuvent-ils s’en emparer pour être le meilleur architecte des interactions homme-machine ? Comment accompagner cette transition ?

Scandale Deloitte Australie

Le scandale Deloitte d’octobre 2025 illustre cette problématique. Deloitte Australie a dû rembourser partiellement une facture de 440 000 dollars australiens (environ 248 000 euros). Pourquoi ? Un rapport commandé par le gouvernement s’est révélé avoir été produit avec Azure OpenAI GPT-4o… sans divulgation initiale.

Le travail contenait des références académiques inexistantes, des citations inventées, et des experts fictifs. Qui plus est, une fois ces problèmes détectés, le cabinet a substitué aux fausses références d’autres bien réelles, qui ne soutenaient pas les conclusions initiales du document.




À lire aussi :
Et si votre prochain collègue était un agent IA ?


Deloitte avait été choisi, non pas pour ses capacités rédactionnelles, mais parce qu’il apportait une assurance d’expertise indépendante, une garantie de fiabilité des sources, un engagement de responsabilité professionnelle. En automatisant sans contrôle, le cabinet a détruit précisément ce pour quoi il était payé.

Références inexistantes

Ce phénomène n’est pas isolé. Une étude du Cureus Journal of Medical Science montre que sur 178 références citées par une IA, 69 renvoyaient à des références incorrectes ou inexistantes. Plus troublant encore : des termes fictifs se propagent désormais dans la littérature scientifique réelle après avoir été générés par l’IA.

Cette asymétrie révèle que la « valeur » d’une tâche dépend autant de sa place dans la chaîne de production que de son « rôle » à l’égard des autres tâches, de la manière dont elle les influence.

L’impact délétère de l’usage de l’IA dans ce type de contexte a été illustré par le cas de l’assistant médical Nabla. Fin 2024, l’outil proposé par cette société permettant une prise de note automatisée dans le domaine médical avait été utilisé par plus de 230 000 médecins et 40 organisations de santé. Il avait permis la transcription de 7 millions de consultations.

À cette date, une étude a révélé que le logiciel avait inventé des phrases entières, faisant référence à des médicaments inexistants, comme « hyperactivated antibiotics », des commentaires non prononcés… le tout dans un contexte où tous les enregistrements audio des patients concernés avaient été effacés, rendant impossible une quelconque vérification a posteriori.

Cerner la tâche automatisable avec l’IA

À l’ère de l’IA, il faut dépasser les seuls critères de destruction d’emplois ou de potentiel d’automatisation pour évaluer chaque tâche selon trois dimensions complémentaires.

Dépendance opérationnelle

La première dimension concerne la dépendance opérationnelle, c’est-à-dire la façon dont la qualité d’une tâche impacte les tâches suivantes. Une forte dépendance, comme l’extraction de données servant à définir une stratégie, exige la prudence car les erreurs se propagent dans toute la chaîne. À l’inverse, une faible dépendance, comme la simple mise en forme d’un document, tolère mieux l’automatisation.

Connaissance non codifiable

La deuxième dimension évalue la part de connaissance non codifiable nécessaire à la tâche. Il s’agit de tout ce qui relève de l’expérience, de l’intuition et du jugement contextuel, impossible à traduire en règles explicites. Plus cette part est élevée, plus il faut maintenir un couplage étroit humain-machine pour interpréter les signaux faibles et mobiliser le discernement humain.

Réversibilité

La troisième dimension concerne la réversibilité, soit la capacité à corriger rapidement une erreur. Les tâches à faible réversibilité, comme un diagnostic médical préopératoire ou la gestion d’infrastructures critiques, exigent une supervision humaine forte, car une erreur peut avoir des conséquences graves. Les tâches réversibles, comme les brouillons ou l’exploration de pistes, acceptent davantage d’autonomie.

Quatre interactions avec une IA

Ces trois dimensions dessinent quatre modalités d’interaction avec l’IA, recommandées en fonction des tâches à effectuer.

L’automatisation est recommandée pour les tâches peu interdépendantes, réversibles et codifiables, comme la mise en forme, l’extraction de données ou les premiers jets.

La collaboration humain-machine convient aux situations de dépendance modérée, mais de haute réversibilité, où les erreurs peuvent être gérées, comme l’analyse exploratoire ou la recherche documentaire.

Certaines tâches demeurent du ressort exclusif de l’humain, du moins pour l’heure. Il s’agit notamment des décisions stratégiques qui cumulent une forte interdépendance des tâches, une part importante de connaissance non codifiable issue de l’expérience et une faible réversibilité des choix effectués.

Le chatbot de relation client d’Air Canada a commis des erreurs de tarification.
Miguel Lagoa/Shutterstock

La supervision inversée s’impose lorsque l’IA produit, mais que l’humain doit valider systématiquement, notamment en cas de forte dépendance ou de faible réversibilité. Le cas Air Canada montre que lâcher la bride à une IA dans un tel contexte est hautement dommageable. Ici, le chatbot de la compagnie aérienne avait affirmé qu’on pouvait demander rétroactivement un tarif spécifique lié à des évènements familiaux, ce qui s’est révélé totalement faux.

Attaquée en justice par le passager qui s’estimait trompé, la compagnie a été condamnée au motif qu’elle était l’entité responsable de l’IA et de son usage. Or, elle ne la supervisait pas. L’impact financier de cette condamnation peut sembler faible (le remboursement du passager), mais le coût tant en termes de réputation que pour l’actionnaire est loin d’avoir été négligeable.

Quatre compétences clés pour un manager

Chaque chaîne de valeur rassemble une grande variété de tâches qui ne se distribuent pas selon une logique uniforme : les quatre modalités d’automatisation se retrouvent entremêlées de manière hétérogène.

Le manager devient alors l’architecte de ces chaînes de valeur hybrides, et doit développer quatre compétences clés pour les piloter efficacement.

  • Il lui faut maîtriser l’ingénierie de workflows cognitifs, c’est-à-dire identifier avec précision où et comment injecter l’IA de manière optimale dans les processus.

  • Il doit être capable de diagnostiquer les interdépendances opérationnelles propres à chaque contexte, plutôt que d’appliquer mécaniquement des grilles d’analyse externes focalisées uniquement sur le coût du travail.

  • « Désintermédiation cognitive » : il s’agit d’orchestrer les nouveaux rapports au savoir créés par l’IA tout en préservant la transmission des compétences tacites qui font la richesse d’une organisation.

  • Le manager doit porter une éthique de la substitution, en arbitrant constamment entre l’efficience immédiate qu’offre l’automatisation et la préservation du capital humain sur le long terme.

Un paradoxe technique éclaire ces enjeux. Les modèles de raisonnement les plus avancés hallucinent paradoxalement plus que leurs prédécesseurs, révélant un arbitrage inhérent entre capacité de raisonnement et fiabilité factuelle. Cette réalité confirme que l’impact de l’IA sur le monde du travail ne peut se réduire à une simple liste de métiers condamnés à disparaître.

Les dimensions analytiques présentées ici offrent précisément un cadre pour dépasser les approches simplistes. Elles permettent de positionner le management dans un rôle nouveau : celui d’arbitre et d’urbaniste cognitif, capable de concevoir l’architecture des interactions humain-machine au sein de l’organisation.

Bien conduite, cette transformation peut enrichir l’expérience humaine du travail, au lieu de l’appauvrir.

The Conversation

Caroline Gans Combe a reçu des financements de l’Union Européenne dans le cadre de ses projets de recherche.

ref. Pourquoi l’IA oblige les entreprises à repenser la valeur du travail – https://theconversation.com/pourquoi-lia-oblige-les-entreprises-a-repenser-la-valeur-du-travail-268253

Quand l’IA fait n’importe quoi, le cas du gratte-ciel et du trombone à coulisse

Source: The Conversation – France in French (2) – By Frédéric Prost, Maître de conférences en informatique, INSA Lyon – Université de Lyon

Images générées par IA en réponse à la requête « Dessine-moi un gratte-ciel et un trombone à coulisse côte à côte pour qu’on puisse apprécier leur taille respective » (par ChatGPT à gauche, par Gemini à droite). CC BY

Une expérience relativement simple consistant à demander à une intelligence artificielle générative de comparer deux objets de tailles très différentes permet de réfléchir aux limites de ces technologies.


Les intelligence artificielle (IA) génératives font désormais partie de notre quotidien. Elles sont perçues comme des « intelligences », mais reposent en fait fondamentalement sur des statistiques. Les résultats de ces IA dépendent des exemples sur lesquels elles ont été entraînées. Dès qu’on s’éloigne du domaine d’apprentissage, on peut constater qu’elles n’ont pas grand-chose d’intelligent. Une question simple comme « Dessine-moi un gratte-ciel et un trombone à coulisse côte à côte pour qu’on puisse apprécier leurs tailles respectives » vous donnera quelque chose comme ça (cette image a été générée par Gemini) :

Sur l’image générée par IA on voit que le gratte ciel et le trombone à coulisse ont presque la même taille
Image générée par l’IA Gemini en réponse au prompt (la requête) : Dessine-moi un gratte-ciel et un trombone à coulisse côte à côte pour qu’on puisse apprécier leur taille respective.
Fourni par l’auteur

L’exemple provient du modèle de Google, Gemini, mais le début de l’ère des IA génératives remonte au lancement de ChatGPT en novembre 2022 et ne date que d’il y a trois ans. C’est une technologie qui a changé le monde et qui n’a pas de précédent dans son taux d’adoption. Actuellement ce sont 800 millions d’utilisateurs, selon OpenAI, qui chaque semaine, utilisent cette IA pour diverses tâches. On notera que le nombre de requêtes diminue fortement pendant les vacances scolaires. Même s’il est difficile d’avoir des chiffres précis, cela montre à quel point l’utilisation des IA est devenue courante. À peu près un étudiant sur deux utilise régulièrement des IA.

Les IA : des technologies indispensables ou des gadgets ?

Trois ans, c’est à la fois long et court. C’est long dans un domaine où les technologies évoluent en permanence, et court en termes sociétaux. Même si on commence à mieux comprendre comment utiliser ces IA, leur place dans la société n’est pas encore quelque chose d’assuré. De même la représentation mentale qu’ont ces IA dans la culture populaire n’est pas établie. Nous en sommes encore à une alternance entre des positions extrêmes : les IA vont devenir plus intelligentes que les humains ou, inversement, ce ne sont que des technologies tape-à-l’œil qui ne servent à rien.

En effet, un nouvel appel à faire une pause dans les recherches liées aux IA a été publié sur fond de peur liée à une superintelligence artificielle. De l’autre côté sont promis monts et merveilles, par exemple un essai récent propose de ne plus faire d’études, car l’enseignement supérieur serait devenu inutile à cause de ces IA.

Difficile de sortir de leurs domaines d’apprentissage

Depuis que les IA génératives sont disponibles, je mène cette expérience récurrente de demander de produire un dessin représentant deux objets très différents et de voir le résultat. Mon but par ce genre de prompt (requête) est de voir comment le modèle se comporte quand il doit gérer des questions qui sortent de son domaine d’apprentissage. Typiquement cela ressemble à un prompt du type « Dessine-moi une banane et un porte-avions côte à côte pour qu’on se rende compte de la différence de taille entre les deux objets ». Ce prompt en utilisant Mistral donne le résultat suivant :

L’IA génère une image d’une banane qui a la même taille qu’un porte-avions
Capture d’écran d’un prompt et de l’image générée par l’IA Mistral.
Fourni par l’auteur

À ce jour je n’ai jamais trouvé un modèle qui donne un résultat censé. L’image donnée en illustration ci-dessus (ou en tête de l’article) est parfaite pour comprendre comment fonctionnent ce type d’IA et quelles sont ses limites. Le fait qu’il s’agisse d’une image est intéressant, car cela rend palpables des limites qui seraient moins facilement discernables dans un long texte.

Ce qui frappe est le manque de crédibilité dans le résultat. Même un enfant de 5 ans voit que c’est n’importe quoi. C’est d’autant plus choquant qu’avec la même IA il est tout à fait possible d’avoir de longues conversations complexes sans pour autant qu’on ait l’impression d’avoir affaire à une machine stupide. D’ailleurs ce même type d’IA peut tout à fait réussir l’examen du barreau ou répondre avec une meilleure précision que des professionnels sur l’interprétation de résultats médicaux (typiquement, repérer des tumeurs sur des radiographies).

D’où vient l’erreur ?

La première chose à remarquer est qu’il est difficile de savoir à quoi on est confronté exactement. Si les composants théoriques de ces IA sont connus dans la réalité, un projet comme celui de Gemini (mais cela s’applique aussi aux autres modèles que sont ChatGPT, Grok, Mistral, Claude, etc.) est bien plus compliqué qu’un simple LLM couplé à un modèle de diffusion.

Un LLM est une IA qui a été entraînée sur des masses énormes de textes et qui produit une représentation statistique de ces derniers. En gros, la machine est entraînée à deviner le mot qui fera le plus de sens, en termes statistiques, à la suite d’autres mots (votre prompt).

Les modèles de diffusion qui sont utilisés pour engendrer des images fonctionnent sur un principe différent. Le processus de diffusion est basé sur des notions provenant de la thermodynamique : on prend une image (ou un son) et on ajoute du bruit aléatoire (la neige sur un écran) jusqu’à ce que l’image disparaisse, puis ensuite on fait apprendre à un réseau de neurones à inverser ce processus en lui présentant ces images dans le sens inverse du rajout de bruit. Cet aspect aléatoire explique pourquoi avec le même prompt le modèle va générer des images différentes.

Un autre point à considérer est que ces modèles sont en constante évolution, ce qui explique que le même prompt ne donnera pas le même résultat d’un jour à l’autre. De nombreuses modifications sont introduites à la main pour gérer des cas particuliers en fonction du retour des utilisateurs, par exemple.

À l’image des physiciens, je vais donc simplifier le problème et considérer que nous avons affaire à un modèle de diffusion. Ces modèles sont entraînés sur des paires images-textes. Donc on peut penser que les modèles de Gemini et de Mistral ont été entraînés sur des dizaines (des centaines ?) de milliers de photos et d’images de gratte-ciel (ou de porte-avions) d’un côté, et sur une grande masse d’exemples de trombone à coulisse (ou de bananes) de l’autre. Typiquement des photos où le trombone à coulisse est en gros plan. Il est très peu probable que, dans le matériel d’apprentissage, ces deux objets soient représentés ensemble. Donc le modèle n’a en fait aucune idée des dimensions relatives de ces deux objets.

Pas de « compréhension » dans les modèles

Les exemples illustrent à quel point les modèles n’ont pas de représentation interne du monde. Le « pour bien comparer leurs tailles » montre qu’il n’y a aucune compréhension de ce qui est écrit par les machines. En fait les modèles n’ont pas de représentation interne de ce que « comparer » signifie qui vienne d’ailleurs que des textes dans lesquels ce terme a été employé. Ainsi toute comparaison entre des concepts qui ne sont pas dans le matériel d’apprentissage sera du même genre que les illustrations données en exemple. Ce sera moins visible mais tout aussi ridicule. Par exemple, cette interaction avec Gemini « Considérez cette question simple : “Le jour où les États-Unis ont été établis est-il dans une année bissextile ou une année normale ?”. »

Lorsqu’il a été invoqué avec le préfixe CoT (Chain of Thought, une évolution récente des LLMs dont le but est de décomposer une question complexe en une suite de sous-questions plus simples), le modèle de langage moderne Gemini a répondu : « Les États-Unis ont été établis en 1776. 1776 est divisible par 4, mais ce n’est pas une année séculaire (de cent ans), c’est donc une année bissextile. Par conséquent, le jour où les États-Unis ont été établis était dans une année normale. »

On voit bien que le modèle déroule la règle des années bissextiles correctement, donnant par là même une bonne illustration de la technique CoT, mais il conclut de manière erronée à la dernière étape ! Ces modèles n’ont en effet pas de représentation logique du monde, mais seulement une approche statistique qui crée en permanence ce type de glitchs qui peuvent paraître surprenants.

Cette prise de conscience est d’autant plus salutaire qu’aujourd’hui, les IA écrivent à peu près autant d’articles publiés sur Internet que les humains. Ne vous étonnez donc pas d’être étonné par la lecture de certains articles.

The Conversation

Frédéric Prost ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quand l’IA fait n’importe quoi, le cas du gratte-ciel et du trombone à coulisse – https://theconversation.com/quand-lia-fait-nimporte-quoi-le-cas-du-gratte-ciel-et-du-trombone-a-coulisse-268033

Recul démocratique en Côte d’Ivoire : les élections laissent encore moins de place à la liberté

Source: The Conversation – in French – By Jesper Bjarnesen, Senior researcher, The Nordic Africa Institute

Les Ivoiriens se sont rendus aux urnes le 25 octobre 2025. Ils devaient choisir entre le président sortant Alassane Ouattara, qui visait un quatrième mandat, et quatre candidats n’ayant pas le soutien des grands partis d’opposition. Le choix était très limité, les trois principaux candidats de l’opposition ayant été interdits de se présenter. Ouattara a une nouvelle fois remporté une victoire écrasante au premier tour avec 89,77 % des voix.

Je suis chercheur. J’observe l’évolution politique en Côte d’Ivoire depuis 15 ans, et je participe actuellement à un projet sur les mouvements de boycott qui étudie le cas de la Côte d’Ivoire.

Cela éclaire ma lecture des élections présidentielles de 2025 et les perspectives démocratiques de la Côte d’Ivoire.

La Côte d’Ivoire est généralement considérée comme un leader régional en matière de performances économiques. Pourtant, les élections de 2025 poursuivent une tendance inquiétante de recul démocratique et de polarisation politique.

Les élections législatives du 27 décembre seront un test pour la résilience démocratique du pays.

Le contexte préélectoral

Au cours des mois qui ont précédé les élections présidentielles, les principaux candidats de l’opposition ont été exclus. Un certain désintérêt politique s’est alors installé dans un espace démocratique de plus en plus restreint.

Ouattara a annoncé sa candidature en août. Cela s’est fait malgré les objections généralisées à sa candidature pour un troisième mandat en 2020, tant au pays qu’à l’étranger.

Comme en 2020, ses détracteurs ont insisté sur le fait que Ouattara outrepassait son mandat constitutionnel d’un seul mandat présidentiel, renouvelable une fois. Il a fait valoir qu’une révision de 2016 lui donnait le droit de se présenter deux fois.

À l’approche du jour du scrutin, le paysage politique ivoirien était marqué par la polarisation, la répression et l’incertitude.

Les tensions se sont intensifiées début septembre lorsque le Conseil constitutionnel a disqualifiécinq candidats de l’opposition de premier plan. L’ancien président Laurent Gbagbo, Charles Blé Goudé et Guillaume Soro ont été exclus en raison de condamnations pénales antérieures. Les deux principaux challengers, Tidjane Thiam et Pascal Affi N’Guessan, ont été écartés pour des raisons de procédure.

Cette exclusion a quasiment assuré la victoire de Ouattara, dont la campagne s’est concentrée sur l’obtention d’une majorité absolue.

Début octobre, le Conseil national de sécurité a interdit les rassemblements publics, à l’exception de ceux organisés par les candidats officiels, au motif de « maintenir l’ordre public ». Il a également imposé des restrictions supplémentaires sur les mobilisations citoyennes. Il a utilisé la lettre de la loi pour servir les intérêts de Ouattara en limitant les manifestations contre sa candidature.

Malgré ces interdictions, les partis d’opposition ont appelé à des manifestations quotidiennes, mais les rassemblements étaient généralement peu nombreux et rapidement dispersés par les forces de sécurité.

Trois jours avant les élections, Gbagbo a dénoncé ce qu’il a qualifié de « coup d’État civil » et a exprimé son soutien à ceux qui « protestaient contre ce vol électoral ».

Le 11 octobre, des manifestants sont descendus dans les rues d’Abidjan. Ces actes de défiance ont conduit à quelque 700 arrestations et 80 peines de prison pour trouble à l’ordre public. Onze personnes ont été tuées lors d’affrontements entre les forces de sécurité et les manifestants.

Avec d’autres observateurs nationaux et internationaux, Amnesty International a dénoncé la répression des manifestations. Dans le même temps, le gouvernement a déployé 40 000 agents de sécurité à travers le pays.

La France, la Cedeao et l’UE sont restées largement silencieuses. Elles ont généralement privilégié la stabilité et les relations stratégiques avec le gouvernement ivoirien au détriment de la responsabilité démocratique. Cette passivité risque d’effriter davantage la crédibilité de ces acteurs internationaux tout en renforçant les discours sur le double standard occidental dans la région.

Alors que les partis d’opposition exclus ont tenté, sans grand succès, de mobiliser leurs partisans dans les rues, les candidats restants, représentant de petits partis ou coalitions récemment créés, ont adopté une stratégie différente.

La dirigeante du Mouvement des générations capables, Simone Ehivet Gbagbo (ancienne première dame, qui a divorcé de l’ex-président Gbagbo en 2023), a déploré l’élimination de son ex-mari. Mais dans les dernières semaines de la campagne, elle a insisté sur le fait qu’il était trop tard pour appeler les gens à descendre dans la rue.
Elle a plutôt appelé les gens à voter.

Jour du scrutin

Le jour du scrutin s’est déroulé dans le calme dans l’ensemble du pays, mais des affrontements violents ont éclaté dans plusieurs villes. Le président de la Commission électorale indépendante, Ibrahim Kuibiert Coulibaly, a qualifié ces incidents de « marginaux » et « rapidement maîtrisés ».

Si le résultat des élections n’a jamais fait de doute, le taux de participation était moins prévisible. Le taux de participation confirmé de 50,1 % montre que de nombreux électeurs sont restés chez eux, beaucoup par apathie, mais aussi par crainte des risques d’affrontements violents autour des bureaux de vote.

Les résultats provisoires annoncés le 27 octobre ont donné 89,77 % des voix à Ouattara. Tidjane Thiam et d’autres membres de l’opposition ont dénoncé un processus électoral truqué et polarisant, avec une participation insuffisante. Thiam a appelé à une résistance non violente et demandé au gouvernement d’engager un dialogue pour la réconciliation.

Le parti au pouvoir et les médias favorables à Ouattara ont qualifié le résultat de « victoire écrasante », célébrant en particulier les victoires de Ouattara dans les bastions historiques de l’opposition.

Trois jours après le scrutin, plusieurs dirigeants des principaux partis d’opposition ont été convoqués par la police au motif que des armes de guerre avaient été trouvées au domicile de personnes liées à la marche du 11 octobre.

Ainsi, même si l’on peut dire que les élections se sont déroulées sans incident majeur, l’absence de véritable compétition et les mesures prises pour restreindre l’opposition ont entaché la crédibilité du scrutin et l’héritage de M. Ouattara.

Quelles perspectives pour la démocratie ?

À court et moyen terme, les principaux partis d’opposition pourraient tenter de retrouver de l’influence lors des élections législatives du 27 décembre. Ils pourraient aussi reprendre leurs manifestations.

À long terme, Ouattara devrait s’orienter vers un autoritarisme assumé pour justifier une cinquième candidature en 2030. Il est plus probable qu’il passe la main à un successeur issu de son cercle rapproché.

Même si cela se produit, de sérieuses questions subsistent autour du cadre électoral. L’opposition affirme depuis longtemps que la commission électorale indépendante est partiale et favorise le président sortant.

La présidence de Ouattara est entachée par son bilan en matière de compétitions électorales partiales, de violence politique et d’insécurité, et par la réduction de l’espace d’expression publique.

Compte tenu de l’importance stratégique de la Côte d’Ivoire pour les pays du Nord, en tant que rare allié dans la sous-région, les acteurs internationaux n’auront pas grand-chose à dire sur ses performances démocratiques.

Les perspectives de réconciliation, de réforme politique et de transition pacifique en 2030 dépendront principalement du parti au pouvoir. Celui-ci devra encourager le dialogue et l’inclusion politique aux niveaux municipal, provincial et régional.

Les législatives du 27 décembre permettront de mieux mesurer le rapport de forces réel que l’élection présidentielle quia été entachée d’irrégularités.

Amelie Stelter, du département de recherche sur la paix et les conflits de l’université d’Uppsala, en Suède, a contribué à cet article.

The Conversation

Jesper Bjarnesen reçoit un financement du Conseil de recherche suédois (VR) dans le cadre de la subvention numéro VR2024-00989.

ref. Recul démocratique en Côte d’Ivoire : les élections laissent encore moins de place à la liberté – https://theconversation.com/recul-democratique-en-cote-divoire-les-elections-laissent-encore-moins-de-place-a-la-liberte-270700

Des souches bretonnes de streptocoques étudiées aux États-Unis et dans le monde pour mieux lutter contre ces bactéries virulentes

Source: The Conversation – in French – By Samer Kayal, Professeur des Universités- Praticien Hospitalier (Microbiologie), Université de Rennes 1 – Université de Rennes

L’équipe du Pr Samer Kayal a effectué, auprès de patients du CHU de Rennes, en Ille-et-Vilaine, un travail pionnier de collecte de « Streptococcus pyogenes », un pathogène responsable de 500 000 décès par an dans le monde, et d’une autre bactérie génétiquement proche (« Streptococcus dysgalactiae sous-espèce equisimilis ») réputée moins dangereuse. Dans le cadre d’une collaboration transatlantique, la perte de sensibilité de « S. pyogenes » aux antibiotiques a été découverte et le séquençage de l’ensemble des souches bretonnes ont été mises à la disposition de l’ensemble de la communauté des chercheurs.


En 1847, près de quinze ans avant la preuve de l’existence des microbes apportée par Louis Pasteur, un médecin du nom d’Ignace Semmelweis avait déjà eu une intuition : il pensait qu’un agent invisible, sans doute transmis par les mains des médecins, pouvait être responsable des infections graves chez les femmes après l’accouchement.

De cet agent, on sait aujourd’hui qu’il s’agissait d’une bactérie appelée Streptococcus pyogenes.

« Streptococcus pyogenes », c’est 500 000 décès par an dans le monde

Cette espèce bactérienne vit uniquement chez l’être humain. Elle peut se trouver dans la gorge ou sur la peau, sans forcément provoquer une infection. Mais parfois, elle cause des maladies bénignes, comme une angine (mal de gorge d’origine bactérienne), ou des infections graves, qui peuvent être mortelles si elles ne sont pas soignées à temps.

L’Organisation mondiale de la santé (OMS) estime que, chaque année, dans le monde, 700 millions d’infections sont provoquées par cette bactérie, dont 600 millions rien que pour la gorge. Et malheureusement, environ 500 000 personnes en meurent chaque année, ce qui en fait l’une des dix causes majeures de décès.

Il s’agit donc d’un véritable problème de santé publique. Malgré les recherches, il n’existe toujours pas de vaccin efficace contre cette bactérie. Heureusement, elle reste généralement sensible aux antibiotiques, en particulier aux pénicillines, qui font partie de la grande famille des bêta-lactamines.

Une sensibilité aux pénicillines qui risque de ne pas durer

Les bêta-lactamines agissent comme des verrous qui viennent bloquer des éléments essentiels pour la survie de la bactérie, l’empêchant de se multiplier et finissant par la tuer. Leur cible est une protéine spécifique (appelée PLP, pour « protéine liant la pénicilline »), indispensable à la construction de la paroi protectrice de la bactérie.

Schématiquement, quand l’antibiotique se fixe à la PLP, celle-ci n’est plus active et la bactérie meurt. Cependant, si la PLP est altérée du fait de mutations de son gène, il résulte une réduction de l’efficacité de la liaison des antibiotiques de la famille des bêta-lactamines à la PLP : la bactérie devient moins sensible à l’antibiotique, voire franchement résistante, comme c’est le cas pour d’autres espèces de streptocoques, notamment Streptococcus pneumoniae.

Streptococcus pyogenes est classiquement sensible aux bêta-lactamines. Par conséquent, les tests de sensibilité (antibiogrammes), qui sont réalisés afin de vérifier que ces antibiotiques seront efficaces pour soigner l’infection, ne sont pas toujours effectués avant de traiter les patients.

Pourtant certains laboratoires ont récemment [rapporté] une diminution de la sensibilité de la sensibilité de certaines souches de Streptococcus pyogenes aux bêta-lactamines par un mécanisme similaire : on aurait affaire à des mutations de la protéine PLP de la bactérie, qui seraient sans doute favorisées par un traitement mal adapté (dosages d’antibiotiques insuffisants, ou traitement mal suivi par les patients).

Une collecte de streptocoques auprès de patients du CHU de Rennes

Au CHU Ponchaillou-Université de Rennes, dès 2009, notre équipe de recherche a eu la clairvoyance de commencer à collecter tous les échantillons de cette bactérie parallèlement à ceux d’une autre espèce très proche génétiquement, appelée Streptococcus dysgalactiae sous-espèce equisimilis (SDSE). Ces échantillons provenaient de patients du département d’Ille-et-Vilaine, hospitalisés au CHU de Rennes.

Grâce à l’importance de cette collecte systématique, il a été possible de décrire en détail l’évolution des infections causées par cette bactérie au sein de la population de la région, sur une période d’une dizaine d’années. Ce travail a permis d’instaurer une étroite collaboration avec le Pr James Musser, un expert mondial de Streptococcus pyogenes basé à Houston, aux États-Unis.

L’analyse des gènes de toutes ces souches a montré que la bactérie Streptococcus pyogenes intégrait fréquemment des morceaux d’ADN provenant de SDSE (cette sous-espèce de bactérie proche génétiquement, ndlr). Plus préoccupant, ces recherches montraient pour la première fois, que ces échanges génétiques modifiaient considérablement la protéine PLP de S. pyogenes, [ce qui rendait la bactérie moins sensible] à de nombreux antibiotiques de la famille des bêta-lactamines.

Cette découverte importante tire une sonnette d’alarme : elle montre que la résistance de Streptococcus pyogenes aux antibiotiques de première ligne est probablement sous-estimée et qu’elle pourrait se propager.

Il est donc primordial de maintenir une surveillance permanente pour déceler rapidement l’apparition de bactéries résistantes et éviter qu’elles ne deviennent une menace pour la santé publique.

SDSE, une espèce bactérienne méconnue à ne pas sous-estimer

L’intérêt des scientifiques et des médecins s’est rapidement porté sur l’analyse des échantillons de bactérie SDSE recueillis pendant la même période que ceux de Streptococcus pyogenes.

Depuis quelques années, de nombreuses équipes à travers le monde signalent en effet une augmentation surprenante des infections graves à SDSE, correspondant probablement à la diffusion d’une souche particulière de SDSE (appelée « stG62647 »). Jusqu’alors, cette espèce bactérienne était très peu étudiée car on la considérait surtout comme un simple « résident » inoffensif de la peau ou de la gorge, rarement responsable d’infections sévères.

Grâce à la collaboration transatlantique des équipes rennaise et états-unienne, l’analyse génétique d’environ 500 échantillons collectés à Rennes a permis de dater précisément la première détection de cette souche particulière stG62647 : elle serait apparue en 2013 et se serait rapidement répandue dans la région de l’Ille-et-Vilaine. Il s’agit d’une souche très homogène génétiquement, ce qui signifie qu’elle descend récemment d’un « ancêtre » commun particulièrement bien adapté à son hôte, l’être humain.

La sévérité de l’infection liée aux caractéristiques du malade

Un travail effectué en laboratoire afin de mieux comprendre les différentes étapes du processus infectieux par SDSE a permis aux chercheurs de prendre conscience de la complexité des mécanismes de virulence. Ils ont également soulevé un paradoxe : malgré leur grande similitude génétique, les SDSE présentent des niveaux de dangerosité (virulence) très variables.

Cette découverte suggère que la gravité des infections dépend de mécanismes de régulation complexes de la bactérie, qui sont liés à la manière dont elle interagit avec la personne qu’elle infecte.

En d’autres termes, la sévérité de l’infection ne dépend pas seulement de la bactérie elle-même, mais aussi des caractéristiques propres à chaque personne infectée. C’est ce que les chercheurs ont décrypté dans leur dernière publication sur le sujet.

Des implications importantes pour la santé publique

Riches de l’expérience acquise sur S. pyogenes, ces travaux pionniers sur cette autre bactérie SDSE révèlent que de nombreux secrets restent à découvrir pour les deux bactéries. Mais d’ores et déjà, les implications de ces résultats sont importantes pour :

  1. le diagnostic et la surveillance de la résistance aux antibiotiques, car les laboratoires doivent désormais être plus vigilants pour détecter les souches résistantes ;

  2. la surveillance continue des infections pour prévenir l’émergence de nouveaux clones bactériens virulents ;

  3. le développement de nouveaux traitements, car la compréhension des mécanismes de virulence ouvre la voie à de nouvelles cibles thérapeutiques et à d’éventuelles nouvelles approches vaccinales.

Un modèle de recherche collaborative efficace pour la santé

Cette collaboration franco-états-unienne illustre l’importance de combiner différentes approches : surveillance de terrain, analyse génétique, étude de l’expression des gènes et tests sur les organismes.

Les chercheurs ont ainsi mis à disposition de la communauté scientifique internationale l’ensemble des données génétiques des souches bretonnes, ce qui va faciliter les recherches futures sur ces bactéries d’intérêt croissant en santé publique.

Cette recherche dite « translationnelle » – qui va du laboratoire au patient (from bench to bedside, en anglais) – est très efficace pour mieux anticiper les crises infectieuses futures. Elle permet d’adapter nos stratégies de prévention et de traitement face à l’évolution constante des agents pathogènes.

The Conversation

Samer Kayal ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Des souches bretonnes de streptocoques étudiées aux États-Unis et dans le monde pour mieux lutter contre ces bactéries virulentes – https://theconversation.com/des-souches-bretonnes-de-streptocoques-etudiees-aux-etats-unis-et-dans-le-monde-pour-mieux-lutter-contre-ces-bacteries-virulentes-265808