Hacking the grid: How digital sabotage turns infrastructure into a weapon

Source: The Conversation – USA – By Saman Zonouz, Associate Professor of Cybersecurity and Privacy and Electrical and Computer Engineering, Georgia Institute of Technology

Today’s power grid equipment incorporates internet-connected – and therefore hackable – computers. Joe Raedle/Getty Images

The darkness that swept over the Venezuelan capital in the predawn hours of Jan. 3, 2026, signaled a profound shift in the nature of modern conflict: the convergence of physical and cyber warfare. While U.S. special operations forces carried out the dramatic seizure of Venezuelan President Nicolás Maduro, a far quieter but equally devastating offensive was taking place in the unseen digital networks that help operate Caracas.

The blackout was not the result of bombed transmission towers or severed power lines but rather a precise and invisible manipulation of the industrial control systems that manage the flow of electricity. This synchronization of traditional military action with advanced cyber warfare represents a new chapter in international conflict, one where lines of computer code that manipulate critical infrastructure are among the most potent weapons.

To understand how a nation can turn an adversary’s lights out without firing a shot, you have to look inside the controllers that regulate modern infrastructure. They are the digital brains responsible for opening valves, spinning turbines and routing power.

For decades, controller devices were considered simple and isolated. Grid modernization, however, has transformed them into sophisticated internet-connected computers. As a cybersecurity researcher, I track how advanced cyber forces exploit this modernization by using digital techniques to control the machinery’s physical behavior.

Hijacked machines

My colleagues and I have demonstrated how malware can compromise a controller to create a split reality. The malware intercepts legitimate commands sent by grid operators and replaces them with malicious instructions designed to destabilize the system.

For example, malware could send commands to rapidly open and close circuit breakers, a technique known as flapping. This action can physically damage massive transformers or generators by causing them to overheat or go out of sync with the grid. These actions can cause fires or explosions that take months to repair.

Simultaneously, the malware calculates what the sensor readings should look like if the grid were operating normally and feeds these fabricated values back to the control room. The operators likely see green lights and stable voltage readings on their screens even as transformers are overloading and breakers are tripping in the physical world. This decoupling of the digital image from physical reality leaves defenders blind, unable to diagnose or respond to the failure until it is too late.

people wearing hardhats in front of electrical equipment the size of a small house
Today’s electrical transformers are accessible to hackers.
GAO

Historical examples of this kind of attack include the Stuxnet malware that targeted Iranian nuclear enrichment plants. The malware destroyed centrifuges in 2009 by causing them to spin at dangerous speeds while feeding false “normal” data to operators.

Another example is the Industroyer attack by Russia against Ukraine’s energy sector in 2016. Industroyer malware targeted Ukraine’s power grid, using the grid’s own industrial communication protocols to directly open circuit breakers and cut power to Kyiv.

More recently, the Volt Typhoon attack by China against the United States’ critical infrastructure, exposed in 2023, was a campaign focused on pre-positioning. Unlike traditional sabotage, these hackers infiltrated networks to remain dormant and undetected, gaining the ability to disrupt the United States’ communications and power systems during a future crisis.

To defend against these types of attacks, the U.S. military’s Cyber Command has adopted a “defend forward” strategy, actively hunting for threats in foreign networks before they reach U.S. soil.

Domestically, the Cybersecurity and Infrastructure Security Agency promotes “secure by design” principles, urging manufacturers to eliminate default passwords and utilities to implement “zero trust” architectures that assume networks are already compromised.

Supply chain vulnerability

Nowadays, there is a vulnerability lurking within the supply chain of the controllers themselves. A dissection of firmware from major international vendors reveals a significant reliance on third-party software components to support modern features such as encryption and cloud connectivity.

This modernization comes at a cost. Many of these critical devices run on outdated software libraries, some of which are years past their end-of-life support, meaning they’re no longer supported by the manufacturer. This creates a shared fragility across the industry. A vulnerability in a single, ubiquitous library like OpenSSL – an open-source software toolkit used worldwide by nearly every web server and connected device to encrypt communications – can expose controllers from multiple manufacturers to the same method of attack.

Modern controllers have become web-enabled devices that often host their own administrative websites. These embedded web servers present an often overlooked point of entry for adversaries.

Attackers can infect the web application of a controller, allowing the malware to execute within the web browser of any engineer or operator who logs in to manage the plant. This execution enables malicious code to piggyback on legitimate user sessions, bypassing firewalls and issuing commands to the physical machinery without requiring the device’s password to be cracked.

The scale of this vulnerability is vast, and the potential for damage extends far beyond the power grid, including transportation, manufacturing and water treatment systems.

Using automated scanning tools, my colleagues and I have discovered that the number of industrial controllers exposed to the public internet is significantly higher than industry estimates suggest. Thousands of critical devices, from hospital equipment to substation relays, are visible to anyone with the right search criteria. This exposure provides a rich hunting ground for adversaries to conduct reconnaissance and identify vulnerable targets that serve as entry points into deeper, more protected networks.

The success of recent U.S. cyber operations forces a difficult conversation about the vulnerability of the United States. The uncomfortable truth is that the American power grid relies on the same technologies, protocols and supply chains as the systems compromised abroad.

The U.S. power grid is vulnerable to hackers.

Regulatory misalignment

The domestic risk, however, is compounded by regulatory frameworks that struggle to address the realities of the grid. A comprehensive investigation into the U.S. electric power sector my colleagues and I conducted revealed significant misalignment between compliance with regulations and actual security. Our study found that while regulations establish a baseline, they often foster a checklist mentality. Utilities are burdened with excessive documentation requirements that divert resources away from effective security measures.

This regulatory lag is particularly concerning given the rapid evolution of the technologies that connect customers to the power grid. The widespread adoption of distributed energy resources, such as residential solar inverters, has created a large, decentralized vulnerability that current regulations barely touch.

Analysis supported by the Department of Energy has shown that these devices are often insecure. By compromising a relatively small percentage of these inverters, my colleagues and I found that an attacker could manipulate their power output to cause severe instabilities across the distribution network. Unlike centralized power plants protected by guards and security systems, these devices sit in private homes and businesses.

Accounting for the physical

Defending American infrastructure requires moving beyond the compliance checklists that currently dominate the industry. Defense strategies now require a level of sophistication that matches the attacks. This implies a fundamental shift toward security measures that take into account how attackers could manipulate physical machinery.

The integration of internet-connected computers into power grids, factories and transportation networks is creating a world where the line between code and physical destruction is irrevocably blurred.

Ensuring the resilience of critical infrastructure requires accepting this new reality and building defenses that verify every component, rather than unquestioningly trusting the software and hardware – or the green lights on a control panel.

The Conversation

Saman Zonouz receives funding from the Department of Energy Office of Cybersecurity, Energy Security, and Emergency Response (DOE CESER) and the National Science Foundation (NSF).

ref. Hacking the grid: How digital sabotage turns infrastructure into a weapon – https://theconversation.com/hacking-the-grid-how-digital-sabotage-turns-infrastructure-into-a-weapon-272874

‘Expertise’ shouldn’t be a bad word – expert consensus guides science and society

Source: The Conversation – USA – By Micah Altman, Research Scientist, MIT Libraries, Massachusetts Institute of Technology (MIT)

Training and experience are the foundation for a group of experts to provide solid guidance. Tashi-Delek/E+ via Getty Images

A growing distrust of expertise is reshaping the terrain of science in the United States.

Since the pandemic, the partisan divide over science has widened dramatically. While 77% of Americans have at least a fair amount of confidence that scientists act in the best interests of the public, that breaks down to 90% of Democrats and 65% of Republicans.

If people think scientists are trying to impose their political beliefs rather than expressing honest scientific judgments in the pursuit of truth, public trust in expert consensus will continue to erode.

With recent events, such as Robert F. Kennedy Jr. replacing the expert vaccine panel at the Department of Health and Human Services, and the Trump administration threatening to withdraw research funding from universities that don’t follow its ideological dictates, the political divide in public perception may grow even deeper.

As social scientists who study the role of science in society, we are deeply concerned about the decline of public trust in expertise, which is often fueled by politicians who manipulate people’s suspicions about experts. Skepticism is sometimes justified, of course. But a system based on expertise is the best one modern democracies have come up with to offer guidance on the various complex issues they face.

younger man smiles putting on a short white doctor's coat with two older men behind
Education and training within accredited programs help people gain expertise.
Anthony Souffle/Star Tribune via Getty Images

Who is an expert?

Before you can place your trust in a community of experts, you need a way to determine who counts as an expert. Modern societies usually do this through a sequence of training within accredited schools and universities – institutions whose reputations depend on their ability to train reliable and trustworthy experts.

Unlike the ancient alchemists’ guilds or modern elites, science is not secret, nor gated by family descent or social ties. Today anyone is permitted to become a scientific expert by attaining academic degrees and certifications and establishing a public track record of published research, teaching and contributions to one’s field.

The government also plays a critical role by requiring doctors or engineers to hold certain degrees or by granting universities formal quality certifications, such as accreditation. As an individual, you can’t evaluate the trustworthiness of every person claiming to have expertise – whether a heart surgeon or an electrician. The governmental license carried by these professionals makes that unnecessary.

In any field of knowledge, there is a web of legitimacy, knotted together by visible signals of trust, such as degrees, publications, affiliations and accreditations. Expertise is a team sport.

What is expert consensus?

The most reliable guidance is based on a rigorous group decision-making process, in which people with diverse training and experience contribute their expertise to a dialogue aimed at reaching consensus. The scientific approach to consensus is transparent and deliberate: Scientific consensus processes – such as the National Academies consensus study process, or a PRISMA review – are systematic in incorporating the credible evidence that is available and synthesizing different expert judgments.

The system, honed over decades, is based on the theory that better decisions can be achieved by systematically aggregating many independent opinions – if the group is well trained, draws from a common body of evidence, relies on a common understanding of research practices, and each of its members are able to independently weigh the evidence.

Such communities of experts arise in many settings, from engineers recommending building codes to epidemiologists proposing policies to contain a viral epidemic.

An expert community doesn’t need everyone to be right – or even to agree – in every case for the process to generate useful results. As long as each person is usually right and the community deliberates systematically on the basis of reason and evidence, the resulting consensus will be the best that can be achieved within the limits of current knowledge.

In short, expert consensus requires trained experts, common evidence and systematic deliberation.

Professional consensus vs. individual opinion

Expert consensus doesn’t mean that experts agree on everything, or that everyone must agree with the experts. In a democracy, expert advice is valuable, but it’s not the last word.

The U.S. Bill of Rights enshrines the idea that freedom of speech is fundamental to good government and to leading good lives. But there’s a distinction between speaking one’s mind and speaking from authority. Experts have a right to express their personal opinions and also a duty to exercise care when speaking in areas of their expertise.

This distinction is at issue in the Chiles vs Salazar case before the Supreme Court. It centers on a Colorado state law that prohibits so-called “conversion therapy” for gay or trans children.

Does doing so violate the free speech rights of therapists? It’s not illegal to believe trans children can be talked out of being trans, it’s just illegal to pursue that practice as a licensed professional, because medical experts have reached a consensus that conversion therapy is both useless and harmful.

Expert consensus is necessary to make sound decisions based on science and evidence, but that doesn’t mean experts must abstain from politics or refrain from expressing dissenting opinions. In fact, political restrictions on scientific debate weaken science, as seen in repressive societies.

people seated around a meeting-room table seen through a glass wall
Experts can disagree in good faith – and that doesn’t mean the system doesn’t work.
FangXiaNuo/E+ via Getty Images

What does expert consensus provide?

In our fractious political climate, people sometimes think divergent expert opinions mean that consensus does not exist, or no experts can be trusted. Some people say, “Do your own research,” which often leads to rejecting consensus and falling victim to conspiracies and disinformation.

In practice, consensus is compatible with substantial disagreement. In many fields, scientific consensus deals with broad patterns rather than individual cases. For example, medical experts may agree on the nature of a specific condition, and the average efficacy of a given treatment, yet make different predictions about the benefits for a specific patient.

Society faces pressing questions about the behavior of complex and uncertain systems: How much is climate likely to change if CO₂ emissions continue at the current rate – and what ecological changes should we expect? What accounts for changing cancer rates – and what are the most promising paths to develop a broad “cure”? Are AIs developing intelligence and self-awareness – and how can they be designed to be behave safely? What social institutions are essential for human flourishing – and how can they be preserved?

It’s the fundamental role of democratic government to determine which goals we as a society pursue and how to balance competing values. And when we face high-stakes issues involving complex systems and uncertain approaches, scientific expert consensus can act as an honest broker to provide a menu of possible approaches and predictions for each one’s likely consequences.

The Conversation

Micah Altman received research funding from the National Science Foundation and the Andrew W Mellon Foundation to conduct research related to the science of science, and related to open science.

Philip N. Cohen does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. ‘Expertise’ shouldn’t be a bad word – expert consensus guides science and society – https://theconversation.com/expertise-shouldnt-be-a-bad-word-expert-consensus-guides-science-and-society-271467

Comment dépolluer les friches industrielles face à la défiance des habitants ?

Source: The Conversation – in French – By Cecile Bazart, Maîtresse de conférences, Université de Montpellier

Près de huit Français sur dix vivent à proximité d’une friche polluée. Malgré les opérations de dépollution, les politiques de reconversion et l’objectif zéro artificialisation nette (ZAN), plusieurs milliers de sites restent à l’abandon. Entre incertitudes techniques, coûts de dépollution cachés et mémoire collective, la confiance des habitants reste difficile à restaurer.


Vous vivez peut-être, sans le savoir, à proximité d’une friche polluée : c’est le cas de près de huit Français sur dix. Malgré les politiques de reconversion engagées ces dernières années, notamment dans le cadre de France Relance (2020-2022) et des dispositifs mis en place par l’Agence de la transition écologique (Ademe), ces friches existent toujours. Selon les données de l’inventaire national Cartofriches, plus de 9 000 friches sont encore en attente de projets de reconversion en France en 2026.

Anciennes usines, décharges, casernes militaires, zones portuaires ou ferroviaires, mais aussi hôpitaux, écoles ou équipements de services… Les friches sont, par nature, très diverses. Elles sont majoritairement héritées de notre passé industriel. Mais certaines concernent des activités de services actuelles qui ont été implantées sur d’anciens terrains industriels déjà contaminés, comme l’illustre l’ancien site Kodak à Vincennes (Val-de-Marne).

Rue des vignerons à Vincennes (Val-de-Marne), l’usine Pathé fabrique en 1902 des supports et émulsions chimiques pour le cinéma et la photographie. Elle deviendra plus tard l’usine Kodak.

Au-delà de leur emprise physique, certaines friches ont marqué durablement les territoires et les mémoires collectives. Certains noms sont aujourd’hui associés à des pollutions persistantes, voire à des crises sociales, comme Métaleurop, Péchiney, Florange ou encore AZF.

Ces sites abandonnés, bâtis ou non, mais nécessitant des travaux avant toute réutilisation font l’objet de transformations variées : logements, jardins, bureaux, centres commerciaux ou espaces culturels, à l’instar de la friche de la Belle-de-Mai dans le 3ᵉ arrondissement de Marseille. À l’heure où la France s’est engagée vers l’objectif zéro artificialisation nette (ZAN), la reconversion des friches est un enjeu majeur pour les territoires afin de limiter l’étalement urbain et promouvoir l’attractivité des territoires.

Pourtant, malgré les opérations de dépollution, beaucoup peinent à retrouver un usage. Pourquoi ? Parce que dépolluer un sol ne suffit pas à effacer un passé ni à restaurer la confiance des habitants.

Dépolluer : une étape indispensable mais complexe

Avant d’être réaménagée, une friche polluée fait l’objet de diagnostics des sols qui débouchent le plus souvent sur l’élaboration d’un plan de gestion. Ce document définit les mesures nécessaires pour rendre le site compatible avec l’usage envisagé : excavations des terres polluées, confinement sous des dalles ou des enrobés, gestion des eaux, surveillance dans le temps, ou encore restrictions d’usage.

Son contenu dépend de l’usage futur. Transformer une friche en entrepôt logistique n’implique pas les mêmes exigences que la création d’une école. Plus l’usage est dit « sensible » et plus les exigences sanitaires sont élevées. En France, la dépollution ne vise donc pas à un retour à un sol totalement exempt de pollution. Elle repose sur un arbitrage entre pollution résiduelle, exposition potentielle et usages futurs.

À cela s’ajoute une réalité souvent sous-estimée : le coût de la dépollution est très variable et est rarement connu avec précision dès le départ.

Selon les caractéristiques du site, les polluants, leur profondeur et les usages envisagés, les coûts peuvent devenir exponentiels. En cas de découvertes fortuites (amiante caché dans des remblais ou concentrations en métaux lourds plus élevées que prévu), le plan de gestion est modifié. Autrement dit, dépolluer est souvent simple sur le papier, mais beaucoup plus incertain dans la réalité, avec potentiellement des coûts cachés.




À lire aussi :
En Moselle, on dépollue les sols d’une friche sidérurgique grâce aux plantes


Le stigmate, angle mort de la reconversion

Cette incertitude technique n’est pas sans effet sur la perception des habitants, qui voient parfois ressurgir au fil des travaux les traces d’un passé que l’on pensait maîtriser. Même après des travaux conformes aux normes, de nombreuses friches peinent à attirer habitants, usagers ou investisseurs.

C’est ce que l’on appelle « l’effet de stigmate ». Un site reste associé à son passé, à des pollutions médiatisées ou à des crises sanitaires et sociales qui ont marqué les esprits.

Autrement dit le passé continue de se conjuguer au présent. Le sol est assaini, mais la mémoire collective, elle, ne l’est pas. Pour filer la métaphore, la friche devient un présent imparfait : juridiquement réhabilitée, mais symboliquement suspecte. Ce stigmate a des effets concrets : inoccupations ou sous-utilisations prolongées et oppositions locales, par exemple.

Pour objectiver cette défiance, nous avons mené une enquête auprès de 803 habitants vivant à proximité d’une friche polluée, répartis dans 503 communes françaises. Les résultats sont sans appel : près de 80 % des personnes interrogées se déclarent insatisfaites de la manière dont sont gérées et reconverties les friches polluées en France.

Cette insatisfaction est plus forte parmi les personnes percevant les sols comme fortement contaminés ayant déjà été confrontées à des situations de pollution ou exprimant une faible confiance dans les actions de l’État. Elles se déclarent également plus réticentes à utiliser ou à investir les sites une fois réhabilités.




À lire aussi :
Comment redonner une nouvelle vie aux friches industrielles en ville ?


Un décalage entre gestion technique et perceptions

Ces résultats révèlent un décalage entre la gestion technique des friches et la manière dont elles sont perçues par les habitants. Sur le plan réglementaire, un site peut être déclaré compatible avec l’usage prévu, mais sur le plan social, il peut rester perçu comme risqué.

Plusieurs mécanismes expliquent ce décalage.

  • Le premier tient à l’invisibilité de la pollution des sols. Contrairement à un bâtiment délabré, un sol dépollué ne se voit pas, ce qui peut alimenter le doute.

  • La mémoire collective joue également un rôle central. Les friches polluées sont souvent associées à un passé industriel lourd, parfois marqué par des scandales sanitaires ou des crises sociales qui laissent des traces durables dans les représentations.

  • Enfin, le manque d’information peut renforcer la suspicion. Les notions de pollution résiduelle ou de plan de gestion peuvent en effet être difficiles à appréhender pour les non-spécialistes. Or, lorsqu’une pollution n’est pas totalement supprimée, le message peut être mal compris et perçu comme un danger dissimulé.

Ainsi, même si les solutions techniques sont solides, le stigmate persiste. Pourtant, sans confiance des populations, point de reconversion durable.

Ces résultats soulignent un point essentiel : la reconversion des friches polluées ne repose pas uniquement sur la qualité des travaux de dépollution. Elle dépend tout autant de la capacité à instaurer un climat de confiance. Cela suppose une information claire, transparente et accessible, expliquant non seulement ce qui a été fait, mais aussi ce qui reste en place et pourquoi. Cela implique d’associer les riverains aux projets, en amont, afin qu’ils ne découvrent pas les transformations une fois les décisions prises. Enfin, cela nécessite de reconnaître le poids du passé et de la mémoire locale, plutôt que de chercher à l’effacer.

Dans un contexte de zéro artificialisation nette (ZAN), les friches polluées constituent une opportunité foncière. Mais sans prise en compte des dimensions sociales et symboliques, les solutions techniques, aussi performantes soient-elles, risquent fort de rester insuffisantes. Dépolluer les sols est indispensable. Instaurer ou restaurer la confiance des habitants l’est tout autant.




À lire aussi :
Sur les terrils miniers du Nord-Pas-de-Calais, la naissance d’une niche écologique inédite


The Conversation

L’enquête détaillée dans l’article a été financée par l’Université de Montpellier.

Marjorie Tendero a reçu un co-financement de sa thèse en sciences économiques par l’ADEME et la Région Pays de la Loire (2014-2017).

ref. Comment dépolluer les friches industrielles face à la défiance des habitants ? – https://theconversation.com/comment-depolluer-les-friches-industrielles-face-a-la-defiance-des-habitants-273723

En Moselle, on dépollue les sols d’une friche sidérurgique grâce aux plantes

Source: The Conversation – in French – By Sonia Henry, Chercheuse, Université de Lorraine

Le tabouret bleu (_Noccaea caerulescens_) est une plante capable d’extraire du zinc, du cadmium et du nickel des sols. Madeleine Dugois, CC BY-NC-SA

La phytoremédiation est une technique de dépollution naturelle fondée sur l’utilisation de plantes pour gérer différents polluants présents dans les sols. Prometteuse, mais encore expérimentale, cette méthode est testée sous plusieurs modalités par des scientifiques à Uckange, en Moselle, sur la friche d’une ancienne usine sidérurgique.


À l’échelle de l’Europe, 62 % des sols sont aujourd’hui considérés comme dégradés, selon l’Observatoire européen des sols – EUSO. L’enjeu est de taille : les sols, que nous avons longtemps réduits à un rôle de simple support, jouent en réalité de très nombreuses fonctions pour le vivant. Celles-ci sont traduites en services écosystémiques rendus à l’humain : fourniture d’aliments, de fibres, de combustibles, pollinisation, régulation du climat ou encore la purification de l’eau, etc.

Ces biens et services, que nos sols dégradés ne fournissent plus correctement, engendrent notamment une baisse de la production agricole et de la qualité des aliments et de l’eau. Parmi les causes de cette dégradation figurent en bonne place les pollutions d’origine anthropique. Par exemple, l’utilisation de produits phytosanitaires, d’hydrocarbures (stations-service) ou encore pollutions industrielles.

Les polluants peuvent engendrer des problématiques de santé publique et tendent à se propager dans l’environnement, dans les sols, mais aussi, sous certaines conditions, vers les eaux et dans la chaîne alimentaire. Leur élimination est donc cruciale. Pour agir au niveau du sol, il existe trois grandes catégories de traitements : physiques, chimiques et biologiques. La sélection s’opère en fonction de différents paramètres, comme l’hétérogénéité et les teneurs en contaminants, l’étendue de la pollution, l’encombrement du site, les contraintes de temps, le bilan carbone de l’opération ou encore l’acceptabilité du projet par les riverains.

De plus en plus de projets de recherche explorent les traitements biologiques fondés sur la phytoremédiation : la dépollution par des plantes.

C’est notamment le cas à Uckange, en Moselle, où un ancien site sidérurgique est devenu un laboratoire à ciel ouvert permettant de tester ces méthodes, à travers une initiative portée par la Communauté d’agglomération du Val de Fensch en partenariat avec l’Université de Lorraine, l’Inrae et le Groupement d’intérêt scientifique requalification des territoires dégradés : interdisciplinarité et innovation (Gifsi).

Les vertus de la phytoremédiation

Commençons par expliquer ce que l’on entend par « phytoremédiation ».

Mécanismes d’absorption des métaux lourds par les plantes grâce à la phytoremédiation.
Bieby Voijant Tangahu et al, CC BY

Il s’agit de sélectionner des végétaux appropriés qui vont, via leurs systèmes racinaires et parfois leurs parties aériennes, permettre de dégrader les polluants organiques (phyto et/ou rhizodégradation), d’extraire les polluants minéraux (phytoextraction), de les stabiliser dans les sols afin d’éviter une mobilité et/ou une biodisponibilité (phytostabilisation) ou même de les volatiliser pour certains d’entre eux (phytovolatilisation).

Le choix des espèces végétales va dépendre, entre autres, des caractéristiques physico-chimiques du sol (potentiel agronomique, contaminant ciblé et teneur), du climat et de leurs capacités à être maîtrisées (non envahissante). Pour ce projet, leurs potentiels de valorisation à la suite de l’action de dépollution ont également été pris en compte.

Le miscanthus géant aide la dégradation de certains hydrocarbures dans les sols.
geograph.org.uk, CC BY-NC-SA

Certaines plantes sont par ailleurs particulièrement intéressantes pour leur capacité à dépolluer le sol de plusieurs éléments à la fois : le tabouret bleu (Noccaea caerulescens), par exemple, peut extraire d’importantes quantités de zinc, mais aussi de cadmium et de nickel.

Le miscanthus géant (Miscanthus x giganteus) stimule, quant à lui, la microflore du sol pour dégrader les hydrocarbures totaux ou les hydrocarbures aromatiques polycycliques.

L’association de la luzerne (Medicago sativa) à la fétuque élevée (Festuca arundinacea) permet en parallèle, grâce à la microflore du sol, l’élimination de plusieurs molécules de polychlorobiphényles




À lire aussi :
La phytoremédiation : quand les plantes dépolluent les sols


La friche d’Uckange, laboratoire à ciel ouvert

Le parc U4, à Uckange, est un ancien site sidérurgique multicontaminé. Il est également classé à l’inventaire supplémentaire des monuments historiques.

Depuis quelques années, une initiative baptisée les jardins de transformation – accessible au public lors de visites guidées – a pour objectif de tester différentes modalités de phytoremédiation. Sur deux hectares de ce site qui en compte douze – les scientifiques explorent la dépollution par les plantes, en association avec des microorganismes présents dans les sols et qui participent également à ce processus de décontamination.

L’usine d’Uckange et son quatrième haut fourneau sont désormais un monument historique qui peut être visité par le grand public.
Benjism89, CC BY-NC-SA

Quand cela était possible, une première phase d’essai en laboratoire a été menée avant l’implantation sur site. Il s’agissait d’expérimentations sous conditions contrôlées (température, humidité, luminosité avec des cycles jour-nuit). L’objectif était de sélectionner les espèces végétales potentielles candidates à un usage pour la phytoremédiation. Après la validation de cette phase en laboratoire, des essais en conditions réelles ont été mis en place.

Depuis 2022, différentes modalités de phytoremédiation sont testées au travers des jardins de transformation. Ce site, qui est contaminé à la fois en éléments traces métalliques (cuivre, zinc, nickel, chrome…) et en polluants organiques (hydrocarbures totaux, hydrocarbures aromatiques polycycliques), accueille, pour le moment, 7 modalités, toutes en co-culture.

Par exemple, des jardins-forêts ont été installés sur trois parcelles du site, représentant environ 750 m2. Une vingtaine d’espèces végétales comestibles de différentes strates (arbres, arbustes, herbacées, légumes racines, lianes) ont été installées afin de tester la capacité de ces associations végétales à dépolluer les sols. De quoi récolter des informations précieuses à l’avenir sur l’éventuel transfert des polluants du sol vers les parties comestibles de ces plantes, qui n’a pas encore été étudié.

Les espèces végétales présentes naturellement sur le site sont également suivies afin de comprendre le mode de recolonisation de ces espaces dégradés et estimer l’implication des 200 plantes identifiées dans l’amélioration de la qualité des sols et la dépollution.




À lire aussi :
Peut-on rendre la forêt « nourricière » ? La proposition du jardin-forêt


Associer plantes d’extraction et de dégradation

Une autre originalité du projet est d’associer, pour la première fois, des procédés de phytoextraction et de phyto/rhizodégradation. Jusqu’à présent, seule une espèce végétale capable de traiter un contaminant était mise en place sur un sol. Ici, nous misons sur des co-cultures de végétaux. L’enjeu est d’améliorer l’efficacité de dépollution, mais aussi les fonctions du sol (qualité agronomique, biodiversité, stockage carbone).

L’innovation réside, ici, dans l’association de Miscanthus x giganteus, qui favorise la dégradation des molécules organiques, avec des espèces de la famille des Brassicaceae capables d’extraire les éléments traces métalliques.

Pour chacune des phases et pour tester l’efficience des processus en conditions réelles, des analyses sur le sol, en amont et après les cycles de cultures, sont réalisées dans le but d’évaluer :

  • la diminution des teneurs en contaminants,

  • l’amélioration de la qualité agronomique,

  • et l’augmentation de la biodiversité microbienne.

La biomasse végétale produite sur site est également caractérisée afin d’estimer son application dans les processus de dépollution (notamment la phytoextraction) et d’évaluer la possibilité de valorisation de cette matière première produite sur site dégradé.

Les premiers résultats seront publiés dans les prochains mois.

Bénéfices collatéraux de la phytoremédiation

Notre approche va au-delà de la remédiation des sols : la présence de ces différents organismes vivants aura d’autres effets bénéfiques.

Ces multiples espèces permettent d’améliorer la qualité des sols. En effet, cela augmente sa teneur en matière organique et fournit davantage d’éléments nutritifs, en améliorant l’efficacité du recyclage dans les cycles biogéochimiques. Cela participe aussi à la modification de la structure du sol et à la réduction de l’érosion, et in fini à l’amélioration des rendements et de la qualité des biomasses produites. On peut également noter l’augmentation de la taille des communautés microbienne et de la diversité des microorganismes.

Ceci a déjà été démontré en système agricole, l’idée est désormais de déterminer si les mêmes effets seront détectés sur des sols dégradés. Cette démarche participe également à la lutte contre le changement climatique car elle améliore le stockage du carbone par les sols, ainsi qu’à la régulation des ravageurs et à la pollinisation des cultures sur site, par l’augmentation de la biodiversité animale.

En outre, ce laboratoire à ciel ouvert permet non seulement de tester différentes modalités de phytoremédiation sans être soumis à des contraintes de temps, mais aussi d’obtenir, grâce à ses surfaces importantes, suffisamment de biomasse végétale pour vérifier la possibilité de valoriser les plantes cultivées pour d’autres usages (par exemple, paillage, compost, production d’énergie, produits biosourcés…), une fois leur action dépolluante terminée.

The Conversation

Sonia Henry a reçu des financements de la Communauté d’Agglomération du Val de Fensch et de l’Institut Carnot Icéel

ref. En Moselle, on dépollue les sols d’une friche sidérurgique grâce aux plantes – https://theconversation.com/en-moselle-on-depollue-les-sols-dune-friche-siderurgique-grace-aux-plantes-235345

L’eau invisible des chaînes de valeur mondialisées

Source: The Conversation – in French – By Simon Porcher, Professeur, Université Paris Dauphine – PSL

C’est le maillon caché de la mondialisation : quand on échange des biens et des services, on transfère aussi de l’eau douce d’un pays à l’autre. Pourtant, la gestion de l’eau reste locale, quand sa consommation est devenue mondiale. Des solutions émergent.


L’eau douce, pourtant indispensable à toute activité humaine, reste souvent absente des débats sur la mondialisation, comme si sa disponibilité allait de soi. Pourtant, sans eau, il n’y a ni alimentation, ni industrie, ni énergie, ni numérique. Nos vies, même dématérialisées, reposent sur l’utilisation de l’eau, qui refroidit, nettoie, chauffe. L’eau est l’intrant invisible de notre économie. Un chiffre résume son importance : 88 % de l’eau prélevée dans le monde sert à produire des biens ou des services.

L’eau circule déjà d’un continent à l’autre, non pas dans des canalisations, mais à travers les chaînes de valeur mondialisées, dans les produits alimentaires ou les habits que nous consommons et dans toutes nos infrastructures. Cette « eau virtuelle » irrigue la mondialisation, mais reste largement ignorée des décisions économiques et politiques. Résultat : l’eau est mobilisée comme si elle était une ressource infinie, au service d’une économie qui privilégie la performance immédiate au détriment des écosystèmes et des populations.

Les flux d’eau cachés dans notre assiette

Le concept d’eau virtuelle, inventé au début des années 1990 par le géographe Tony Allan, permet de mesurer l’eau incorporée dans les produits que nous consommons. Par exemple, il faut 15 000 litres d’eau pour produire un kilogramme de bœuf, 4 000 litres pour un kilo de pistaches et 1 000 litres pour un kilo de maïs.

Chaque petit déjeuner devient un voyage autour du monde : le café du matin vient de Colombie ou du Brésil, arrosé par les pluies tropicales ; le carré de chocolat noir qui l’accompagne est fabriqué à partir de cacao équatorien ; l’avocat du Pérou vient d’un champ irrigué. Seuls le blé et le sel de la baguette de pain, et la poule qui a pondu l’œuf viennent de France. Nos choix alimentaires connectent les bassins d’eau du monde entier, souvent à notre insu.




À lire aussi :
L’eau, la grande oubliée du label bio ?


Afin de mesurer le volume ainsi utilisé indirectement, Arjen Hoekstra a élaboré en 2002 le concept d’empreinte eau. Celle-ci correspond au volume total d’eau utilisé pour produire les biens et les services que nous consommons. Elle peut être calculée pour un pays ou pour un consommateur. Par exemple, l’empreinte eau d’un Français est supérieure à 4 000 litres par jour. 90 % de cette quantité proviennent de notre alimentation.

L’eau dans les chaînes de valeur mondialisées

Cette approche par l’assiette, et plus généralement par le produit final, révèle les transferts massifs d’eau entre pays, souvent invisibles dans les échanges commerciaux. L’industrie textile illustre parfaitement cette réalité. De la culture du coton à la teinture et au lavage, chaque vêtement consomme des milliers de litres d’eau. Les fleuves Amou-Daria et Syr-Daria, qui prennent leur source au Tadjikistan et au Kirghizistan, ont été détournés par les pays en aval pour irriguer du coton. Cette irrigation massive a réduit leur flux au point d’assécher la mer d’Aral. Là-bas, la baisse de la quantité d’eau entraîne des problèmes sanitaires et de dégradation des conditions d’existence. Les procédés industriels génèrent des rejets polluants, mal traités, contaminant rivières, sols et nappes. Les pays producteurs de textile paient le prix écologique de nos vêtements à bas coût.

Cet exemple illustre un problème plus large. La mondialisation des flux d’eau virtuelle révèle un vide institutionnel majeur. L’économie est globale, mais la gestion de l’eau reste locale. Cette disjonction favorise le dumping hydrique et environnemental. Les règles du commerce mondial invisibilisent les impacts réels sur les populations et les écosystèmes. Les chaînes de production éclatées permettent aux entreprises de profiter des ressources des pays fragiles, sans compensations ni reconnaissance des impacts sociaux et écologiques.

Des inégalités accentuées

L’exploitation intensive de l’eau n’est pas seulement un problème environnemental ; c’est un enjeu social et politique. Les populations des pays producteurs subissent la raréfaction de l’eau, la pollution des nappes et les risques sanitaires. Les inégalités s’accentuent : ce sont les plus vulnérables qui supportent les coûts, et les plus riches qui récoltent les bénéfices.

Au-delà de l’opposition entre le Nord et le Sud, c’est la domination des logiques de marché qui pose problème. Les multinationales choisissent leurs sites de production selon le coût de l’eau et la faiblesse des normes, renforçant un modèle où la ressource devient une variable d’ajustement économique plutôt qu’un bien commun. Les États, souvent dépassés, adoptent ces normes pour rester compétitifs, laissant peu de place à des alternatives locales ou écologiques.

Vers une reconnaissance de l’eau comme une ressource commune globale

La gouvernance de l’eau demeure aujourd’hui largement fragmentée à l’échelle mondiale. Contrairement au changement climatique, qui bénéficie d’un cadre multilatéral de référence malgré ses limites, l’eau n’est pas reconnue comme une ressource commune globale dotée de règles et de normes contraignantes pour les acteurs économiques. Cette situation limite la capacité de régulation des usages et des impacts. En l’absence d’un étiquetage systématique de l’empreinte eau des produits, la consommation d’eau liée aux biens et aux services échangés reste en grande partie invisibles. Alors même que l’empreinte eau d’un produit peut varier fortement selon les systèmes de production et les intrants mobilisés, cette invisibilité contribue à une faible responsabilisation de l’ensemble des acteurs. Dans un contexte de dépassement des limites planétaires relatives à l’eau, la disponibilité et la transparence des informations relatives à l’empreinte eau des produits et des services constituent un enjeu central de gouvernance.

Par ailleurs, les usages de l’eau reflètent de fortes inégalités géographiques : les pays industrialisés concentrent une part importante des consommations d’eau indirectes à travers les importations de produits agricoles et industriels, tandis que les pressions hydriques se manifestent principalement dans les pays producteurs. Dans ce contexte, les politiques commerciales et de coopération internationale sont des leviers potentiels de régulation indirecte des impacts hydriques. La jurisprudence de l’Organisation Mondiale du Commerce a reconnu la possibilité pour un État de restreindre l’accès à son marché sur la base de procédés et de méthodes de production. Demain peut-être prendra-t-on en compte les impacts environnementaux localisés, tels que le stress hydrique, dans la régulation des échanges internationaux.

France 24 – 2024.

Internaliser la contrainte ?

Du côté des entreprises, la prise en compte des risques hydriques progresse mais demeure hétérogène. Elle repose largement sur des démarches volontaires, souvent intégrées à des stratégies de responsabilité sociale sans caractère contraignant. Mais certaines multinationales commencent toutefois à internaliser ces enjeux. Michelin a par exemple mis en place un prix fictif de l’eau en interne pour s’inciter à investir dans des systèmes d’économie et de réutilisation de l’eau. Dans les usines de Gravanches et de Troyes, l’amélioration des processus de refroidissement devrait diminuer les prélèvements de plus de 60 %.

Néanmoins, ces initiatives restent principalement concentrées sur les sites de production directs, alors que l’essentiel des consommations d’eau associées aux produits se situe en amont, le long des chaînes de valeur, où se concentre également une part importante des risques hydriques. L’analyse de l’empreinte eau sur l’ensemble des chaînes d’approvisionnement apparaît dès lors comme un outil central pour identifier et gérer les risques hydriques liés à leurs investissements.

L’eau n’est pas seulement un enjeu environnemental, c’est un facteur structurant de la production économique, du commerce international et de la souveraineté. Le décalage entre la nature localisée des ressources hydriques et l’organisation mondialisée des chaînes de valeur constitue l’un des défis majeurs de la gouvernance contemporaine de l’eau.


Cet article fait partie du dossier « La gestion à l’épreuve du réel nbsp;» par Dauphine Éclairages, le média scientifique en ligne de l’Université Paris Dauphine – PSL.

The Conversation

Simon Porcher co-dirige l’Institut d’économie de l’eau, soutenu par des mécènes. Ceux-ci n’ont joué aucun rôle dans le choix de l’angle, la rédaction ou les conclusions ; cette tribune n’engage que son auteur.

ref. L’eau invisible des chaînes de valeur mondialisées – https://theconversation.com/leau-invisible-des-chaines-de-valeur-mondialisees-273627

En Afrique de l’Ouest, deux modèles de souveraineté face à face

Source: The Conversation – in French – By Christian Abadioko Sambou, Dr en Sciences Politiques, spécialiste en paix & sécurité, Université Numérique Cheikh Hamidou Kane

Depuis les luttes d’indépendance, la souveraineté occupe une place centrale dans les débats politiques africains. Elle renvoie à la conquête de l’autonomie, la quête de légitimité et la capacité des États à définir librement leur destin. Cette quête est continue et en lien profond avec l’histoire coloniale des Etats ouest-africains.

L’émergence de l’Alliance des États du Sahel (AES) – Mali, Burkina Faso et Niger– en septembre 2023, a ravivé ces débats ? plaçant au coeur des discussions les notions de souveraineté, de panafricanisme, de démocratie, alimentant les discussions à travers les médias classiques et sociaux. La souveraineté est ainsi devenue un marqueur idéologique structurant, cristallisant des oppositions entre des « pro-0ccident » vs « pro-bloc sino-russe ».

Cette recomposition se manifeste à travers deux dynamiques distinctes: d’un côté, l’AES qui prône une souveraineté de rupture, articulée autour de la sécurité, de la dignité nationale et du rejet des tutelles extérieures ; de l’autre, des démocraties consolidées comme le Sénégal, le Cap-Vert, le Bénin et le Ghana, qui défendent une posture fondée sur la légitimité électorale, la coopération régionale et l’ouverture internationale dans une égale dignité, comme fondement de leur souveraineté internationale.

Pour avoir étudié les régimes politiques et les questions de gouvernance en Afrique de l’Ouest, j’ai observé que là où les régimes militaires du Sahel central revendiquent une souveraineté défensive, parfois exclusive, les États démocratiques côtiers manifestent une autonomie de décision politique basée sur une tradition d’ouverture internationale.

Dès lors, une question s’impose : quels facteurs expliquent la divergence entre ces deux conceptions de la souveraineté en Afrique de l’Ouest, et que révèlent-elles des transformations actuelles de l’État postcolonial africain ?

Deux conceptions de la souveraineté

L’usage contemporain de la souveraineté en Afrique de l’Ouest renvoie moins à une définition juridique univoque qu’à deux idéaux-types de gouvernement, construits à partir de trajectoires politiques contrastées.

La souveraineté de rupture : l’Alliance des États du Sahel

Le premier idéal-type est celui d’une souveraineté de rupture, incarnée par l’Alliance des Etats du Sahel (AES), née de la Charte du Liptako-Gourma en septembre 2023. Dans ce modèle, la souveraineté cesse d’être exclusivement nationale pour prendre une forme régionalisée, articulée autour d’une architecture de défense collective et d’assistance mutuelle (article 2 de la Charte). Elle est pensée comme une capacité à protéger, à combattre le terrorisme et la criminalité en bande organisée (article 4 de la Charte).

Trois piliers structurent cette souveraineté. D’abord, la sécurité comme fondement premier de l’État : l’autorité souveraine se légitime par la lutte contre le terrorisme et la reconquête territoriale. Ensuite, un discours panafricaniste de rupture, qui présente la souveraineté comme émancipation vis-à-vis des puissances occidentales et des institutions régionales jugées dépendantes.

Enfin, la volonté de reconstruire un État fort et centralisé, où l’armée devient l’acteur principal de la refondation nationale et du contrôle des ressources stratégiques. La souveraineté y est défensive, symbolique et identitaire, indissociable de la dignité nationale et de la survie de l’État.

Plus que la lutte contre le terrorisme, l’objectif de l’alliance est fondamentalement politique et souverainiste. A ce propos, le président de transition du Mali Assimi Goïta dans son discours à la nation du 31 décembre 2025, déclarait :

L’année qui s’achève a consacré une avancée majeure dans notre combat pour la souveraineté avec la consolidation de l’Alliance des États du Sahel. Avec le Burkina Faso et le Niger, nous avons choisi l’unité, la solidarité et la défense collective comme réponses aux défis sécuritaires, politiques et économiques auxquels nos peuples sont confrontés.

La souveraineté de consolidation : les démocraties côtières stabilisées

À l’opposé, le second idéal-type est celui d’une souveraineté de consolidation, portée par des États côtiers comme le Sénégal, le Cap-Vert, le Bénin ou le Ghana. Ici, la souveraineté repose sur la légitimité électorale, la stabilité institutionnelle et la continuité de l’État de droit. Elle ne s’exerce pas contre l’ordre régional, mais à travers lui. Le président du Sénégal Bassirou Diomaye Faye déclarait lors de son discours d’investiture le 2 avril 2024 que

le Sénégal doit exercer pleinement sa souveraineté, dans le respect de ses engagements internationaux, mais en plaçant en priorité les intérêts du peuple sénégalais.

Ces États conçoivent la souveraineté comme une capacité d’action collective, fondée sur la coopération, l’intégration régionale et le multilatéralisme, notamment au sein de la Communauté économique des Etats d’Afrique de l’Ouest (Cedeao). La souveraineté n’y est pas synonyme d’isolement, mais d’influence partagée et de consolidation progressive de l’État.

Cinq points de divergence

Ces deux modèles se distinguent à travers cinq indicateurs.

– La centralité de la force armée

La souveraineté est pratique et se mesure à la capacité des armées à protéger, à sécuriser des territoires, à administrer, à user et imposer la force. Dans l’espace AES, la souveraineté est associée à la puissance militaire. Ainsi le militaire est partout comme instrument de coercition et au cœur du pouvoir politique. La sanctuarisation de l’état d’urgence, la médiatisation des succès militaires, la rhétorique de la guerre et la mise en scène d’un Etat protecteur participent à l’entretien de cette souveraineté militaire défensive.

En contraste, dans les démocraties côtières, la souveraineté repose moins sur l’omniprésence du militaire que sur la primauté de l’Etat de droit. La sécurité est une politique publique soumise au contrôle civil parlementaire. Toutefois au regard du contexte régional, l’insécurité constitue un défi et justifie un renforcement des capacités étatiques et une attention aux armées.

– Les fondements de la légitimité politique

La distinction entre les deux modèles est forte autour de cet indicateur. Dans les régimes de l’AES la légitimité n’est pas fondée par les urnes. Les transitions sont prolongées et perdent leur sens. L’insécurité fragilise les institutions. Le pouvoir repose sur la force populaire, pas sur les urnes. Les dirigeants cherchent légitimité par la rue plutôt que par la démocratie.

Dans les États dits démocraties stabilisées, la souveraineté est indissociable de la légitimité électorale.Les citoyens refusent tout report ou blocage des élections. Pourtant, dans certains pays, l’exclusion des principaux opposants dévoie la compétition électorale.

Dans les deux modèles la souveraineté cherche à s’ancrer dans une forme de reconnaissance populaire, mais par des mécanismes radicalement différents.

– Sécurité et droits

Pour les régimes militaires, la sécurité est une priorité absolue. Elle justifie ainsi la suspension ou la relativisation de droits et libertés. Au nom d’un état d’urgence, la lutte contre le terrorisme et la survie de l’Etat priment sur les garanties individuelles.

A l’inverse dans les souverainismes démocratiques, la sécurité est liée aux droits, à la justice, à la gouvernance inclusive. La souveraineté elle-même repose sur un cadre juridique.

– Place des oppositions et des contre-pouvoirs

La conséquence du tout sécuritaire dans l’espace AES est la remise en cause de la place centrale des oppositions politiques, des contre-pouvoirs dans la gouvernance politique. Les droits et libertés sont largement restreints. Les oppositions politiques sont écartées et la presse encadrée.

Les régimes militaires protègent leur légitimité face aux menaces internes.
Dans les souverainismes démocratiques, le pluralisme et les libertés garantissent la légitimité de l’État.

– Rapport à l’international et à l’intégration régionale

Enfin les régimes de l’AES défendent une souveraineté de rupture vis-à-vis des institutions régionales et des partenaires occidentaux, accusés d’ingérence. Cette posture ne signifie pas l’autarcie : elle s’accompagne d’alliances alternatives (Russie, Chine) et d’une affirmation d’idéologie panafricaine parfois présentée en modèle sahélien.

Les démocraties côtières assument une souveraineté coopérative, fondée sur le multilatéralisme, la Cedeao, l’intégration régionale. La souveraineté ici n’est pas exclusive ou contre l’international mais à travers lui.

Les facteurs de la divergence

Les divergences s’enracinent dans des contextes historiques, politiques et économiques profondément asymétriques.

– Un contexte sécuritaire asymétrique

Le premier facteur explicatif tient à la géographie différenciée de la violence armée. Le Sahel central est devenu l’épicentre de l’insécurité depuis 2010.
L’expansion des groupes djihadistes et la porosité des frontières ont affaibli l’autorité étatique. La souveraineté devient une urgence existentielle face à cette crise. La militarisation du pouvoir s’impose comme réponse pour préserver l’unité et la survie de l’État.

À l’inverse, les États côtiers comme le Sénégal ou le Ghana n’ont pas connu une telle intensité de violence armée. Cette relative stabilité sécuritaire a permis la continuité institutionnelle, la consolidation de l’État de droit et une souveraineté pensée dans la durée plutôt que dans l’urgence.

– Dynamiques politiques et crise différenciée de la légitimité démocratique

Le second facteur est politique. Dans l’espace AES, la montée des régimes de transition reflète une crise électorale. Les coups d’État et la perte de confiance expliquent le recul de la démocratie. Cette « fatigue démocratique » nourrit un souverainisme sahélien. Le peuple devient source directe du pouvoir, par la rue et le soutien populaire.

À l’inverse, dans les démocraties côtières, les alternances régulières consolident la confiance. La souveraineté y reste liée au suffrage et au respect des procédures.

– Des économies politiques contrastées

Les structures économiques jouent un rôle clé. Les pays enclavés du Sahel dépendent d’économies agro-extractives fragiles. Les conflits ont désorganisé la production et affaibli l’État. Cela renforce la tentation d’un pouvoir autoritaire centré sur les ressources.

De leur côté, les États côtiers, plus diversifiés et ouverts, privilégient la stabilité et l’intégration économique régionale.

– Reconfigurations géopolitiques et rapports à l’international

Enfin, les divergences tiennent à de profondes recompositions géopolitiques. Au Sahel, le retrait occidental et la rupture avec la Cedeao ont favorisé une souveraineté de défiance. Les régimes militaires recherchent des alliances alternatives. La souveraineté y devient protection et affirmation identitaire.

À l’opposé, le Sénégal et le Ghana privilégient, eux, une souveraineté coopérative.
Ils s’inscrivent dans le multilatéralisme, tout en redéfinissant certains partenariats, notamment militaires. Au Sénégal, les autorités, tout en privilégiant des relations coopératives, ont remis en cause des accords de défense avec la France et rendu effectif le retrait des armées françaises du sol sénégalais.

Que retenir ?

Les deux modèles de souveraineté qui coexistent aujourd’hui en Afrique de l’Ouest ne sont pas des anomalies, mais les expressions d’une même quête d’autonomie dans des contextes différenciés.

Le souverainisme de rupture de l’AES répond à une crise de survie étatique, tandis que celui du Sénégal, du Ghana, du Cap-Vert, du Bénin, repose sur la stabilité institutionnelle et cherche à consolider une autonomie de décision à travers les institutions démocratiques.

Ces trajectoires traduisent deux manières d’adapter la souveraineté africaine au monde contemporain : l’une par la résistance et le refoulement de la tutelle occidentale, l’autre par l’intégration régionale politique et éconnomique.

The Conversation

Christian Abadioko Sambou does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. En Afrique de l’Ouest, deux modèles de souveraineté face à face – https://theconversation.com/en-afrique-de-louest-deux-modeles-de-souverainete-face-a-face-273188

Mark Carney’s Davos speech marks a major departure from Canada’s usual approach to the U.S.

Source: The Conversation – Canada – By Stewart Prest, Lecturer, Political Science, University of British Columbia

It was a moment of global clarity. Prime Minister Mark Carney’s speech to the world’s political and economic elite gathered in Davos this week described global realities, past and present, with a candour and nuance rarely heard from a serving politician.

The message was twofold.

First, Carney made clear that the world has changed, and the old comfortable ways of global politics are not coming back. Those who wait for sanity to return are waiting in vain. We are in a world increasingly shaped by the threat and the use of hard power. All states must accept that reality.

Despite this, Carney’s second and more hopeful message was that while the globally powerful may act unilaterally, others — notably “middle powers” like Canada — are not helpless.

By finding ways to co-operate on areas of shared interest, states like Canada can pool their limited resources to build what amounts to a flexible network of co-operative ties. Taken together they can provide an alternative to simply rolling over and taking whatever great powers like the United States dole out.

There’s also little choice in the matter if countries want to remain independent. As he eloquently put it: “If we’re not at the table, we’re on the menu.

From ‘elbows up’ to capitulation, and back

The speech represented a remarkable departure from Canada’s usual approach to its relationship its neighbour to the south.

For all the talk of “elbows up” during the 2025 federal election campaign, the Carney government has been somewhat ambivalent since then. It’s placed its hopes in achieving a renewed trading relationship and normalized relations with the U.S. through a combination of good faith negotiations and a steady stream of conciliatory gestures on issues that seemed to matter most to U.S. President Donald Trump.




Read more:
Mark Carney’s apology to Donald Trump: Far from ‘elbows up,’ it seems Canada has no elbows at all


That resulted in Canada committing significant funds to combat a largely non-existent fentanyl trafficking problem and to meet American demands for increased military funding. At times the conciliation verged on placation, as when Canada unilaterally ended relatiatory tariffs on American goods to no discernible effect.

This strategy clearly was not working, however, as Carney made clear in Davos.

While neither America, nor Trump, were mentioned by name, there’s no doubt who’s driving the dramatic global changes Carney was describing. At times the veneer became very thin as Carney reiterated Canada’s support for the sovereignty of Greenland as a territory of Denmark.

In fact, the speech was remarkably blunt in its rebuke of America’s foreign policy during Trump’s second term, drawing attention, as others have, to how U.S. actions leave almost everyone, including Americans, worse off.

Trump’s response

That not-so-subtle barb was not lost on the audience, either in the room or across the Atlantic in the White House.

Trump wasted little time in firing back in the manner and style the world has become accustomed to. During his own address to the World Economic Forum the next day, Trump delivered a rambling and at times confusing speech.

He reiterated his intent to annex Greenland while confusing the island multiple times with neighbouring and also sovereign Iceland, and he took time to single out Carney by name.

“Canada lives because of the United States,” he said. “Remember that, Mark, next time you make your statements.”

The comments provided helpful proof of Carney’s argument, demonstrating the naked threat of power by the American president to coerce its neighbour and ostensible ally. It revealed the kind of “gangster” mindset we see often from Trump, as he effectively said: “Nice country, Mark. Be a shame if something happened to it.”

Critique of past

As blunt as Carney’s assessment of the present was — that the rules-based, liberal international order has faded away — in some ways his critique of the past was even more remarkable. The prime minister spoke with a candour one wouldn’t expect to find at the podium at Davos.

Effectively, Carney correctly characterized the old order as one defined as much by its hypocrisy as by its rules. He acknowledged that countries like Canada benefited from a system in which rules are applied unevenly, and superpowers continue to shape outcomes.

This idea, along with the the need to look ahead in order to survive a new order, appeared to underpin Carney’s exhortation not to mourn the rapidly vanishing old order.

Carney clearly hopes a new system may emerge that is not only more resilient to diverse and unpredictable threats, but is more honest and just.

By finding common ground on shared issues, middle powers can act in accordance with their own values and interests, instead of deferring to the proclaimed values of global power that are frequently violated in practice. Power will always matter, but it doesn’t have to be all that matters.

History in the making?

Carney’s Davos remarks were powerful by any measure. But will he back up his words with action in the months and years ahead?

His speech was met with a rousing standing ovation, and has justly received plaudits from around the world for its clear-eyed description of a less forgiving world order and its vision for how states like Canada can continue to thrive within it.

Whether it proves a speech for the ages, however, depends on what happens next. If Canada is serious about charting a new path, distinct from the great powers of the world, it must do more than talk. Acts like deploying symbolic forces to Greenland if necessary will show a seriousness of purpose. Canada cannot expect others to stand with it if it doesn’t stand with them.

Similarly, Canada must reject schemes like Trump’s “board of peace,” a thinly disguised attempt to replace institutions of global governance with a body composed by and serving at the president’s whim.

Carney has captured the world’s attention with this speech. There’s a lot hanging on what he does with that attention.

The Conversation

Stewart Prest does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Mark Carney’s Davos speech marks a major departure from Canada’s usual approach to the U.S. – https://theconversation.com/mark-carneys-davos-speech-marks-a-major-departure-from-canadas-usual-approach-to-the-u-s-274090

‘Pluribus’: qué hace humano al ser humano

Source: The Conversation – (in Spanish) – By José Ángel Agejas Esteban, Catedrático de Ética y Deontología, Universidad Francisco de Vitoria

Rhea Seehorn en el centro de una escena en _Pluribus_. Apple TV

Una de las series televisivas más aclamadas de los últimos meses, Pluribus, tiene la virtud de hacernos reflexionar a través de su narración. Como sucede con la obra de los grandes artistas, la ficción plasma de forma intuitiva cuestiones de hondo calado antropológico: ¿qué valor tiene el individuo?, ¿cómo logramos nuestra identidad?, ¿en qué consiste la felicidad?

El arranque del primer capítulo nos sumerge de lleno en una distopía: un virus extraterrestre ha infectado a toda la humanidad. Bueno, no a toda: una serie de personas dispersas por el globo resultan ser inmunes. El virus, como el soma de la novela Un mundo feliz de Huxley, anula a los individuos y los convierte en una amalgama de seres indiferenciados, una mente colmena en la que todos sienten y piensan lo mismo, y en la que todos son, supuestamente, felices. ¿Qué harán las excepciones a la regla?

Tráiler de la primera temporada de Pluribus.

La genialidad del creador de la serie, Vince Gilligan (también responsable de Breaking Bad y Better Call Saul) sitúa a la protagonista ante un dilema: unirse a los felices o resistir. A diferencia de lo que sucedía con el personaje principal de Breaking Bad (cuya decisión inicial de fabricar droga le ataba a una espiral de decadencia), la escritora Carol Sturka quiere plantar cara, pero a veces duda, se rebela, se siente tentada a ceder… Nos caiga bien o mal por su modo de ser, serán sus constantes decisiones, tomadas en total libertad, las que nos provoquen atracción o repulsa.

Al hilo de esto podemos apuntar algunas ideas que nos ayuden a pensar qué nos constituye como individuos y qué nos destruye.

‘De muchos, uno’

Anverso del Gran Sello de los Estados Unidos en el que se ve escrito 'e pluribus unum'.
Anverso del Gran Sello de los Estados Unidos.
U.S. Government

El título de la serie alude a la máxima latina que aparece en el escudo de los Estados Unidos, “E pluribus unum”: “de muchos, uno”. Recogía la experiencia de las primeras trece colonias que se unieron para formar un solo estado.

Pero si le damos una vuelta, todo grupo social implica pluralidad de miembros. Somos individuos, sí, pero no aislados. Y somos individuos porque vivimos en sociedad. A la hora de querer explicar cómo se da esa relación entre individuo y grupo sin privilegiar a uno sobre el otro, no cualquier teoría pasa la prueba del algodón

Particularmente valiosa en este sentido es la filosofía de Julián Marías. A partir de la sentencia de Ortega y Gasset “Yo soy yo y mi circunstancia, y si no la salvo a ella no me salvo yo”, Marías, su discípulo, desarrolló su propia reflexión. Según él, la circunstancia contribuye a nuestra identidad porque ésta se descubre en el encuentro con el entorno (los “qués”, las cosas) pero, sobre todo, con el otro (el “quién”, las personas).

Libertad y creatividad

¿Es casual que la protagonista sea una escritora de novelas románticas? No parece que la aportación de Sturka vaya a pasar a la historia de la literatura universal. Sin embargo, tenía miles de seguidores que encontraban en sus libros claves para entenderse a sí mismos y para pensarse en una relación valiosa.

Marías nos dice que la persona se encarna en una realidad concreta, en una estructura empírica por la que nos instalamos en el mundo. Su filosofía no entiende la identidad personal como una idea abstracta y desvinculada de lo real, sino como una instalación en el mundo. La identidad es un relato. Cada individuo tiene que escribir el suyo y no seguir una pauta externa impuesta.

Una mujer se graba hablándole a una cámara de vídeo.
Carol busca dejar constancia de todo lo que pasa.
Apple TV

Ya en Aristóteles encontramos tres claves que hoy siguen mostrando su potencial teórico. La primera es que el ser humano es un animal político. La segunda, que todos los seres aprendemos de los demás por mímesis, por imitación. Y la tercera, que lo que nos eleva a la plenitud no es la imitación de los otros, sino aquellas acciones que se encaminan a la felicidad.

El verdadero manual de ética de este filósofo griego lo encontramos en su Poética, no en el tratado que escribió a su hijo Nicómaco. ¿Por qué? Porque cada individuo cimenta su individualidad en la narración de su propia vida, en el diálogo de encuentros y desencuentros con los demás. Por eso no hay una felicidad definitiva, ni igual para todos, ni homogénea… Si suprimimos el espacio de la creatividad personal, anulamos a la persona.

Individuos en sociedad

Marías construye en La estructura social uno de los intentos más lúcidos por articular la antropología con la sociología. La sociedad es el ámbito natural en el que cada individuo expresa lo que es y cómo lo desarrolla en relación con los demás.

Hay un dato de esa estructura social que ayuda a describir lo que sucede en la serie. Igual que todo ser humano tiene unos órganos que nos permiten vivir, la sociedad tiene unas vigencias. Lo que está vigente (creencias, usos y costumbres) no lo elegimos, lo encontramos (lengua, leyes…), pero cada individuo se configura a sí mismo dialogando o luchando con ellos. Por el contrario, los humanos contagiados en la serie no dialogan con nada ni con nadie. Siempre dan la razón, como un algoritmo de la complaciente IA.

Una mujer de pie entre mucha gente tumbada.
Una entre todos.
Apple TV

Felices ¿para siempre?

Aspiramos a ser felices, sí. Pero, definitivamente, no como en la serie: ser feliz no es ser anodino. Carol Sturka es perfecta como protagonista porque no lo es como persona. Ninguno lo somos, aunque busquemos configurar nuestro modo de ser de la mejor manera posible. Ella añora los momentos de felicidad vividos antes de que ese virus alienígena absorbiera todas las mentes y anulara todos los corazones. Y busca otros nuevos.

Como expresa el escritor griego Cavafis en su poema Ítaca , la felicidad primigenia se reencuentra en un viaje rico en experiencias y conocimientos. Por eso Marías habla de la identidad personal de cada uno como “innovación radical”, porque es el resultado de la trayectoria recorrida por cada uno, de la vida entendida como biografía.

En el mundo de Pluribus, un mundo en el que todos son iguales, no hay innovación radical, no hay identidad individual, solo fotocopias.

The Conversation

José Ángel Agejas Esteban no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. ‘Pluribus’: qué hace humano al ser humano – https://theconversation.com/pluribus-que-hace-humano-al-ser-humano-273719

¿Está justificado el control de las urracas mediante su caza o captura?

Source: The Conversation – (in Spanish) – By Juan Gabriel Martínez, Catedrático de Zoología, Universidad de Granada

Una pareja de urracas. Kike.garcia.85/Shutterstock

En diciembre de 2025, la Junta de Andalucía aprobó una orden que establecía nuevos métodos de captura de depredadores cinegéticos, aquellos que son controlados mediante la caza, como zorros, jabalíes y urracas.

Estas especies ya se consideraban antes cinegéticas y se podían cazar mediante armas de fuego, cetrería o perros de madriguera. Pero, con la nueva normativa,
se homologan otros métodos de control en el marco de los planes técnicos de caza, e incluso en terrenos no cinegéticos dentro de contextos justificados.

Entre las nuevas técnicas de captura admitidas están los lazos para zorros, los capturaderos para jabalíes y las jaulas metálicas para urracas. Sin entrar en la discusión de si esta ampliación de métodos es apropiada, si son más o menos selectivos o qué criterios deberían usarse para autorizarlos –cuestiones todas que merecen sin duda una reflexión–, resulta necesario hablar de la necesidad de controlar las urracas y otros córvidos.

La urraca: una sospechosa habitual

Debido a su costumbre de alimentarse de huevos y pollos de otras especies de aves, como las perdices, las urracas tienen mala fama, fundamentalmente entre agricultores y cazadores.

Consideradas como depredadores generalistas, están incluidas en la lista de especies cinegéticas, y en ocasiones se plantea la necesidad de controlarlas. Sin embargo, estudios sobre la dieta de las urracas muestran que estas aves se alimentan principalmente de invertebrados, especialmente insectos, semillas y frutas. Con cierta frecuencia se alimentan de carroña y solo en ocasiones capturan pequeños vertebrados, como topillos, o depredan sobre huevos y pollos de otras aves.

Las urracas no son, pues, depredadores en el sentido más popular del término, que deja fuera a los consumidores de insectos e invertebrados, sino que hablamos de aves omnívoras que a veces comen vertebrados. Y aunque se las considere el principal sospechoso de la depredación de nidos, esta es practicada más frecuentemente por otras especies.

Dos estudios diferentes llevados a cabo con cámaras con el fin de identificar diversos depredadores –uno realizado en Francia y otro en Portugal– mostraron que las cornejas, otro tipo de córvidos, depredaban entre 3 y 20 veces más nidos que las urracas.

Otro trabajo de Reino Unido desveló que especies como los erizos, los tejones o los arrendajos –este último también de la familia de los córvidos– son más a menudo responsables de la depredación de nidos que las urracas. Los autores destacaron el papel casi inofensivo de nuestras protagonistas.




Leer más:
La viabilidad de la caza en los parques nacionales: ¿una potencial fuente de ingresos para mejorar su sostenibilidad?


Sin conclusiones claras

Para que los planes de control tengan sentido, se debe tener claro que las especies de depredadores producen perjuicios en las especies presa. Y en el caso de la urraca no hay evidencias claras. Algunos estudios experimentales que eliminaron a esta especie y a otros animales depredadores potenciales de lugares concretos y luego midieron el éxito de los nidos (la productividad) y la abundancia de sus poblaciones en años posteriores, solo encontraron pruebas de un efecto positivo a corto plazo. La retirada de los depredadores potenciales mejoró el éxito de los nidos, y solo para algunas especies presa.

Sin embargo, no hubo efectos sobre la abundancia de las especies a largo plazo.
Como en la mayoría de estos trabajos se retiraron varios depredadores al mismo tiempo, el impacto de las urracas en el éxito de los nidos no queda claro. Un estudio en el que se retiraron solamente las urracas mostró que esta medida solo fue positiva para una de las 10 especies estudiadas.

Y una revisión que incluyó todas las investigaciones en la línea de la anterior concluyó que, si bien el impacto negativo de los córvidos sobre otras especies es pequeño, se trata de un efecto sobre la productividad (corto plazo) más que sobre la abundancia (largo plazo). Y que son más responsables las cornejas que las urracas.

De hecho, la evidencia científica apunta a que, aunque las urracas pueden tener un impacto sobre la productividad en áreas y especies particulares, no tienen un efecto global en las tendencias poblacionales de las especies de pájaros que potencialmente pueden depredar.




Leer más:
¿Puede la caza solucionar la plaga de jabalíes?


Los beneficios de una especie clave para los ecosistemas

Sabemos que la regulación de depredadores puede tener efectos beneficiosos a corto plazo para algunas presas, y que el control cinegético de urracas, así como el de zorros, disminuye el tamaño de sus poblaciones. Sin embargo, muchos gestores de cotos también saben que, a veces, la matanza de decenas de urracas no se traduce en una medida tan efectiva, ya sea porque se eliminan solo ejemplares juveniles o bien por la llegada de nuevos individuos desde otras zonas.

Para ser efectivo, el control debe ser sostenido en el tiempo, lo que lo convierte en una estrategia difícil y cara. Además, los estudios hechos con otros depredadores generalistas, como cuervos, cornejas o zorros, sugieren que controlar las poblaciones no tiene efecto a largo plazo. Si no hay evidencias de un impacto negativo de las urracas sobre la abundancia de otras especies, ¿por qué controlarlas?

Por otro lado, las urracas traen grandes beneficios a nuestros hábitats gracias a
que cumplen un papel ecológico en el control de algunas especies que pueden resultar perjudiciales para nuestros intereses, como roedores o insectos.
Además de constituir presas habituales de muchos depredadores en peligro de extinción, como algunas rapaces y mamíferos carnívoros, pueden llegar a funcionar como ingenieros de ecosistemas, dispersando semillas de árboles como las encinas, los quejigos o los nogales.

Aún asumiendo que en algunos casos concretos sus poblaciones llegan a ser grandes, sería deseable que los gobiernos sopesasen bien la necesidad de controlar el número de individuos, considerando que sus efectos negativos a largo plazo sobre otras especies no están suficientemente documentados.

The Conversation

Juan Gabriel Martínez no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado

ref. ¿Está justificado el control de las urracas mediante su caza o captura? – https://theconversation.com/esta-justificado-el-control-de-las-urracas-mediante-su-caza-o-captura-273662

Matar de hambre al cáncer con grasa: una nueva terapia celular basada en los adipocitos

Source: The Conversation – (in Spanish) – By Enrico Castroflorio, Neurocientífico especializado en función sináptica y lípidos, Universitat de les Illes Balears

Durante décadas, la palabra “grasa” ha tenido mala prensa en biomedicina. Sin embargo, un trabajo reciente propone algo contraintuitivo: usar sus células para frenar el crecimiento de los tumores.

Lejos de alimentar al cáncer, ciertos adipocitos, las células especializadas en almacenar energía en forma de grasa, pueden convertirse en competidores metabólicos tan eficaces que dejan a las tumorales sin los recursos que necesitan para proliferar.

El talón de Aquiles metabólico del cáncer

Las células cancerosas crecen y se dividen rápidamente, y para ello requieren grandes cantidades de energía y bloques de construcción moleculares. Por eso, muchos tumores “reprograman” su metabolismo para captar más glucosa, lípidos y otros nutrientes del entorno.

Estudios previos ya habían mostrado que la activación de la grasa parda, un tipo de tejido adiposo especializado en quemar energía para producir calor, puede ralentizar el crecimiento tumoral. El problema es que activar este tejido mediante exposición prolongada al frío no es práctico ni eficaz en todos los pacientes (especialmente en personas mayores, ya que la grasa parda es mucho menos activa en edades avanzadas).

Reprogramar adipocitos para competir con el tumor

La nueva estrategia parte de una observación sencilla: los adipocitos no son solo almacenes pasivos de grasa, sino células metabólicamente activas y fácilmente manipulables. Pueden aislarse mediante liposucción, modificarse genéticamente en el laboratorio y reimplantarse en el organismo, una práctica ya habitual en cirugía plástica y reconstructiva.

Aprovechando estas características, investigadores de la Universidad de California en San Francisco diseñaron adipocitos capaces de “quemar” grandes cantidades de nutrientes. Para ello, forzaron la expresión de una proteína clave, UCP1, que normalmente se encuentra en la grasa parda y permite disipar energía en forma de calor en la mitocondria.

El resultado son adipocitos blancos reprogramados que consumen glucosa y ácidos grasos a un ritmo muy elevado, como si fueran adipocitos pardos. Cuando estas células modificadas se cultivan junto a células tumorales, el crecimiento del cáncer se reduce de forma notable. Lo más llamativo es que este efecto se observa incluso sin contacto directo entre ambos tipos celulares, lo que indica que la competencia por los nutrientes del medio es suficiente para frenar al tumor.




Leer más:
La segunda vida de la grasa: una rica fuente de células madre para crear terapias avanzadas


Resultados prometedores en modelos animales

Este enfoque se ha probado también en modelos de cáncer de mama y páncreas en ratones. Como demostró otro estudio, al implantar adipocitos modificados cerca del tumor, la progresión del cáncer se ralentizó de manera significativa en comparación con animales que recibieron adipocitos no modificados.

Además, esta terapia puede encenderse o apagarse usando fármacos o implantes celulares que se pueden colocar y retirar fácilmente. Así es posible activar o desactivar el “modo consumidor” de los adipocitos según convenga, lo que añade una capa importante de seguridad y flexibilidad terapéutica.

Un aspecto especialmente interesante es que la estrategia no se limita a un solo tipo de metabolismo tumoral. Los autores del trabajo demostraron que los adipocitos pueden programarse para consumir no solo glucosa o ácidos grasos, sino también otros metabolitos. Esa opción permitiría adaptar la terapia al perfil metabólico específico de cada cáncer.

Una terapia celular con potencial clínico aunque con limitaciones

El nuevo enfoque, denominado por sus autores como “trasplante de manipulación adiposa” (AMT por sus siglas en inglés), recuerda a terapias celulares ya consolidadas, como las CAR-T, que consiste en extraer células inmunitarias del propio paciente, modificarlas y reintroducirlas con un fin terapéutico.

La ventaja de AMT es que los procedimientos necesarios, la extracción y trasplante de grasa, ya se utilizan de forma rutinaria en la práctica clínica. Además, los adipocitos son células robustas, fáciles de mantener y con una potente capacidad endocrina, lo que abre la puerta a combinarlos con otras estrategias, como la secreción controlada de factores antitumorales.

No obstante, como toda investigación preclínica, el estudio tiene sus limitaciones. Los resultados se han obtenido en cultivos celulares y en modelos animales. Aún no sabemos qué cantidad de adipocitos serían necesarios para obtener un beneficio terapéutico en humanos, ni cuál sería el perfil completo de seguridad a largo plazo. También será fundamental entender mejor cómo interactúan estas células de grasa con el microambiente tumoral y con el resto del organismo.

Cambiar nuestra concepción de la grasa

Más allá de su aplicación directa, este trabajo invita a replantear el papel del tejido adiposo en la enfermedad. La grasa deja de ser un actor secundario para convertirse en una herramienta terapéutica activa, capaz de explotar una de las mayores debilidades del cáncer: su adicción a los nutrientes.

Si futuros estudios confirman su eficacia y seguridad en humanos, “matar de hambre” al tumor usando grasa podría convertirse en una nueva arma en el arsenal contra el cáncer, lo cual nos brinda otro ejemplo de cómo entender la biología fundamental puede abrir caminos terapéuticos inesperados.

The Conversation

Enrico Castroflorio recibe fondos de Ministerio de Ciencia, Innovación y Universidad, y Agencia Estadal de Investigación. Trabaja como investigador senior para Laminar Pharmaceuticals y es Profesor y Colaborador de Universidad de las Islas Baleares (UIB).

ref. Matar de hambre al cáncer con grasa: una nueva terapia celular basada en los adipocitos – https://theconversation.com/matar-de-hambre-al-cancer-con-grasa-una-nueva-terapia-celular-basada-en-los-adipocitos-272388