Que Europa prohíba destruir la ropa que no se vende no es suficiente

Source: The Conversation – (in Spanish) – By Gabriel Vela Micoulaud, Profesor e investigador, Universidad de Deusto

Cuando una prenda no se vende solemos imaginar que acaba rebajada, en un outlet o, con suerte, donada. Cuesta pensar que ropa nueva, ya fabricada, transportada y almacenada, pueda terminar destruida sin haberse usado nunca. Sin embargo, esa destrucción existe y, precisamente por eso, la Comisión Europea ha concretado las reglas que aplicarán a partir del 19 de julio de 2026 a las grandes empresas.

Según la propia Comisión, la prohibición afectará a prendas de vestir, complementos de ropa y calzado, con excepciones justificadas en determinados casos(por cuestiones de seguridad, productos dañados que no puedan ser reparados, falsificaciones, entre otros).

Desperdicio textil

La reacción intuitiva es pensar que Europa cierra así una de las prácticas más absurdas del sector. Y hay razones para creerlo. La Comisión estima que cada año se destruye en Europa entre el 4 y el 9 % de los textiles nuevos no vendidos, con unas emisiones asociadas de alrededor de 5,6 millones de toneladas de CO₂.

Si ya se han consumido materiales, energía, agua y trabajo para fabricar una prenda, destruirla resulta difícil de defender. Pero conviene no quedarse en esa primera impresión. La prohibición corrige una práctica llamativa, incluso escandalosa, pero no elimina por sí sola el problema que la causa. Porque la cuestión de fondo no es qué hacemos con la ropa que sobra al final del proceso sino por qué el sistema produce tal volumen de sobrantes.




Leer más:
Hablemos de los residuos que genera la industria textil


Una prenda que nadie compra no siempre termina encontrando salida

Aquí es donde la nueva regulación resulta útil, y también donde conviene no exagerar su alcance. La norma no prohíbe “tirar ropa” en general, ni hace desaparecer de golpe todos los excedentes. Lo que hace es impedir la destrucción de determinados bienes no vendidos y obligar a las empresas afectadas a tomarse más en serio su gestión del stock.

La Comisión distingue entre dos obligaciones: la de informar y la de no destruir. Las grandes empresas ya deben informar sobre los productos no vendidos que desechan. Pero desde el 19 de julio de 2026 no podrán, además, destruir ropa, complementos y calzado no vendidos. En el caso de las empresas medianas, ambas exigencias se aplicarán a partir de 2030.

En busca de productos más duraderos, reparables y reciclables

Esta prohibición encaja en una agenda europea más amplia. La Estrategia de laUE para los textiles sostenibles y circulares no se limita a gestionar mejor el residuo: plantea que los productos textiles sean más duraderos, reparables y reciclables, y que la fast fashion deje de marcar el ritmo del sector. Esa perspectiva importa porque desplaza el foco desde el final de la cadena hacia el diseño del producto y el modelo de negocio.

En esa misma lógica se sitúa la revisión de la Directiva marco de residuos, ya en vigor, que introduce regímenes armonizados de responsabilidad ampliada del productor para los textiles. La idea es sencilla: que el coste del final de vida no recaiga solo en municipios y gestores de residuos, sino también en quienes ponen esas prendas en el mercado.

Reinventarse antes que destruir

Esta normativa puede tener efectos positivos reales. Si destruir deja de ser una salida fácil, las empresas tendrán más incentivos para liquidar antes, redistribuir, reacondicionar, revender o donar los productos que no se vendan en sus mercados tradicionales.

La medida no es simbólica: cambia el cálculo empresarial sobre qué hacer con el excedente. También introduce más transparencia sobre una parte poco visible del negocio textil. Pero sería un error presentar esta prohibición como si bastara por sí sola para corregir el problema ambiental de la moda.

Los datos europeos apuntan a una escala mucho mayor. En 2022, cada persona en la UE consumió, de media, 19 kilos de ropa, calzado y textiles personales y del hogar (en 2019 fueron 17 kilos). Ese mismo año, la UE generó 6,94 millones de toneladas de residuos textiles, equivalentes a unos 16 kilos por persona. Esa diferencia dice bastante.

El problema, más que destruir excedentes, es producirlos

Si el consumo medio se sitúa en 19 kilos por persona y el residuo en 16 kilos, el problema no puede reducirse a unas cuantas empresas destruyendo stock al final de la cadena. La Agencia Europea de Medio Ambiente añade otro dato: en 2022, la UE solo recogió separadamente una parte menor de esos residuos. Una fracción importante siguió yendo mezclada con otros residuos, lo que dificulta mucho su reutilización o reciclaje.

El atasco no está solo en cuánto residuo se genera, sino en cuánto se logra recuperar bien. La Agencia Europea de Medio Ambiente calcula que, ese mismo año, la tasa media de recogida separada de textiles y calzado domésticos en la UE fue inferior al 15 %. Es decir, incluso antes de discutir qué hacer con el excedente, Europa sigue teniendo un problema básico de captación, clasificación y tratamiento.

En otras palabras, impedir la destrucción de excedentes puede mejorar una parte del sistema, pero sin cambiar necesariamente su lógica profunda. Una empresa puede dejar de destruir prendas y seguir produciendo demasiado. Puede desplazar el excedente a descuentos permanentes, a canales opacos de liquidación o a circuitos exteriores de ropa usada. Ahí aparece otra pieza incómoda del problema. En 2023, la UE exportó alrededor de 1,37 millones de toneladas de textiles usados, sobre todo hacia África y Asia, y la Agencia Europea de Medio Ambiente advierte de que el destino real de esos flujos no siempre está claro.

Medio camino recorrido

Esta prohibición debería leerse como una corrección necesaria, pero parcial. Necesaria porque pone límites a una práctica difícil de justificar. Parcial porque la sostenibilidad del textil no depende solo de impedir la destrucción de lo que sobra, sino de reducir el volumen de lo que se produce sin necesidad.

Dicho de forma simple: la industria de la moda será más sostenible no solo cuando destruya menos, sino cuando necesite generar menos excedentes. La nueva norma europea es un paso sensato. Pero la prueba de fuego no será cuánta ropa deja de destruirse, sino si se logrará reducir la sobreproducción que hace posible ese sobrante desde el principio.


Este artículo se publicó originalmente en la revista Telos de la Fundación Telefónica.

The Conversation

Gabriel Vela Micoulaud no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Que Europa prohíba destruir la ropa que no se vende no es suficiente – https://theconversation.com/que-europa-prohiba-destruir-la-ropa-que-no-se-vende-no-es-suficiente-278170

¿Qué son los hantavirus y qué peligro representan?

Source: The Conversation – (in Spanish) – By Raúl Rivas González, Catedrático de Microbiología. Miembro de la Sociedad Española de Microbiología, Universidad de Salamanca

CI Photos/shutterstock

El 2 de mayo de 2026, la Organización Mundial de la Salud (OMS) informó sobre un grupo de personas con enfermedad respiratoria grave a bordo del crucero MV Hondius. El barco transportaba 147 pasajeros y tripulantes. El 4 de mayo de 2026, se habían identificado siete casos de hantavirus (dos confirmados por laboratorio y cinco sospechosos), incluyendo tres fallecimientos, un paciente en estado crítico y tres personas con síntomas leves.

MV Hondius navegaba desde el hemisferio sur hacia el norte para comenzar la temporada ártica, tras finalizar la temporada en la Antártida. Después de partir de Ushuaia, en Argentina, hizo escala en la isla de Santa Elena antes de poner rumbo al destino final previsto: el norte de Europa. El principal sospechoso de haber causado el brote es el hantavirus Andes.

Doscientos mil afectados cada año

Los hantavirus pertenecen al género Orthohantavirus, a la familia Hantaviridae y al orden Bunyavirales, y representan una amenaza significativa y emergente para la salud pública mundial, que afecta a más de 200 000 personas en todo el mundo cada año.

Son virus zoonóticos con una distribución casi global que causan dos enfermedades graves en humanos: la fiebre hemorrágica con síndrome renal (FHSR), en Europa y en Asia, y el síndrome cardiopulmonar por hantavirus (SCPHC), también llamado síndrome pulmonar por hantavirus (SPH), en América. Los roedores son los principales hospedadores naturales de los hantavirus causantes de la FHSR y el SPH, aunque se ha demostrado que los murciélagos, los topos, las musarañas, los reptiles y los peces también pueden ser portadores.

Las manifestaciones clínicas de la enfermedad varían según la distribución geográfica. En Asia, el virus Hantaan y el virus de Seúl (SEOV) infectan principalmente el riñón humano y causan fiebre hemorrágica con síndrome renal (HFRS). Uno de los principales puntos críticos de HFRS es la populosa provincia china central de Shaanxi.

En América del Norte, el virus Andes (ANDV) y el virus Sin Nombre (SNV) atacan los pulmones y causan el síndrome cardiopulmonar por hantavirus (HCPS) o el síndrome pulmonar por hantavirus (HPS).

En Europa, el virus Puumala (PUUV) y el virus Dobrava-Belgarde (DOBV) causan una forma más leve de HFRS, denominada nefropatía epidémica. En este continente, la mayoría de los casos (>90 %) se concentran en Finlandia, Alemania, Suecia, Francia y Croacia.

Partículas virales en la orina y las heces

No hay suficientes datos sobre cuánto tiempo son viables los hantavirus en el medio ambiente. Algunas investigaciones han demostrado que el virus Puumala, que provoca una afección renal con una mortalidad asociada del 1 % y que es la causa más común de infecciones por hantavirus en Europa, es capaz de permanecer infeccioso hasta quince días en la cama de topillos rojos (Myodes glareolus), un animal que actúa como reservorio para el virus. También puede seguir siendo viable a temperatura ambiente después de cinco días en un entorno húmedo y de veinticuatro horas en un ámbito seco.

Al parecer, los hospedadores naturales de los hantavirus presentan una infección persistente con escaso efecto biológico. La transmisión a los humanos ocurre principalmente por inhalación de partículas virales aerosolizadas presentes en la orina, las heces y la saliva de roedores infectados, a menudo durante la limpieza de áreas cerradas e infestadas. Y en raras ocasiones, también por mordeduras de los animales.

La probabilidad de contagio de persona a persona es baja, pero no imposible, y con algunos hantavirus puede ocurrir en casos de contacto muy estrecho y directo con una persona sintomática. De hecho, ha sido notificada una transmisión limitada de persona a persona en brotes anteriores del virus Andes.

No existe cura para las enfermedades por hantavirus

Los primeros síntomas incluyen fatiga, fiebre y dolores musculares, y las manifestaciones graves pueden comenzar entre 1 y 8 semanas después de la exposición. La principal pauta de prevención es evitar el contacto con roedores.

No existe una cura específica: el tratamiento es sintomático. Para el síndrome pulmonar, oxígeno, fármacos para estabilizar la presión arterial y, en ocasiones, el uso de respiradores mecánicos. Para el síndrome de fiebre hemorrágica renal, diálisis y el medicamento antivírico ribavirina.

Dado que no existe un tratamiento específico para la infección por hantavirus y el síndrome pulmonar por hantavirus (SPH), la detección precoz y los cuidados de apoyo tempranos son fundamentales. El manejo de los síntomas, como la administración de líquidos, la intubación, la ventilación, la monitorización y el soporte cardíaco, son las únicas maneras de controlar la progresión grave de la enfermedad. Sin la atención adecuada, la muerte suele producirse dentro de las 24 a 48 horas posteriores a la afectación del sistema cardiopulmonar.

La mayoría de los casos de síndrome pulmonar por hantavirus son causados por los hantavirus Sin Nombre, Andes y Choclo. Pero también existe constancia de casos provocados por el virus de Black Creek Canal, el virus Muleshoe y el virus Bayou en el sudeste de los Estados Unidos y México; el virus de Nueva York, una variante del virus Sin Nombre, en la costa este de los Estados Unidos; el virus Convict Creek y el virus Isla Vista en la costa oeste; y los virus Laguna Negra, Lechiguanas, Orán, Plata Central, Buenos Aires, Río Mearim, Juquitiba, Ape Aime Itapua, Araucaria, Jabora, Neembucu, Anajatuba, Castelo dos Sonhos, Maripo y hantavirus Bermejo en Sudamérica.

Tres mil soldados misteriosamente enfermos

El primer brote documentado de fiebre hemorrágica con síndrome renal (FHSR) ocurrió durante la Guerra de Corea, en 1951. Afectó a más de 3 000 soldados de las tropas desplegadas por la ONU. A pesar de una intensa investigación, el agente etiológico de esta enfermedad continuó siendo un misterio durante veintiocho años, hasta que el prototipo del hantavirus, el virus Hantaan –cuyo nombre deriva del río Hantaan, en Corea del Sur– fue aislado en 1978 del ratón de campo rayado (Apodemus agrarius).

Antes de la década de 1990 existía la creencia de que los hantavirus estaban restringidos a Asia y a Europa, pero la aparición, en 1993, de un brote infeccioso inusual en los Estados Unidos cambió esta percepción.

En la actualidad, el riesgo para España es muy bajo, pero, aun así, es necesario vigilar los hantavirus debido a su alta tasa de mortalidad. La vigilancia permite la detección temprana, el control de los roedores y la concienciación pública para prevenir la transmisión, ya que no existe tratamiento ni una vacuna específica.

The Conversation

Raúl Rivas González no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. ¿Qué son los hantavirus y qué peligro representan? – https://theconversation.com/que-son-los-hantavirus-y-que-peligro-representan-282186

Atrapados en el mar: ¿cómo se contiene un brote de hantavirus en un barco?

Source: The Conversation – (in Spanish) – By Luis Franco Serrano, Profesor de Ciencias de la Salud, UOC – Universitat Oberta de Catalunya

Strikernia / Shutterstock

La actual alerta sanitaria generada por el brote de hantavirus a bordo de una embarcación nos sitúa ante un escenario epidemiológico tan inusual como complejo.

A diferencia de otros patógenos, el hantavirus es una enfermedad zoonótica que se transmite principalmente a través de la inhalación de aerosoles procedentes de excrementos, orina o saliva de roedores infectados.

La transmisión de persona a persona es extremadamente rara (limitada casi exclusivamente a algunas cepas sudamericanas como el virus Andes). Por lo tanto, el problema principal en un barco no es solo el contacto entre los pasajeros o la tripulación, sino la exposición a un entorno cerrado donde el vector (normalmente ratas o ratones y sus deposiciones) podría estar conviviendo de manera invisible con los humanos en un espacio donde el aire circula de forma interna.

Aislamiento y cuarentena no son lo mismo

Ante una crisis así, las primeras medidas dictadas por las autoridades sanitarias suelen ser el aislamiento y la cuarentena. Aunque a menudo se utilizan como sinónimos en el lenguaje coloquial, en epidemiología responden a estrategias diferentes, y aplicarlas correctamente en un barco es fundamental.

El aislamiento se aplica exclusivamente a las personas que ya presentan síntomas o han dado positivo en la enfermedad. El objetivo es separar a los enfermos del resto de la tripulación para proporcionarles atención médica segura y evitar que cualquier fluido o vía de contagio llegue a personas sanas.

Por otro lado, la cuarentena se aplica a personas aparentemente sanas, pero que han estado expuestas al mismo entorno de riesgo (por ejemplo, que dormían en la misma cabina o trabajaban en la misma bodega donde ha habido contagios). A estas personas se les restringe el movimiento durante el período de incubación del virus para monitorizar si desarrollan síntomas.

Cómo se controla la infección en un barco

Aplicar estos dos conceptos en tierra firme es relativamente sencillo; hacerlo en un barco es un auténtico reto. Un barco funciona como un ecosistema cerrado. Para sectorizarlo, es necesario establecer un sistema de “zonas limpias” y “zonas sucias”.

El mayor desafío es la ventilación. Como el hantavirus se transmite por partículas suspendidas en el aire (cuando se levanta polvo contaminado por roedores), es vital asegurarse de que los sistemas de climatización y ventilación de las zonas de aislamiento y de las zonas de riesgo no recirculen el aire hacia las áreas seguras. Esto, a menudo, implica apagar determinados sistemas de ventilación compartida, utilizar filtros HEPA si la embarcación dispone de ellos, y confinar a los tripulantes en sus cabinas minimizando el tránsito por pasillos y zonas comunes.

Además de la ventilación, otro quebradero de cabeza operativo es la gestión de residuos y suministros. En alta mar, los residuos biológicos o los materiales posiblemente contaminados (como toallas, sábanas o las bandejas de comida de los tripulantes en cuarentena) no pueden almacenarse de cualquier manera ni arrojarse por la borda. Requieren un protocolo de doble bolsa sellada y almacenamiento en zonas aisladas hasta su correcta incineración o tratamiento al llegar a puerto.

Paralelamente, establecer circuitos de “contacto cero” para hacer llegar agua y alimentos a la tripulación confinada en las cabinas es vital para evitar la contaminación cruzada.

Cortar la vía de transmisión: el aislamiento del vector

Dado que el hantavirus se propaga del entorno animal a los humanos y no de persona a persona, restringir los movimientos de la tripulación resuelve solo una parte de la ecuación. La cuarentena humana no es suficiente; es necesario actuar sobre el vector que la provoca, las ratas, que siguen libres por la embarcación y los elementos que han contaminado.

El verdadero reto logístico a bordo es la desratización y la desinfección. Este proceso debe ser extremadamente riguroso. La norma de oro con el hantavirus es no barrer ni aspirar nunca en seco, ya que eso levantaría polvo cargado de partículas virales y facilitaría su inhalación.

Toda limpieza de bodegas, cocinas o espacios de carga sospechosos debe realizarse con métodos húmedos, rociando las superficies con soluciones de lejía u otros desinfectantes antes de limpiarlas. El personal encargado de esta tarea debe ir equipado con Equipos de Protección Individual (EPI) de alta seguridad, incluyendo mascarillas con filtros para partículas (tipo FFP3), gafas estancas y guantes. Sin esta desinfección ambiental intensiva, el barco sigue siendo infeccioso.

La urgencia de estas medidas radica en la resistencia del propio patógeno. El hantavirus puede sobrevivir a temperatura ambiente en entornos cerrados durante varios días.

Además, la estrategia de desratización a bordo requiere precisión: a menudo se priorizan las trampas físicas frente a los cebos envenenados. El motivo es puramente preventivo: si un roedor ingiere veneno y muere en un conducto de ventilación o un espacio inaccesible, su cuerpo seguirá siendo un foco de liberación de partículas virales a medida que se descomponga y empeorará gravemente la situación.

El Reglamento Sanitario Internacional en un mundo globalizado

La llegada a puerto en estas condiciones está estrictamente regulada por el Reglamento Sanitario Internacional de la OMS. Este marco establece cómo deben coordinarse los puertos para autorizar un atraque seguro y atender a la tripulación sin poner en riesgo a la población local. Las autoridades de Sanidad Exterior solo darán permiso para interactuar con el puerto cuando el barco sea declarado oficialmente libre del patógeno y del vector.

Casos como este nos recuerdan una lección fundamental: en un mundo hiperconectado, el comercio marítimo y la movilidad no solo transportan bienes y personas, sino también vectores climáticos y enfermedades zoonóticas. La prevención, el control estricto de plagas en el transporte de mercancías y la preparación epidemiológica de los puertos no son simples trámites burocráticos, sino la primera y más importante línea de defensa de la salud pública global.

La paradoja de esta crisis es que no es necesario aislar a las personas para proteger el entorno, sino desinfectar el entorno para proteger a las personas, ya que es el barco el que resulta infeccioso, y no su tripulación.

The Conversation

Luis Franco Serrano no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Atrapados en el mar: ¿cómo se contiene un brote de hantavirus en un barco? – https://theconversation.com/atrapados-en-el-mar-como-se-contiene-un-brote-de-hantavirus-en-un-barco-282203

Biological invasions can cause severe animal suffering

Source: The Conversation – France – By Thomas George Evans, Principal Investigator, Freie Universität Berlin

Yellow crazy ants (_Anoplolepis gracilipes_), or Maldive ants, are among the world’s 100 most invasive species. Roman Prokhorov/iNaturalist, CC BY-NC

Biological invasions occur when organisms such as animals and plants are introduced by people to regions of the world where they do not naturally occur. In these new locations, these organisms are referred to as “alien species”.

Biodiversity is the variety of all living organisms on earth. It is the interconnected web of life that is a wonder to behold – it is also vital for people, providing the foundation for happy, healthy lives.

Biological invasions can be severely damaging to biodiversity. Alien species interact with native species in many different ways. For example, they often compete with native species for resources such as food.

This can cause declines in the abundance of native wildlife and, in some cases, the permanent loss of native species (their global extinction).

The European fox has been introduced to Australia, where it preys on native animals. It has caused the extinction of several small mammal species.
Fourni par l’auteur

The number of alien species being introduced to new regions continues to rise. Hence, identifying and managing their impacts on native biodiversity is a global conservation priority. A great deal of research has been published on this topic.

However, biological invasions can cause another type of impact that is far less comprehensively studied and managed. These are impacts that cause the suffering of animals.

Animal welfare and sentience

Animal welfare is defined by the World Organisation for Animal Health as

“the physical and mental state of an animal in relation to the conditions in which it lives and dies”.

Sentience is the ability to experience feelings and sensations, such as pain, fear and anxiety. It is now widely recognised that many different types of animals are sentient. In the United Kingdom, the welfare of these sentient animals is protected under the Animal Welfare (Sentience) Act 2022.

Biological invasions affect the welfare of sentient animals

Biological invasions result in interactions between organisms (including plants and animals) that can severely harm the welfare of the animals involved. For example, the avian vampire fly (Philornis downsi) was accidentally introduced to the Galápagos Islands from South America several decades ago.

It lays its eggs in the eyes of fledgling native birds. When they hatch, the larvae feed on the soft tissue around the eyes and nares (nostrils) of the birds. This causes wounds, infection and death.

There are no native insects that cause these welfare impacts on the Galápagos archipelago.

A dead nestling bird with enlarged nares (nostrils) caused by larvae of the avian vampire fly, which crawl inside the nares to feed on soft tissue.
Andrew Katsis/Wikipedia, CC BY

Cheatgrass (Bromus tectorum) is a highly flammable grass species that has been introduced to western USA from Eurasia.

Across the Great Basin, it increases the frequency, size and intensity of wildfires, and the number of individual animals that they kill. These animals include greater sage-grouse (Centrocercus urophasianus).

Greater sage-grouse are burnt by wildfires caused by cheatgrass, which is a flammable alien plant species.
Joegrzybowski/iNaturalist, CC BY-NC

House mice (Mus musculus) were accidentally introduced to Gough Island in the South Atlantic Ocean by sailors in the 19th century.

They attack and eat ground-nesting Tristan albatrosses (Diomedea dabbenena). Having evolved on the island in the absence of predators, the albatrosses are naive to the threat posed by the predatory mice – hence, they do not evade predation.

While this is a biodiversity impact (the mice have caused the albatross population to decrease), it is also an animal welfare impact, as demonstrated by these images. House mice have also recently been recorded attacking albatrosses on Midway Atoll.

Welfare impacts are poorly understood

The animal welfare impacts of biological invasions are a neglected research topic. Few studies have explicitly attempted to identify and describe them.

Hence, we do not have a good understanding of the extent and severity of the animal suffering they cause. Furthermore, we do not understand how this suffering occurs, which animals are most severely affected, and how best to protect them.

Frameworks for biological invasions

Frameworks are conceptual tools that provide standardised systems and rules which can be applied to make sense of complex processes. They can be useful for structuring data on wildlife, including data on the impacts of biological invasions.

Several frameworks have been developed that assess the biodiversity impacts of biological invasions. However, no frameworks have been developed to explicitly assess their animal welfare impacts.

Our research, recently published in the journal Nature Communications, introduces a new framework to assess the animal welfare impacts of biological invasions. This framework is called the Animal Welfare Impact Classification for Invasion Science (AWICIS).

The AWICIS framework

AWICIS assesses impacts on animals that are sentient and protected by UK animal welfare legislation. These are mainly vertebrate animals, although some invertebrate animals are also protected, including Cephalopods (octopuses, cuttlefish and squid).

AWICIS assesses welfare impacts affecting both native and alien animals. This is significant, as research on biological invasions tends to focus on impacts affecting native animals. Our framework recognises that alien animals can also suffer from welfare impacts caused by biological invasions.

While biodiversity research focuses on impacts affecting the survival of species, AWICIS focuses on impacts affecting individual animals.

It identifies “relative changes to the welfare of an individual animal” that are caused by a biological invasion.

To do this, the framework uses five “impact severity” categories (i – v) to quantify the harm caused by a biological invasion on a given animal. It also categorises welfare impacts by type using 11 impact categories. For example, these categories include the “transmission of disease” from one animal to another, and “predation” of one animal by another.

House finches have been introduced from the west coast of the USA to the east coast. They suffer from avian conjunctivitis, which they have spread to other garden birds in the state of New York, including purple martins. Avian conjunctivitis causes blindness, starvation and death.
Coleen Lawlor/iNaturalist, CC BY-NC

Indicators are used in animal welfare science to provide evidence of impacts affecting the welfare of animals.

AWICIS uses three different indicators:

  • The physical appearance of an animal (e.g., dead or injured animals)

  • The behaviour of an animal (e.g., lethargic animals suffering from diseases)

  • Measurable physiological functions that provide insights into the welfare of an animal (e.g., elevated levels of stress hormones produced by an animal).

The welfare impacts of ant invasions

We used AWICIS to assess the welfare impacts of ant invasions. Many different ant species have been introduced to regions of the world where they would not naturally occur. Some use acid to attack and kill animals.

Red imported fire ants attacking an insect in Texas, USA. These ants are capable of killing much larger animals, including fledgling birds and hatchling turtles.
evvobevvo/iNaturalist, CC BY-NC

Using AWICIS we found several of these ant species to cause the most severe category of welfare impact on many types of animals. Ground nesting animals were often affected, including fledgling birds and hatchling alligators and turtles.

Ants can take a long time to kill an animal, so they can cause a great deal of suffering in the process. Unfortunately, these ant species have been introduced by humans to many locations worldwide, including numerous islands and several regions of the USA.

This means that their severe welfare impacts are an ongoing, global phenomenon. Hence, many animals have suffered, and many more will do so in the future as a result of our actions (introducing ants to places where they do not belong).

Preventing the introduction of ants (and other organisms) to new environments is crucial if we are to stop biological invasions from causing unnecessary and severe animal welfare impacts.

A more complete picture of the impacts of biological invasions

It is well known that biological invasions are problematic for biodiversity – they threaten the survival of native species. The socio-economic impacts of biological invasions have also been well studied – these are impacts that affect human health and wellbeing.

In our study, we shed light on a third major type of impact caused by biological invasions – animal welfare. Hence, our study provides evidence for the impacts of biological invasions on “One Health”, which is a term used to recognise that the health of the environment, people and animals is interconnected.

AWICIS is available online

Researchers wishing to report and assess the animal welfare impacts of biological invasions can use the AWICIS Assessment Template.

Observations by researchers studying the biodiversity impacts of biological invasions will also be useful to establish the extent and severity of these animal welfare impacts. Hence, they are encouraged to report these observations using the AWICIS Assessment Template.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Thomas George Evans a reçu des financements de Animal Welfare Initiative et German Research Foundation (DFG).

ref. Biological invasions can cause severe animal suffering – https://theconversation.com/biological-invasions-can-cause-severe-animal-suffering-281845

To lead in global innovation, Canada must prioritize basic science

Source: The Conversation – Canada – By Shay M. Freger, PhD Candidate and Clinical Researcher, Department of Obstetrics and Gynecology, McMaster University

A healthy Canadian research ecosystem cannot survive on the final stages of innovation alone. (Unsplash)

Canada’s National Research Council boldly advertises itself as “advancing mission-driven science and innovation” — to strengthen national security, economic resilience and global competitiveness.

This ambition is difficult to reconcile with a national research system that has, for years, placed too little value on the basic, exploratory, investigator-led science that makes those outcomes possible.

In 2017, Canada’s Fundamental Science Review found that federal funding had shifted too far toward priority-driven and partnership-oriented research. In 2023, the Advisory Panel on the Federal Research Support System made a similar point: mission-driven research depends on the strength of the broader research ecosystem, including curiosity-driven work.

Recent federal investments in research infrastructure, including more than $552 million through the Canada Foundation for Innovation, are important. They help universities, hospitals and research institutions acquire laboratories, equipment and facilities to conduct world-class research.

However, a healthy research ecosystem also needs stable and sustained operating support for investigator-led work. This includes the early, uncertain studies that identify tomorrow’s neglected problems before they become today’s policy priorities.

A nation’s ‘scientific capital’

Health research shows why this distinction matters. We celebrate new treatment advances such as CAR T-cell therapy, which genetically engineers a patient’s immune cells to attack cancer. We welcome CRISPR-based therapies such as Casgevy, a gene-edited cell therapy for sickle cell disease and transfusion-dependent beta-thalassemia.

But these advances did not appear fully formed. They were built through years of work in molecular biology, immunology, genetics, chemistry, engineering and clinical science, much of it conducted before anyone could promise a product, a company or a clinical payoff.

That foundation is fragile when it is treated as optional. As American science adviser Vannevar Bush said back in 1945, basic research is the source of a nation’s “scientific capital.” The Organisation for Economic Co-operation and Development (OECD) continues to make this case clearly today: public support is essential for research and innovation.

A healthy Canadian research ecosystem cannot survive on the final stages of innovation alone. Of course, it needs applied research, commercialization and measurable impact. But it also requires the earlier, “high-risk” discovery work that expands the horizon of what is possible.

Special calls are not enough

Endometriosis makes the problem concrete: it affects many people in Canada, is associated with pain, infertility and reduced quality of life. Canadian research has reported an average diagnostic delay of 5.4 years.

In fields like this, upstream science is not a luxury. Before better diagnostics and treatments can exist, researchers have to ask basic questions about inflammation, pain, immune function, hormones, nerves, genetics, imaging and disease progression.

As researchers working in reproductive health, we have seen how targeted federal grant calls can elevate under-researched conditions. The National Women’s Health Research Initiative, for example, was designed to address high-priority areas of women’s health and improve care for women, girls and gender-diverse people.

This kind of targeted funding matters. It can create momentum and build networks. But it cannot carry a research system on its own. Targeted calls are often time-limited, theme-specific and shaped by priorities that are already visible enough to attract policy attention.

The case of mRNA vaccines

During the COVID-19 pandemic, mRNA vaccines looked to many people like a scientific miracle delivered at unprecedented speed. But that apparent speed was misleading. The vaccines did not emerge from nowhere.

The 2023 Nobel Prize in Physiology or Medicine recognized Katalin Karikó and Drew Weissman for discoveries that enabled effective mRNA vaccines against COVID-19. Their work helped solve a central problem: how to make mRNA useful as a medical tool without having the body immediately recognize and destroy it as a threat.

Even that breakthrough rested on a much wider scientific history, involving around 50 years of public and private research. Scientists had to understand how mRNA carries genetic instructions, how cells translate those instructions into proteins, how immune systems detect foreign RNA and how fragile mRNA could be delivered safely into cells. None of that work was a vaccine when it began. Yet without it, the vaccine could not have arrived when it was needed.

This is why short-term thinking in science policy is so risky. If research is valued only when it can explain its payoff in advance, systems will gradually favour projects that are safer, narrower and more immediately tangible. That may produce useful results in the short term, but it weakens the broader discovery pipeline over time.

Reliance on other nations

There is a strong economic case for paying attention. A 2024 study of 15 OECD countries found that public investment in research and development had positive and persistent effects on GDP and also stimulated business research and development investment.

Public support for long-term research is not separate from economic strategy. It is part of how countries build it. But the deeper issue is not only economic. It’s whether Canada wants to remain a producer of knowledge or become increasingly dependent on knowledge produced elsewhere.

A country that under-invests in basic research does not stop benefiting from science. It becomes more reliant on other systems to take the early risks, generate the foundational knowledge and shape the next generation of medical, technological and industrial advances. Canada’s Fundamental Science Review warned that continued imbalance in funding would leave the country increasingly dependent on discoveries and ideas generated abroad.

This impacts our health, climate science, energy and emerging technologies. It’s important in terms of how well Canada can respond to future crises. And it matters whether neglected areas of health and science ever receive the depth of inquiry required to produce real change.

Canada must protect upstream research

Canada should not have to choose between useful and ambitious science. These are not opposing goals. They are different points along the same continuum. Today’s basic research becomes tomorrow’s applied science. Today’s obscure mechanism becomes tomorrow’s therapy.

Today’s difficult question may become tomorrow’s platform technology. But only if someone is allowed to ask it.

Canada needs targeted programs. It needs research infrastructure. It needs commercialization possibilities that help discoveries reach patients, communities and markets. It needs sustained investment in investigator-led research.

That means protecting operating grants from erosion, funding trainees and early-career researchers, supporting high-risk work in neglected fields and evaluating scientific value by more than immediate commercial readiness.

This is not indulgence. It is foresight.

The Conversation

Shay M. Freger receives funding from the Canadian Institute of Health Research (CIHR) and Health Canada. He writes and conducts research on endometriosis, health equity, and health systems reform. The views expressed are his own.

Mathew Leonardi works for McMaster University (Department of Obstetrics and Gynecology), Hamilton Health Sciences, and SUGO – Specialized Ultrasound in Gynecology and Obstetrics. He receives funding from CanSAGE, CIHR, Hamilton Health Sciences, Health Canada, SOPHIE, MITACS, and Medical Research Future Fund.

ref. To lead in global innovation, Canada must prioritize basic science – https://theconversation.com/to-lead-in-global-innovation-canada-must-prioritize-basic-science-279713

Comment émergent les « problèmes » dont parlent médias et politiques ?

Source: The Conversation – in French – By Érik Neveu, Sociologue, Université de Rennes 1 – Université de Rennes

Les « problèmes » mis en avant par les médias ou les responsables politiques ne sont pas forcément les plus urgents ou les plus essentiels. Comprendre comment émergent les « problèmes publics » invite à ne pas les penser comme des évidences. Quelles actions et quels contextes propulsent une question sur la scène publique ou la refoulent  ?


L’expression « problème public » n’appartient pas encore au vocabulaire courant. Elle désigne un processus : en quoi un fait, un thème, devient-il objet de l’attention des médias, des conversations, éventuellement des politiques publiques ?

Si on en parle, c’est donc que l’affaire est importante ! Là, les choses se compliquent. Pour formuler un énoncé paradoxal : il n’y a pas de règle de correspondance logique entre ce qui serait la gravité objective d’un événement ou d’un enjeu – pas toujours facile à hiérarchiser au demeurant – et sa transformation en problème public.

Des situations dont on peut soutenir qu’elles ont engendré d’immenses souffrances à de vastes groupes ont pu longtemps rester sous le radar des débats et de l’action publique. Qu’on pense aux violences sexuelles sur les femmes ou sur les enfants, à la situation parfois pitoyable des personnes âgées en Ehpad, à leur fréquente solitude… Enjeu récemment pris en charge par le gouvernement de Corée du Sud, à l’étonnement des commentateurs. À l’inverse, la margarine paraîtra un objet bien peu propre à déchaîner les passions… Elle a pourtant suscité d’âpres débats, et même une série de référendums sur son interdiction, l’obligation de la colorer en rose à la fin du XIXᵉ aux États-Unis ! Et il n’est pas sûr que les émois suscités en France par quelques dizaines de baigneuses en burkini ne semblent pas aussi étranges dans vingt ans.

Les entrepreneurs de cause

Faits et événements ne sont pas ventriloques. Ils ont besoin de l’équivalent d’imprésarios : ce sont les entrepreneurs de cause. On désigne par ce terme une grande variété d’acteurs (associations, intellectuels, mouvements sociaux, groupes de pression, entreprises, élus et partis, administrations, journalistes) qui vont définir des situations comme « problématiques », c’est-à-dire requérant attention, débat et action. Leur action vise à propulser des enjeux vers l’espace public et les autorités politiques. Ses formes varient selon les ressources et la nature des entrepreneurs. Il pourra s’agir d’un long travail d’investigation par un journaliste, comme le fit Victor Castagnet sur la maltraitance dans des Ehpad du groupe Orpea. Les mouvements sociaux vont davantage recourir à des mobilisations, comme l’illustre la mise en cause des « méga-bassines » créée à la demande de syndicats agricoles capables, eux, de convaincre les autorités locales que l’irrigation est un problème public.

Mais les entrepreneurs de cause peuvent aussi faire face à un travail de disqualification de leurs démarches ou de leurs argumentations. Ainsi, quand Nestlé soutient, contre des associations de consommateurs, que, même traitées en violation des normes, ses eaux sont parfaitement « minérales ». Ils peuvent voir leur dossier canalisé vers des institutions qui en préviennent la publicisation, englué dans des procédures d’une extrême lenteur, comme les victimes du chlordécone aux Antilles.

L’émergence d’un problème public est toujours le fruit d’une double lutte. Elle oppose des causes concurrentes car l’attention est une ressource rare. Même en des temps d’abondance informationnelle, il faut hiérarchiser les sujets qui font la une. L’ordre du jour du Parlement ne permet pas de légiférer sur tout simultanément. Quand le 22 novembre 2025, se déroulent des rassemblements contre les violences faites aux femmes, d’autres pour les droits des Palestiniens, d’autres en hommage à Mehdi Kessaci assassiné par les narcotrafiquants, quel sera le premier titre des journaux radio et télévisés ?

La lutte porte aussi sur ce que l’on appelle les « cadrages » médiatiques et politiques – la métaphore photographique renvoyant à ce qu’on rend visible ou repousse hors cadre. Quand on débat du narcotrafic, faut-il, comme le fit Bruno Retailleau, pointer la responsabilité des consommateurs ou tenir l’usage du cannabis comme un fait si banalisé que mieux vaut le légaliser ? Les réponses de politique publique doivent-elles se concentrer sur les points de deal ou sur un système bancaire encore trop perméable à l’argent sale ?

Mettre en récit

Il faut à la fois faire voir et faire « bien voir » ce qu’on veut constituer en problème. Il est donc habile de mobiliser des éléments d’une culture partagée, de prendre en compte un air du temps idéologique.

Si la margarine est devenue un problème public dans l’Amérique du Gilded Age, c’est que ces petits lingots de matière grasse condensaient tout un jeu d’oppositions. Produit « authentique », le beurre symbolisait une Amérique rurale de petits producteurs aux mœurs sobres, proches de la nature. Sous-produit des abattoirs de Chicago, la margarine incarnait, elle, la grande ville, la montée en puissance de l’industrie et de produits « artificiels » ou frelatés ; elle était consommée par un prolétariat souvent venu de pays latins et/ou catholiques, supposé intempérant, stigmatisé par le « nativisme » d’Américains protestants se voulant plus authentiques car nés sur le sol de l’Union.




À lire aussi :
Margarine vs butter: how what we spread on our toast became a weapon of class war


Promouvoir un problème, c’est aussi en faire une histoire – au double sens de cette expression. En suggérer la gravité, l’urgence à y répondre, donc. Cela s’argumente par trois grands registres rhétoriques. L’expertise à coup de dossiers, de chiffres, de sollicitations de praticiens et de chercheurs. La vox populi qui montrera – à coup de sondages, de nombres de manifestants, de résultats électoraux – combien « les Français » sont préoccupés, demandent telle action. La sollicitation des émotions, enfin, va jouer sur un clavier où opèrent la peur, la honte, la compassion, le ressentiment, la haine.

Mis en débat dans les années 1970 à partir des morts d’ouvriers dans des usines produisant des plaquettes de frein, le problème de l’amiante suscite alors indignation et compassion, mais il est vite recouvert par d’autres drames. Recadré dans les années 1990 en polluant environnemental, omniprésent (des matériaux de construction aux grille-pains), associé, au JT de TF1, au logo à tête de mort des poisons, menaçant cette fois tout un chacun, l’amiante mobilise alors une peur à l’aire de résonance et à la durée bien plus efficaces.

La meilleure mise en récit, la mieux argumentée n’est efficace que si elle entre dans trois « agendas », soit la hiérarchie des attentions des médias, de l’opinion publique et des décideurs politiques. Or, les ressources des porteurs de cause en moyens financiers, en maîtrise des logiques des médias, en accès aux élus et en cabinets ministériels sont très inégales. Les médias fonctionnent comme des filtres à problèmes selon ce qu’on nomme leur « valeur d’information ».

Si les enjeux environnementaux sont aujourd’hui assez significativement couverts, ils mirent longtemps à trouver leur place. Les écologistes apparaissaient comme trop militants, antimodernes, voire « amish », donc comme des sources peu fiables. Plus encore, l’absence d’une « rubrique » adéquate et donc de journalistes spécialisés posait la question : où parler de rejets toxiques d’une usine, de la raréfaction des papillons ? En faits divers, économie, sciences ? La réponse était souvent : nulle part.

Parler d’inégalités entre entrepreneurs, c’est aussi noter que certaines revendications ou problèmes peuvent se faire entendre sans passer par la case « médias » – quand leurs soutiens sont connectés aux foyers de décision, ils ont les ressources d’un lobbying discret et efficace. Dans une étude très documentée des groupes de pression à Bruxelles, Sylvain Laurens a pu montrer que, outre l’action de milliers de lobbyistes professionnels, ceux-ci disposaient souvent, au sein des directions générales de la Commission européenne, de véritables garnisons d’anciens salariés et collaborateurs.

Des problèmes publics aux politiques publiques

La réussite des entrepreneurs de problèmes peut se mesurer à leur capacité de peser sur des politiques publiques, d’en faire instituer de nouvelles.

Qu’un ministère de la culture puisse promouvoir le rock ou la BD, qu’un autre ministère traite des droits des femmes, n’allait pas de soi voici un demi-siècle. Mais le vote d’une loi, la création d’une administration répondant à un problème sont rarement l’équivalent d’une case « Arrivée ».

La victoire des uns suscite la remobilisation des battus (par exemple, l’abandon des zones à faibles émissions, ZFE, quand elles furent accusées d’exclure des villes les plus démunis). Les agents d’une administration peuvent, sur le terrain, faire dévier la portée d’une réforme. Celle-ci peut s’avérer dysfonctionnelle ou ruineuse (cf. la difficile mise en œuvre de MaPrimeRénov’ sur l’isolation du bâti).

La réponse à un problème peut en créer d’autres – quand aux États-Unis, comme le montre la chercheuse Chin Jou, les aides de la Small Business Administration aux entrepreneurs afro-américains financent l’invasion des quartiers noirs par la malbouffe des fast-foods. La trajectoire des problèmes publics a ceci de commun avec la marche sur un jeu de l’oie qu’on peut y emprunter des raccourcis, avancer très vite, mais aussi faire soudain retour à la case « Départ ».

Issue des sciences sociales états-uniennes et notamment des travaux de Joseph Gusfield, l’analyse des problèmes publics s’est fait depuis trente ans une place dans le monde académique français. Elle est éclairante pour les citoyens en invitant à ne pas penser les objets de débat public comme des évidences. Elle aide à comprendre – sans raccourcis complotistes – les actions et les contextes qui propulsent ou qui refoulent un enjeu sur les scènes médiatiques et politiques, et en façonnent les termes.


Érik Neveu est l’auteur de Sociologie politique des problèmes publics, Armand Colin, Paris, 2022, 2ᵉ éd.

The Conversation

Érik Neveu ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Comment émergent les « problèmes » dont parlent médias et politiques ? – https://theconversation.com/comment-emergent-les-problemes-dont-parlent-medias-et-politiques-271570

L’adaptation silencieuse : ces transformations qui échappent aux politiques publiques

Source: The Conversation – in French – By Guillaume Simonet-Umaña, enseignant chercheur en adaptation aux changements climatiques, Université de Pau et des pays de l’Adour (UPPA)

À l’échelle locale, de nombreuses actions naissent spontanément pour faire face aux aléas du climat. Rarement revendiquées comme des mesures d’adaptation aux changements climatiques, elles passent souvent inaperçues des politiques publiques.


Les rapports scientifiques, les injonctions politiques et les plans nationaux se succèdent pour enjoindre les territoires à s’adapter aux nouvelles réalités climatiques. Pourtant, une question demeure : comment l’adaptation se déploie-t-elle de manière concrète sur le terrain ? Si les annonces de projets ou de cadrages réglementaires occupent souvent le devant de la scène, d’autres formes de réorganisation sont à l’œuvre, bien plus discrètes, que l’on peut regrouper sous l’appellation d’« adaptation silencieuse ».

Derrière cette qualification se cachent de multiples initiatives individuelles, corporatives ou collectives qui, sans être désignées ou étiquetées « adaptation », transforment pourtant peu à peu les organisations et les territoires. Prendre en compte ces dynamiques et mieux en saisir les contours pourrait s’avérer pertinent pour éviter que les politiques publiques ne passent à côté d’une partie de la réalité vécue sur le terrain par les populations et les entreprises.

L’adaptation, une notion toujours en quête de sens au niveau de sa déclinaison pratique

Penchons-nous sur un cas, pour bien comprendre. Face à la baisse continue de ses récoltes qui subissent un mildiou tenace dû à des épisodes météo capricieux, un viticulteur installé dans l’Aude bénéficie depuis 2021 d’informations collectées par les stations météorologiques positionnées sur son secteur par le biais d’un technicien mis à disposition par la Chambre d’agriculture départementale. Ces précieuses données lui permettent d’anticiper aux mieux les conditions climatiques défavorables en attendant l’homologation par l’Inrae de nouvelles variétés de cépages plus résistants aux maladies, testées dans le cadre d’une collaboration.

Pourtant, à aucun moment ce viticulteur ne mentionne ces mesures comme étant des actions d’adaptation aux changements climatiques, alors même qu’elles participent à la transformation de son exploitation afin de faire face à l’accélération de nouvelles réalités climatiques.

Affublée de « parente pauvre » des agendas politiques climatiques internationaux ou nationaux pendant longtemps, l’adaptation aux changements climatiques est aujourd’hui un des termes les plus en vue. En témoigne la 3ᵉ édition du Plan national d’adaptation au changement climatique, la multiplication des Trophées de l’adaptation ou encore la nette augmentation des publications scientifiques et médiatiques sur le thème.

Pourtant, derrière sa priorité affichée dans les politiques publiques climatiques, l’adaptation se heurte toujours à plusieurs difficultés au moment de sa déclinaison opérationnelle, parmi laquelle celle d’être identifiée comme telle. Ainsi, l’artisan chocolatier qui n’a pas le choix de diversifier et trouver de nouvelles sources d’approvisionnement de cacao après les récoltes désastreuses de son fournisseur habituel situé en Côte d’Ivoire ne va pas mentionner sa démarche comme une adaptation aux changements climatiques.

Pour une large part des professionnels qui travaillent dans l’émergent domaine de la résilience face aux changements climatiques, en revanche, s’adapter n’est souvent rien d’autre que la réactualisation d’une gestion des risques 3.0 dopée par de nouveaux moyens techniques d’anticipation que rejoint progressivement l’intelligence artificielle (IA) régénérative. Des cartes colorées et chiffrées issues de modèles climatiques toujours plus performants sont alors proposées comme supports de base à l’élaboration d’actions à planifier par le client.

Pourtant, dès 2004, les chercheurs Suraje Dessai et Mike Hulme interrogeaient cette logique « descendante » et sa pertinence en termes d’opérationnalisation de l’adaptation. Dès lors, malgré l’horizon régulièrement annoncé de « transformation » des territoires et des activités, l’objectif est affiché : accroître la résilience des caractéristiques de vie telles qu’installées depuis plusieurs générations pour faire face à une France à + 4 °C autour de 2100.

Mais à l’échelle locale, une autre partition se joue chez les populations qui se retrouvent confrontées à des aléas climatiques toujours plus violents. Ainsi, dans une clinique située en région Grand-Est, une circulaire confirme que les horaires peuvent évoluer lors d’épisodes désormais récurrents de grandes chaleurs afin de protéger les employés et les patients. En parallèle, des discussions ont lieu au sein de la direction afin d’évaluer la possibilité de proposer des tenues vestimentaires plus adéquates pour les préposés aux soins.

Autant d’actions qui incarnent de nouvelles pratiques sans toutefois vêtir la terminologie « adaptation » au moment d’interroger les acteurs. C’est que pour assurer la continuité de leurs services ou la pérennisation de leurs activités professionnelles, la marge de manœuvre des collectivités et des entreprises est étroite : concrètement, il s’agit avant tout de bricoler face à des contraintes financières, techniques ou administratives qui s’accumulent. De multiples acteurs locaux œuvrent ainsi silencieusement à l’écart des radars administratifs qui comptabilisent, décernent ou mettent en avant les meilleurs élèves en matière d’adaptation.

L’adaptation silencieuse : au-delà des injonctions

Pour qualifier le phénomène qui ressort régulièrement des entretiens et observations menés tout au long de ces deux dernières décennies auprès d’acteurs de terrain, j’ai choisi le terme d’« adaptation silencieuse », en référence aux travaux du philosophe François Jullien.

Pour décrire les changements continus qui sont au cœur de la vie, telle que la vieillesse ou l’évolution des sentiments, François Jullien utilise dès 2009 le terme de « transformations silencieuses », terme qu’il applique également aux changements climatiques :

« Que sont les changements climatiques sinon des transformations silencieuses, issues d’une corrélation indéfinie de facteurs se produisant infinitésimalement et de manière continue à l’échelle globale ? »

À son tour envisagée comme une transformation silencieuse, l’adaptation peut ainsi être perçue comme un processus de réorganisation continue par lequel les systèmes se structurent en fonction de l’évolution climatique en vue d’assurer leur viabilité.

Associer « adaptation » et « silencieuse », permet aussi d’évoquer une réalité : beaucoup d’acteurs n’utilisent que peu, volontairement ou pas, le vocabulaire associé aux démarches d’adaptation prônées dans les injonctions. Ici, on ne communique pas avec des « diagnostics de vulnérabilité », des « expositions aux aléas » ou des « facteurs de sensibilité ». On surveille la météo au jour le jour, et on avise selon les moyens du bord : on change les dates de semis, on reporte le chantier ou on nettoie les abords de la rivière voisine.

Ensuite, il s’agit d’opérer dans une temporalité qui va permettre la continuation de l’activité, le maintien de la bonne relation avec le client ou l’amoindrissement du choc pluvial à venir. L’horizon temporel s’étend de la veille au lendemain jusqu’à « la prochaine fois ». L’horizon spatial, lui, se situe à l’échelle des 120 mètres carrés du mur nord de l’église du XIVᵉ siècle en proie à un retrait gonflement d’argile prononcé, à l’échelle de la parcelle en herbage censée assurer le troupeau des dix-sept brebis jusqu’au mois prochain ou à l’échelle des quatre employés de l’équipe municipale en charge de débroussailler les abords ouest du village. Ces chapelets d’initiatives successives mises en place « pour faire face à cette météo déréglée » s’égrènent sur le territoire et participent de l’adaptation.

Concrètement, ces réorganisations invisibilisées sont autant de processus non explicitement désignés comme des adaptations aux changements climatiques qui se révèlent par l’usage, et non par le décret : redoutant un nouvel été, « comme celui de l’an dernier », le bureau de l’agence immobilière teste sa clientèle sur de nouveaux horaires en période estivale afin de garantir le confort thermique de ses employés.

Pour les chercheurs qui arpentent les territoires, ces formes d’action sont plus répandues qu’on ne le pense. Elles se distinguent de l’action publique par plusieurs caractéristiques, parmi lesquelles l’absence de label, une décentralisation maximale et une optimisation de l’apprentissage pas à pas : n’ayant pu accéder au marché hebdomadaire du fait des routes inondées, l’exposant du camion-boucher se renseigne sur les possibilités d’autres marchés en faisant appel à son réseau afin d’élaborer un nouveau calendrier annuel prenant en compte ces obstacles météo récurrents.

S’adapter, c’est aussi écouter ce qui se met en place sans bruit et dans l’ombre. L’illusion réside dans le fait de se croire rassuré par la tangibilité d’une adaptation bruyante. Or, le silence a également le potentiel de construire une capacité à habiter le monde qui se dessine chaque jour un peu plus sous nos yeux. En quête d’efficacité, les politiques publiques pourraient avoir tout à gagner en cessant de considérer les acteurs locaux comme des récepteurs passifs de schémas directeurs pensés pour eux.

The Conversation

Guillaume Simonet-Umaña est coordonnateur de l’association Reconnexion – Expertise Climat Occitanie.

ref. L’adaptation silencieuse : ces transformations qui échappent aux politiques publiques – https://theconversation.com/ladaptation-silencieuse-ces-transformations-qui-echappent-aux-politiques-publiques-280500

Souveraineté numérique européenne : quels leviers juridiques et politiques ?

Source: The Conversation – in French – By Nicolas Minvielle, Docteur en économie, spécialiste des questions d’innovation et de défense, Audencia

Le libre-échange, pensé comme facteur de paix depuis l’après-guerre, est devenu une source de tensions, notamment face à la domination numérique des États-Unis. L’Union européenne, très dépendante technologiquement, se heurte à un cadre juridique international et interne qui limite sa souveraineté. Pourtant, elle dispose de leviers juridiques et réglementaires pour agir. Entre recours aux exceptions de sécurité et modèle coopératif inspiré d’Airbus, l’avenir de la souveraineté numérique européenne repose sur une stratégie collective alliant droit, technologie et volonté politique.


« L’esprit du commerce ne peut coexister avec la guerre », affirmait Emmanuel Kant, introduisant l’idée selon laquelle la logique économique s’oppose à celle du conflit armé. C’est suivant cette logique que s’est construit l’ordre international d’après la Seconde Guerre mondiale, avec l’Accord général sur les tarifs douaniers et le commerce (GATT) (1947), l’Organisation mondiale du commerce (OMC) (1995) et le marché intégré européen, dont l’un des principes absolus est la libre circulation et l’ouverture des marchés à tout acteur établi sur le territoire de l’Union européenne (UE).

Cette liberté du commerce, qui se donne donc un objectif pacificateur, est aujourd’hui source de divers conflits, les acteurs économiques devenant des vecteurs de diffusion de modèles politiques ou sociétaux. Si le constat n’est pas récent, le réveil européen l’est. L’interdiction de séjour aux États-Unis de Thierry Breton, commissaire européen de 2019 à 2024 et artisan de la législation européenne sur les services numériques (DSA), ainsi que l’ambition de prise de contrôle stratégique du Groenland affichée par l’administration Trump ont catalysé la prise de conscience de la vulnérabilité diplomatique de l’UE face à son allié américain.

Cette vulnérabilité diplomatique se double d’une profonde dépendance en matière numérique. En 2024, le rapport Draghi soulignait que la dépendance de l’Europe envers les pays tiers, à commencer par les États-Unis, était de plus de 80 % pour ses usages numériques. La volonté de l’UE de réguler les géants du numérique est génératrice de tensions régulières avec Washington, qui use de la prédominance de ses acteurs économiques pour décider de mesures de rétorsion à l’encontre de l’Europe. C’est dans ce contexte que se pose la question de la possibilité d’une réelle souveraineté de l’UE dans le domaine du numérique.

Le cadre juridique international, obstacle apparent à la souveraineté numérique

Il n’est pas évident de trouver dans un droit international constamment bafoué, les clés de la construction d’une souveraineté numérique européenne. Ce droit a été bâti dans un objectif de libre-échange absolu. Le défi est d’autant plus important que la mondialisation des échanges a favorisé le développement de lois extraterritoriales, brisant le concept westphalien de souveraineté territoriale –une mutation juridique qui instaure un rapport de force asymétrique au profit de la puissance capable d’instrumentaliser sa domination technologique et monétaire.

Dans le domaine du numérique, ce changement de paradigme est porté par des législations comme le Cloud Act, qui rendent les protections juridiques classiques obsolètes face aux injonctions étrangères, plaçant les États ne disposant pas de tels leviers de domination dans une situation de dépendance numérique critique.

Et pourtant…

Au sein de l’UE, la libre circulation est le fondement qui a permis au marché intégré – le plus intégré au monde – de voir le jour. Corollaire logique, le droit européen interdit aux États membres de préférer leurs entreprises nationales (non-discrimination) et ouvre ses marchés publics à « tout fournisseur légalement établi dans l’UE ».

Complété par les règles de libre-échange instaurées par le GATT et l’OMC, le droit européen est souvent jugé responsable de l’installation pérenne des Gafam sur le sol européen. Car c’est ce cadre de libre-échange qui a permis l’émergence d’« États plateforme », reconnus comme de réels acteurs des relations internationales. Preuve s’il en fallait de la reconnaissance quasi souveraine des géants du numérique, le Danemark a créé en 2017 un poste d’« ambassadeur auprès des GAFA », rejoint depuis par le Royaume-Uni, l’Autriche ou la France, avec des appellations moins engageantes (technology envoy au Royaume-Uni, ambassadeur pour les affaires numériques en France).

Paradoxalement, ces géants du numérique dépassent aujourd’hui l’ordre qui les a fait émerger, en rendant désuets les États « classiques » et leur souveraineté. Plus encore, ils influencent les accords de libre-échange de nouvelle génération (comme le Trans-Pacific Partnership, TPP, devenu Comprehensive and Progressive Agreement for Trans-Pacific Partnership ou CPTPP) pour y introduire des clauses limitant la capacité des gouvernements à réguler l’environnement numérique. Ainsi donc bénéficient-ils d’un cadre international favorable qui leur permet d’opérer partout.

Mais la soumission juridique au pays d’origine demeure et profite aux États d’où émergent ces géants, qui transforment les nouvelles frontières du numérique ainsi dessinées en puissants outils d’influence. Illustration récente : en 2025, Microsoft a été contraint d’appliquer les sanctions prises par le gouvernement Trump à l’encontre de Karim Khan, le procureur de la Cour pénale internationale, pour avoir émis des mandats d’arrêt contre plusieurs personnalités israéliennes. Car un contrat privé n’est jamais supérieur aux lois nationales.

Ainsi, les sanctions américaines, tout comme le Cloud Act, permettent aux autorités étrangères d’intervenir au-delà de leurs frontières à partir du moment où le lien avec une entreprise américaine existe. Le sujet est souvent traité sous l’angle des risques d’espionnage, mais en réalité la problématique est plus large et concerne bien la disponibilité de service dans sa globalité.

Droit international vs. droit européen : ce que permet le droit de l’Union

Le reproche est constant ces dernières années ; celui d’une trop grande ouverture du marché européen, parfois synonyme de naïveté. Un respect très (trop) strict des règles du GATT, et des engagements internationaux de l’Europe – parmi lesquels le Government Procurement Agreement – qui garantit un accès non discriminatoire aux marchés publics des États signataires. Ainsi donc, l’UE se voit entravée dans toute tentative d’instaurer une préférence européenne, par son droit interne, et par le droit international qu’elle est aujourd’hui l’une des dernières à prendre en considération.

Pour autant, l’UE est une exception reconnue au libre-échange et à la clause de la nation la plus favorisée, puisqu’elle a mis en place une union douanière interne, supprimant de fait toute barrière tarifaire entre États membres. Elle forme un unique territoire douanier et négocie comme tel à l’OMC.

L’UE est parfois considérée comme un « objet non identifié » du droit international, qui lui confère des leviers d’action particuliers. Et si dans certains domaines elle est jugée peu efficace, force est de constater qu’elle brille par sa créativité réglementaire. Car l’UE est la seule organisation intergouvernementale disposant de son propre ordre juridique, autonome et contraignant, dont l’application est garantie par la Cour de justice de l’Union européenne. Un droit européen qui s’est construit dans la recherche d’équilibre entre intégration et respect des souverainetés étatiques.

Ainsi les juristes européens ont-ils pensé des leviers aujourd’hui pertinents à mobiliser pour construire la souveraineté numérique de l’UE. Ce sont ces leviers qui ont permis à la France de développer son programme nucléaire en faisant valoir les exemptions pour la sécurité nationale. Ce sont ces leviers, aussi, qui ont permis à Airbus de voir le jour, par la formation de consortiums dédiés à des projets industriels stratégiques. Ce sont peut-être ces leviers qui demain permettront à l’UE de disposer d’une réelle autonomie numérique.

Le modèle nucléaire ou l’utilisation stratégique des exceptions de sécurité pour l’UE, bonne ou mauvaise idée ?

L’article 346 du TFUE, traité fondamental qui organise les compétences de l’UE, permet aux États membres de s’affranchir des règles de mise en concurrence pour protéger leurs « intérêts essentiels de sécurité ». Un État membre pourrait donc théoriquement invoquer l’article 346 pour contraindre ses structures gouvernementales à se fournir auprès d’acteurs nationaux pour la mise à disposition de services numériques. Cela impliquerait une interprétation extensive de la notion d’intérêts essentiels de sécurité.

Si la jurisprudence de l’UE a longtemps été stricte sur le sujet, il est intéressant de constater que la Cour de justice de l’UE a progressivement infléchi sa position. Sans doute le contexte sécuritaire actuel n’y est-il pas étranger. Ainsi la Cour a-t-elle reconnu en 2018 que l’article 346 pouvait s’appliquer au-delà du champ militaire classique, dès lors que l’objectif est de protéger des intérêts essentiels de sécurité.

Si le levier existe, il n’est pas dit cependant qu’il soit la solution à la problématique numérique. Ainsi l’article 346 a-t-il permis le développement de bases industrielles et technologiques de défense (BITD) nationales, tout en fragmentant le marché européen de la défense. Le développement de l’industrie nucléaire, permis pour son volet militaire par l’article 346, est une réussite française, non européenne. La technologie, bien que complexe, était maîtrisable à l’échelle nationale.

Mais s’agissant de souveraineté numérique, l’effort doit être collectif. D’abord parce que le cyberespace est un milieu fondamentalement transverse et que la création d’une base industrielle de confiance nécessite une mutualisation des ressources. Ensuite parce que seule une action européenne coordonnée permettra d’exercer la puissance normative de l’UE. Enfin parce que l’utilisation de l’article 346 entraînerait de facto une fragilisation du marché intérieur européen, là où la coopération est condition de réussite.

Le modèle Airbus ou l’avenir du triptyque technologie-droit-politique

Parce qu’il existe des réussites européennes, le modèle développé par et pour Airbus, bien que divergent sur nombre d’aspects, peut être éclairant pour construire l’indépendance numérique de demain.

Airbus est le fruit d’un constat partagé, celui de l’impossibilité pour les industries aéronautiques de certains États membres (France, Allemagne, etc.) de rivaliser avec Boeing. Et la prise de conscience d’un risque associé, celui de la fragilisation de la souveraineté européenne. C’est donc d’une volonté politique et d’une coopération institutionnelle transnationale qu’est né Airbus. Cette volonté politique fut adossée à un effort technologique certain, qui a permis le développement et la mise sur le marché de l’A300, premier avion de ligne civil à large fuselage, équipé de seulement deux moteurs.

S’agissant du numérique, la rupture technologique ne serait pas celle du produit, mais l’approche visant à promouvoir une infrastructure de base (Foundation Model) ouverte. Ce qui permettrait à une multitude d’acteurs de construire leurs propres solutions sur cette base, et de réduire la dépendance aux Gafam. C’est cette voie d’autonomie technologique que semble poursuivre l’UE.

Le troisième pan de construction – et peut-être l’essentiel – d’Airbus fut le droit.

Pour exemple, les subventions européennes nécessaires aux investissements industriels étaient permises par le droit de l’UE, bien que contestables (et contestées) auprès de l’OMC. Les fameuses Launch Aid se fondaient sur l’article 107 du TFUE qui stipule que les aides accordées par les États membres qui faussent la concurrence sont interdites, mais peuvent être autorisées si elles sont « destinées à promouvoir la réalisation d’un projet important d’intérêt européen commun ». Sur le volet juridique, l’Europe a tenu face à l’OMC, puis aux États-Unis, qui ont sanctionné Airbus pour non-respect des règles de concurrence.

C’est cette force normative qui peut être mobilisée pour accompagner le développement d’un écosystème numérique européen. Elle l’est déjà avec le règlement général sur la protection des données (RGPD) et par ce qu’on désigne comme le Brussels Effect – ou effet extraterritorial du droit européen. Sur le plan purement normatif, le projet de Cloud and AI Development Act (CAIDA), qui sera débattu à Bruxelles en mai, pourrait amener à qualifier le cloud et les services d’IA d’infrastructures critiques, les sortant de facto du cadre de libre concurrence classique. Reste à savoir si les États membres convergeront vers un texte substantiel, non affaibli par les investissements de lobbying croissants des Gafam à Bruxelles.


Cet article a été rédigé avec Marie Devaux, enseignante vacataire à Sciences Po Aix.

The Conversation

Nicolas Minvielle est membre du comité d’orientation de la Fabrique de la Cité. Il a été animateur de la Red Team Défense des armées, et est LCL(R) au sein du Commandement du Combat Futur de l’armée de terre. Il est par ailleurs membre du collectif Making Tomorrow

ref. Souveraineté numérique européenne : quels leviers juridiques et politiques ? – https://theconversation.com/souverainete-numerique-europeenne-quels-leviers-juridiques-et-politiques-280240

Le black-out autour de l’assassinat de Sadio Camara : la presse malienne au garde-à-vous ?

Source: The Conversation – in French – By Ayouba Sow, Doctorant en Science de l’information et de la communication à l’Université Côte D’Azur, laboratoire SIC.Lab Méditerranée., Université Côte d’Azur

Les attaques du 25 avril 2026 contre plusieurs villes maliennes ont été minorées par les médias officiels, soumis à une pression constante du pouvoir. Celui-ci a instauré une censure de fait, comme en témoignent les hésitations prolongées autour de l’annonce de la mort du ministre de la défense Sadio Camara, longtemps passée sous silence par les médias publics maliens, alors même que sa disparition était déjà annoncée par la presse internationale.


Le samedi 25 avril, à l’aube, les djihadistes du Jama’at Nusrat ul-Islam wa al-Muslimin (JNIM) et leurs alliés séparatistes du Front de Libération de l’Azawad (FLA) ont simultanément attaqué plusieurs villes maliennes dont Gao, Kidal, Mopti, Sévaré, Sénou et Kati, la plus sécurisée du pays et fief des autorités de transition. Ces attaques coordonnées révèlent une carence importante au niveau du renseignement. Comment plus d’une centaine de djihadistes ont-ils pu envahir Kati avec des pick-up, des véhicules chargés d’explosifs et des motos sans être repérés à l’avance ? Dans les médias maliens, une omerta totale règne sur cette question.

L’attaque de villes comme Mopti, Kidal ou Gao n’est pas surprenante : depuis plusieurs années, les djihadistes ont pris le contrôle de villages périphériques de ces capitales régionales. Il leur a suffi de traverser le fleuve pour entrer dans la ville de Mopti, où ils ont terrorisé la population toute la journée de samedi. Au-delà d’une crise sécuritaire, ces attaques révèlent une crise informationnelle inquiétante, ainsi que la subordination de la presse malienne au gouvernement de transition.

Combattre la désinformation par des médias muselés : un combat perdu d’avance

Dans le JT de 20 heures du 25 avril, le pouvoir et la chaîne nationale (ORTM1) s’étaient limités à un premier communiqué minimaliste, dans lequel le général de brigade Issa Ousmane Coulibaly, ministre de l’intérieur et de la décentralisation et porte-parole du gouvernement, annonçait un bilan de « 16 blessés, dont des civils et des militaires » et affirmait que tout était sous contrôle. Il n’a annoncé aucune perte du côté des Forces armées maliennes et assurait que « plusieurs terroristes » avaient été « neutralisés ». Il a, en outre, appelé « les populations maliennes […] à se référer exclusivement aux canaux officiels du gouvernement pour accéder à des informations fiables » — sachant bien que l’une des informations principales, l’assassinat de son homologue de la Défense, est délibérément occultée.

Le reportage de l’ORTM1 diffusé à la suite de la lecture du communiqué a fait état de « plusieurs centaines d’assaillants neutralisés », mais est demeuré silencieux sur l’explosion de la résidence de Sadio Camara par un véhicule kamikaze, et plus encore sur sa mort.

Un autre reportage de trois minutes, tourné dans la ville-garnison de Kati, où se trouvait la résidence du ministre, n’a pas mentionné l’attentat non plus… alors même que l’on pouvait voir une pelleteuse soulever des débris à l’arrière-plan. Les intervenants (de jeunes habitants de la ville et un responsable de la mairie) ont été mobilisés pour rassurer le reste de la population. Loin de la factualité, le journal s’inscrivait dans la communication gouvernementale, sans fournir aucune information sur l’ampleur des attaques.

La « mauvaise nouvelle », enfouie dans le sable comme une crotte de chat par les médias maliens, a finalement été diffusée par des médias français, que les autorités maliennes dissuadent leurs populations d’écouter. Le lendemain après-midi, la mort du ministre de la Défense, annoncée par Jeune Afrique, RFI, mais aussi la chaîne qatarie AJ+ et tant d’autres, était au centre de l’attention sur les réseaux sociaux.

L’opinion nationale et internationale était suspendue et à l’affût d’une réaction des autorités maliennes pour une éventuelle confirmation ou infirmation de cette nouvelle. Pour une partie des Maliens, la mort de Sadio Camara était une fausse nouvelle colportée à dessein par des médias français ; cette partie de la population reprend volontiers le discours des autorités de Bamako selon lequel, depuis qu’elles ont contraint la France à quitter le pays, en 2022, celle-ci aurait du mal à accepter le divorce, mais surtout le rapprochement entre le Mali et la Russie, et œuvrerait par tous les moyens, notamment médiatiques (à travers les médias du groupe France Médias Monde, à savoir RFI et France 24), à déstabiliser la transition malienne.

La mort de Sadio Camara était pourtant un fait avéré, ce qui a porté un coup dur à la crédibilité de la chaîne nationale une fois que la nouvelle est devenue impossible à dissimuler. Les journalistes maliens, notamment ceux des médias publics, disposaient bien de l’information, mais l’ont retenue durant plus de 24 heures, laissant toutes sortes de rumeurs se propager sur les réseaux sociaux. La confirmation n’a été officiellement donnée qu’au journal de 20 heures du 26 avril, dans un communiqué officiel du gouvernement.

Une fois de plus, les médias français, que les autorités de transition veulent réduire au silence (après les avoir définitivement suspendus en novembre 2025), se sont illustrés par leur efficacité et leur rapidité à informer les Maliens. Tandis que les autorités affirmaient que la situation était « sous contrôle », les Maliens ont été surpris, le lendemain des attaques, d’apprendre la mort de leur ministre de la défense, l’un des plus appréciés des cinq généraux auteurs du coup d’État de 2020.

Aucun média malien n’a osé diffuser immédiatement cette nouvelle, malgré sa publication par la presse internationale. Pour une raison simple : tous les journalistes maliens redoutent la « loi portant répression de la cybercriminalité », texte remontant à 2019, donc avant le putsch, et qui peut être utilisé pour emprisonner quiconque publierait une information « susceptible de troubler l’ordre public ou de porter atteinte au crédit de l’État ». La presse, officiellement libre, a donc en réalité été obligée d’attendre le communiqué officiel pour diffuser une information qu’elle détenait depuis plus de 24 heures. Cette presse n’a pas non plus le droit de remettre en cause le récit officiel. « La presse malienne est libre, mais elle n’est pas indépendante », a estimé le 1er mai le président de la Maison de la presse Bandiougou Dante, interviewé par le média Aujourd’hui-Mali en prélude à la Journée mondiale de la liberté de la presse.

Cette censure est la conséquence d’une politique bien ancrée. Les autorités appellent au « journalisme patriotique », qui consiste à ne rien publier de défavorable à son pays. Or rapporter les faits ne saurait être, en soi, une menace pour le pays, mais plutôt pour les insuffisances du pouvoir en place. « On ne peut pas bâtir le pays sur du mensonge », d’après un adage malien. À travers ce journalisme dit « patriotique », promu par l’armée et par la Maison de la presse (institution garante morale de la profession), les autorités ont développé une stratégie de communication permettant de verrouiller l’information et de museler les médias.

Dans la même logique, le président Assimi Goïta a dissuadé les internautes et les journalistes de communiquer sur les pertes de l’armée. Selon lui, puisque les djihadistes ne communiquent pas leurs pertes, l’armée ne devrait pas non plus le faire. Cette doctrine influence désormais le traitement de l’information dans les médias publics, dont les journalistes savent pourtant mieux que quiconque qu’un média public ne « communique » pas comme une organisation terroriste.

Le silence des médias maliens se retourne contre eux

Face à la rumeur, les médias publics ont gardé le silence, laissant le champ libre aux fausses nouvelles et à la désinformation. Ces médias, qui ne cessent, ces derniers mois, d’inviter la population à les suivre pour être informée dans un monde infesté de fausses nouvelles, ont contribué, par leur silence, à renforcer l’image et la crédibilité des médias étrangers : ces derniers sont les premiers à informer les Maliens sur l’actualité de leur pays.

Dans l’après-midi du 26 avril, la mort de Sadio Camara a été démentie par des activistes proches des militaires. L’une des web TV les plus influentes, Ouverture Média, avait annoncé samedi soir que Camara était indemne, avant de reconnaître, deux jours plus tard, qu’elle ne pouvait pas annoncer certaines informations sans l’autorisation de l’armée. Toutefois, cette chaîne, en quête d’audience, n’était pas obligée de diffuser de fausses informations non vérifiées. Elle a depuis supprimé ce contenu, que nous avons retrouvé sur d’autres comptes.

La censure jusqu’au bout

À la suite de ces attaques, des rumeurs ont circulé faisant état de la mort ou de l’enlèvement du chef d’état-major. Le patron de la Sécurité d’État, le général Modibo Koné, aurait été blessé selon plusieurs médias étrangers, et certains internautes ont annoncé son décès. Le chef d’état-major est depuis réapparu, contrairement au responsable de la Sécurité d’État.

Selon le gouvernement malien, l’attaque ayant visé la résidence de Sadio Camara a coûté la vie à plusieurs fidèles dans une mosquée proche. De nombreuses sources officieuses font état de la mort de l’une des épouses du ministre, d’un de ses enfants, d’un neveu et d’autres victimes collatérales non mentionnées dans le communiqué. D’après la presse étrangère, le jour des attaques, le président Goita a été exfiltré de sa résidence pour être placé en lieu sûr. Les médias publics, contrairement à leur mission d’informer, n’ont toujours pas levé le voile sur le mystère qui entoure ces événements. Ces points restent des questions sans réponse.

Les victimes collatérales étaient les grandes absentes de la cérémonie d’hommage national à Sadio Camara, aucune mention n’ayant été faite de leur mort. La version officielle de ces attaques terroristes est également devenue un sujet de débat. Selon le porte-parole du gouvernement :

« Un véhicule piégé conduit par un kamikaze a visé la résidence dudit ministre, qui a engagé des échanges avec des assaillants dont il a réussi à éliminer certains. Au cours d’intenses affrontements, il a été blessé puis transporté à l’hôpital où il a malheureusement succombé. »

Comment un rescapé d’une explosion de ce type a-t-il pu se retrouver avec une arme et échanger des tirs ? Les journalistes maliens sont les mieux placés pour apporter des réponses à cette interrogation, et à tant d’autres. Mais, une fois de plus, l’ORTM1 se manifeste par son silence à un moment clé de l’histoire nationale. Les médias nationaux sont les plus appropriés pour mener cette enquête et publier le bilan. La mainmise du gouvernement sur les médias publics réduit leur crédibilité auprès des citoyens.

Après ces attaques, le porte-parole du JNIM Nabi Diarra a annoncé un nouveau blocus autour de Bamako. En dépit de cette déclaration, l’ORTM1 a publié, vendredi, les images de l’entrée de plus de 800 camions-citernes dans la capitale. Ces images prouvent que les djihadistes n’ont pas réussi à couper Bamako du reste du pays. Certes l’ORTM1 cherche ainsi à rassurer les Maliens, mais dans ce contexte extrêmement tendu, ces derniers, surtout au sein de la diaspora, critiquent de plus en plus leurs médias officiels, et se demandent à quelles sources d’informations ils peuvent se fier.

The Conversation

Ayouba Sow ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le black-out autour de l’assassinat de Sadio Camara : la presse malienne au garde-à-vous ? – https://theconversation.com/le-black-out-autour-de-lassassinat-de-sadio-camara-la-presse-malienne-au-garde-a-vous-282070

Vent de panique sur l’indépendance des banques centrales avec la nomination de Kevin Warsh et la succession de Christine Lagarde

Source: The Conversation – in French – By Camila Villard Duran, Associate Professor of Law, ESSCA School of Management

La nomination de Kevin Warsh à la tête de la Réserve fédérale (Fed), considéré comme la « marionnette » de Donald Trump, interroge sur l’indépendance de la banque centrale états-unienne. Or, le dollar états-unien représente environ 57 % des réserves de change mondiales. En Europe, la succession de Christine Lagarde en 2027 ouvre la boîte de Pandore à la redéfinition de l’orientation de la politique monétaire et le profil du futur président.


Pendant les dernières décennies, l’autonomie des banques centrales s’est imposée comme un principe structurant de la gouvernance macroéconomique. L’argument était simple : soustraire la gestion de la monnaie aux pressions électorales devait permettre de maîtriser l’inflation et soutenir une croissance plus stable.

Ce modèle, apparu en réponse aux crises inflationnistes des années 1970 et 1980, s’est progressivement transformé en norme institutionnelle, acceptée par tous. En protégeant la banque centrale des pressions politiques de court terme, ce que l’on appelle l’incohérence temporelle, elle vise à garantir la crédibilité de la politique monétaire, à assurer la stabilité des prix et à éviter des décisions opportunistes susceptibles de fragiliser l’économie à long terme.

Dans un contexte de cycles politiques instables, garantir aux banques centrales le dernier mot relatif aux taux d’intérêt, à la régulation financière et à la supervision bancaire demeure essentiel. Ce principe est par exemple strict dans le cas de la Banque Centrale européenne (BCE), dont l’indépendance est juridiquement protégée.

Aux États-Unis, cette fragilité institutionnelle se manifeste par des pressions politiques directes de l’exécutif sur la politique monétaire et la gouvernance de la Fed – une situation qui contraste avec le cadre plus juridiquement verrouillé de la BCE. Car les banques centrales font face à un paradoxe : être à la fois protégées et réactives, détachées des contingences politiques quotidiennes, tout en étant attentives aux effets distributifs, au débat démocratique et aux dynamiques géopolitiques.

Calendriers électoraux aux États-Unis

Aux États-Unis, la position de la Réserve fédérale (Fed) est regardée de près. Le dollar états-unien représente environ 57 % des réserves de change mondiales. Toute remise en cause de la gouvernance de la Fed a de facto des répercussions mondiales. Les décisions de taux influencent directement le rendement des actifs libellés en dollars détenus par un large éventail d’acteurs, publics comme privés.

Durant le second mandat de Donald Trump, les pressions publiques sont devenues récurrentes. Le président a affirmé que les États-Unis devraient avoir « les taux d’intérêt les plus bas du monde ». La situation a pris une dimension nouvelle lorsque des poursuites pénales ont été engagées contre le président de la Fed Jerome Powell. Le contexte politique a été interprété comme révélateur d’une pression accrue sur l’autonomie opérationnelle de la Fed.

« Marionnette du président »

Jerome Powell n’est que le deuxième membre de la Réserve fédérale que Trump a cherché à révoquer de ses fonctions. Une controverse, portée devant la Cour suprême, mettait en lumière une tentative de révocation de Lisa Cook, la première femme afro-américaine à siéger au conseil des gouverneurs de la Fed. La question de savoir si une telle révocation pouvait intervenir for cause (c’est-à-dire, pour motif valable), puisque le Federal Reserve Act touche au cœur même de l’architecture institutionnelle de la Fed.




À lire aussi :
Les pressions de Donald Trump sur la Fed annoncent-elles la fin du dollar ?


Les mandats longs et échelonnés ont précisément été conçus pour éviter la synchronisation entre cycles monétaires et calendriers électoraux. Affaiblir la protection contre la révocation reviendrait à redéfinir l’équilibre des pouvoirs entre l’exécutif et l’autorité monétaire.

L’épisode rappelle la décision Humphrey’s Executor v. United States en 1935, qui avait consolidé la position des agences indépendantes en limitant la révocation présidentielle.

Lors de son audition, Kevin Warsh a cherché à rassurer les sénateurs en affirmant qu’il ne serait pas « la marionnette du président » et qu’il n’avait pris aucun engagement en faveur d’une baisse des taux, tout en reconnaissant que l’indépendance monétaire « dépend avant tout de la Fed » elle-même – une formulation qui souligne le caractère désormais contingent de cette indépendance.

La BCE, modèle le plus abouti d’indépendance

Dans le cas de la Banque centrale européenne (BCE), les débats autour de la succession de Christine Lagarde en 2027 illustrent la tension persistante entre technocratie monétaire et légitimité politique. Ils révèlent des lignes de fracture entre États membres, tant sur le profil du futur président que sur l’orientation de la politique monétaire en termes d’inflation, de souveraineté ou de transition climatique.

La BCE représente pourtant le modèle institutionnel le plus abouti en matière d’indépendance. L’article 130 du Traité sur le fonctionnement de l’Union européenne interdit explicitement à toute institution européenne, à tout gouvernement ou à tout autre organisme de chercher à influencer ses décisions. Contrairement à la Fed, dont l’indépendance repose sur une loi ordinaire – le Federal Reserve Act, que le Congrès peut en théorie modifier –, celle de la BCE est consacrée par un traité international, dont la révision requiert l’accord unanime de l’ensemble des États membres.

Contrairement au modèle états-unien, la nomination à la tête de la BCE implique le Conseil européen, sur recommandation du Conseil de l’Union européenne et après consultation du Parlement européen et du Conseil des gouverneurs de la Banque centrale européenne. Ce mécanisme expose néanmoins la fonction de président de la BCE à des arbitrages politiques entre États membres, où les considérations de nationalité, d’équilibre géographique et de sensibilité économique jouent un rôle déterminant.

Préserver l’État de droit

Les formules institutionnelles héritées de la fin du XXᵉ siècle semblent ne plus suffire.

L’enseignement est clair : l’autonomie des banques centrales n’est jamais autoentretenue. Elle subsiste tant que les règles juridiques, les institutions politiques et l’opinion publique la soutiennent activement. Dans un monde où la monnaie est devenue un actif stratégique et où les réseaux financiers peuvent être instrumentalisés, préserver une capacité de décision techniquement fondée revient aussi à préserver la démocratie et l’État de droit.

The Conversation

Camila Villard Duran ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Vent de panique sur l’indépendance des banques centrales avec la nomination de Kevin Warsh et la succession de Christine Lagarde – https://theconversation.com/vent-de-panique-sur-lindependance-des-banques-centrales-avec-la-nomination-de-kevin-warsh-et-la-succession-de-christine-lagarde-277030