Peut-on laisser un chargeur branché en permanence ?

Source: – By Glen Farivar, Lecturer in Power Electronics, The University of Melbourne

Un chargeur qui reste branché consomme en continu une petite quantité d’énergie dont une partie se perd sous forme de chaleur. YG PhotoArtWorks/Shutterstock

Pour désigner l’énergie consommée par un chargeur qui reste branché sans être utilisé, les Québécois ont un joli terme : l’« énergie vampire » ou « énergie fantôme ». Cette énergie est-elle un mythe ? Peut-on laisser les chargeurs branchés ? Y a-t-il d’autres risques – du vieillissement accéléré à la surchauffe, voire au départ de feu ?


Combien de chargeurs possédez-vous ? Nous sommes entourés d’appareils électroniques rechargeables : téléphones mobiles, ordinateurs portables, montres intelligentes, écouteurs, vélos électriques, etc.

Il y a peut-être un chargeur de téléphone branché à côté de votre lit, que vous ne prenez jamais la peine de le débrancher quand vous ne l’utilisez pas. Et un autre, d’ordinateur portable, près de votre bureau ?

Mais est-ce risqué ? Y a-t-il des coûts cachés liés au fait de laisser les chargeurs branchés en permanence ?

Que contient un chargeur ?

Bien sûr, tous les chargeurs sont différents. En fonction de leur application et de la puissance requise, leur structure interne peut varier et être très simple… ou très complexe.

Toutefois, un chargeur classique reçoit le courant alternatif (AC) de la prise murale et le convertit en courant continu (DC) à basse tension, qui est adapté à la batterie de votre appareil.

Pour comprendre la différence entre courant continu et alternatif, il faut considérer le flux d’électrons dans un fil. Dans un circuit à courant continu, les électrons se déplacent dans une seule direction et continuent de tourner dans le circuit. Dans un circuit à courant alternatif, les électrons ne circulent pas et se bougent successivement dans un sens puis dans l’autre.

La raison pour laquelle nous utilisons les deux types de courant remonte à l’époque où les inventeurs Thomas Edison et Nicola Tesla débattaient de savoir quel type de courant deviendrait la norme. In fine, aucun n’a vraiment eu le dessus, et aujourd’hui, nous sommes toujours coincés entre les deux. L’électricité est traditionnellement générée sous forme de courant alternatif (quand on utilise des bobines d’alternateurs), mais les appareils modernes et les batteries requièrent un courant continu. C’est pourquoi presque tous les appareils électriques sont équipés d’un convertisseur AC-DC.

Pour effectuer la conversion du courant alternatif en courant continu, un chargeur a besoin de plusieurs composants électriques : un transformateur, un circuit pour effectuer la conversion proprement dite, des éléments de filtrage pour améliorer la qualité de la tension continue de sortie, et un circuit de contrôle pour la régulation et la protection.

Un chargeur partiellement cassé avec deux broches et les puces internes exposées
Les chargeurs ont plusieurs composants électriques pour convertir le courant alternatif en courant continu que la batterie peut utiliser.
PeterRoziSnaps/Shutterstock

Les chargeurs consomment de l’énergie même lorsqu’ils ne chargent rien

L’« énergie vampire », ou « énergie fantôme » – le terme utilisé par les Québécois pour désigner l’énergie consommée par un chargeur qui reste branché sans être utilisé – est bien réelle.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Si vous le laissez branché, un chargeur consommera continuellement une petite quantité d’énergie. Une partie de cette énergie est utilisée pour faire fonctionner les circuits de contrôle et de protection, tandis que le reste est perdu sous forme de chaleur.

Si l’on considère un petit chargeur individuel, l’énergie vampire – également connue sous le nom d’énergie de veille – est négligeable. Toutefois, si vous additionnez la consommation des chargeurs de tous les appareils de la maison, le gaspillage d’énergie peut devenir important au fil du temps. De plus, l’énergie de veille n’est pas l’apanage des chargeurs : d’autres appareils électroniques, comme les téléviseurs, consomment également un peu d’énergie lorsqu’ils sont en veille.

Selon le nombre d’appareils laissés branchés, cela peut représenter plusieurs kilowattheures au cours d’une année.

Ceci étant, les chargeurs modernes sont conçus pour minimiser la consommation d’énergie vampire, avec des composants de gestion de l’énergie intelligents, qui les maintiennent en veille jusqu’à ce qu’un appareil externe tente de tirer de l’énergie.

Vue sous un bureau avec de nombreux appareils branchés sur une multiprise
Le fait d’avoir de nombreux chargeurs branchés dans votre maison peut entraîner une consommation d’énergie vampire considérable.
Kit/Unsplash

Les autres risques des chargeurs laissés branchés

Les chargeurs s’usent au fil du temps lorsqu’ils sont traversés par un courant électrique, en particulier lorsque la tension du réseau électrique dépasse temporairement sa valeur nominale. Le réseau électrique est un environnement chaotique et diverses hausses de tension se produisent de temps à autre.

Exposer un chargeur à ce type d’événements peut raccourcir sa durée de vie. Si ce n’est pas vraiment un problème pour les appareils modernes, grâce aux améliorations sur leur conception et leur contrôle, il est particulièrement préoccupant pour les chargeurs bon marché et non certifiés. Ceux-ci ne présentent souvent pas les niveaux de protection appropriés aux surtensions, et peuvent constituer un risque d’incendie.

Comment dois-je traiter mes chargeurs ?

Bien que les chargeurs modernes soient généralement très sûrs et qu’ils ne consomment qu’un minimum d’énergie vampire, il n’est pas inutile de les débrancher de toute façon – quand c’est pratique.

En revanche, si un chargeur chauffe plus que d’habitude, fait du bruit, ou est endommagé d’une manière ou d’une autre, il est temps de le remplacer. Et il ne faut surtout pas le laisser branché.

The Conversation

Glen Farivar ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Peut-on laisser un chargeur branché en permanence ? – https://theconversation.com/peut-on-laisser-un-chargeur-branche-en-permanence-258019

Trois littoraux où les jumeaux numériques pourraient permettre de mieux maîtriser les conséquences des inondations

Source: – By Raquel Rodriguez Suquet, Ingénieure d’applications d’Observation de la Terre, Centre national d’études spatiales (CNES)

Un jumeau numérique de la région de Nouméa est en cours d’élaboration. ©BRGM, Fourni par l’auteur

Entre sa densité de population et ses richesses naturelles, le littoral est une zone stratégique, mais vulnérable aux événements extrêmes et à la montée du niveau de la mer. Pour mieux prévenir les risques d’inondations côtières, les « jumeaux numériques » allient imagerie spatiale, mesures de terrain et modélisations sophistiquées – afin de fournir des informations fiables aux particuliers et aux décideurs publics.


La zone littorale, située à l’interface entre la terre et la mer, est une bande dynamique et fragile qui englobe les espaces marins, côtiers et terrestres influencés par la proximité de l’océan. À l’échelle mondiale, elle concentre une forte densité de population, d’infrastructures et d’activités économiques (tourisme, pêche, commerce maritime), qui en font un espace stratégique mais vulnérable.

Le niveau moyen global des mers de 1993 à 2025 et la densité de population sur le littoral métropolitain par façade maritime de 1962 à 2020 par kilomètre carré sur le littoral.
Données des missions TopEx/Poseidon, Jason-1, Jason-2, Jason-3 et Sentinel-6MF (source AVISO, gauche) et source MTECT, Fourni par l’auteur

On estime qu’environ un milliard de personnes dans le monde et plus de 800 000 de personnes en France vivent dans des zones littorales basses, particulièrement exposées aux risques liés à la montée du niveau de la mer due au changement climatique et aux phénomènes météorologiques extrêmes. Les enjeux associés sont multiples : érosion côtière, submersions marines, perte de biodiversité, pollution, mais aussi pressions liées à la forte artificialisation du sol, due à la forte augmentation démographique et touristique. La gestion durable de la zone littorale représente un enjeu crucial en matière d’aménagement du territoire.

Dans le cadre de notre programme Space for Climate Observatory, au CNES, avec nos partenaires du BRGM et du LEGOS, nous créons des « jumeaux numériques » pour étudier les zones côtières dans un contexte de changement climatique et contribuer à leur adaptation.




À lire aussi :
Pourquoi l’océan est-il si important pour le climat ?


Dans cet article, focus sur trois zones représentatives de trois sujets emblématiques des zones côtières : le recul du trait de côte en France métropolitaine, la submersion marine en Nouvelle-Calédonie (aujourd’hui liée aux tempêtes et aux cyclones, mais à l’avenir également affectée par l’élévation du niveau de la mer) et l’évolution des écosystèmes côtiers en termes de santé de la végétation, de risque d’inondation et de qualité de l’eau sur la lagune de Nokoué au Bénin.

Le trait de côte est en recul en France hexagonale

Avec près de 20 000 kilomètres de côtes, la France est l’un des pays européens les plus menacés par les risques littoraux. Sa façade maritime très urbanisée attire de plus en plus d’habitants et concentre de nombreuses activités qui, comme la pêche ou le tourisme, sont très vulnérables à ce type de catastrophes. Ainsi, cinq millions d’habitants et 850 000 emplois sont exposés au risque de submersion marine et 700 hectares sont situés sous le niveau marin centennal, c’est-à-dire le niveau statistique extrême de pleine mer pour une période de retour de 100 ans) dans les départements littoraux.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Le trait de côte désigne la frontière entre la terre et la mer. Cette limite se modifie continuellement sous l’action de facteurs naturels tels que les marées, les tempêtes, le dépôt de sédiments, les courants marins et les vagues. En France hexagonale, un quart du littoral est concerné par un recul du trait de côte (soit plus de 5 000 bâtiments menacés d’ici 2050) du fait de l’érosion côtière, aggravée par le changement climatique qui s’accompagne, entre autres, d’une élévation du niveau marin et de la puissance des tempêtes.

des cartes avec des prévisions
Le recul du trait de côte à Hendaye dans les Pyrénées-Atlantiques (gauche) et la probabilité de l’occurrence d’eau.
Bergsma et al. 2024, Fourni par l’auteur

Grâce à la télédétection par satellites, notamment Sentinel-2 et Landsat, il est possible d’observer avec précision la position du trait de côte et d’analyser sa dynamique sur le long terme. Ces informations permettent de mieux comprendre les phénomènes d’érosion ou d’accrétion (à rebours du recul du trait de côte, son avancée est due en bonne partie au dépôt sédimentaire et concerne 10 % du littoral français), ainsi que les risques liés à ces évolutions.

En réponse à ces enjeux, un jumeau numérique du trait de côte est en cours de construction à l’échelle de la France. Cet outil permettra de « prendre le pouls » de la zone côtière en fournissant des données actualisées à échelle mensuelle et trimestrielle aux acteurs concernés, des mairies aux ministères, afin de faciliter la prise de décision pour une gestion durable et adaptée du littoral. Par exemple, les principaux leviers d’actions sont la mise en place d’infrastructures de protection potentiellement fondées sur la nature, des opérations d’ensablement ou d’enrochement ainsi que l’évolution des autorisations d’urbanisme pouvant aller jusqu’à la destruction de bâtiments existants.

Les jumeaux numériques pour le littoral

    Aujourd’hui, les jumeaux numériques jouent un rôle clé dans l’amélioration de notre compréhension de l’hydrologie des bassins versants, de la dynamique des inondations et de l’évolution des zones côtières, qu’il s’agisse d’événements passés ou de la situation actuelle. Les données spatiales vont y occuper une place croissante: elles permettent de suivre l’évolution des territoires sur le long terme et de manière régulière, d’alimenter les modèles avec des informations précises et continues, et d’analyser les impacts à grande échelle. Les données spatiales sont particulièrement utiles pour observer les changements dans les zones peu accessibles ou mal instrumentées.

    Les jumeaux numériques contiennent également des capacités de modélisation qui, couplées aux données, permettent d’évaluer l’impact du climat futur ainsi que d’évaluer les meilleures solutions d’adaptation. Dans les années à venir, ces outils d’aide à la décision vont devenir incontournables pour les acteurs de la gestion des risques, de l’aménagement du territoire et de l’adaptation au changement climatique.




À lire aussi :
Climat : Pourquoi l’ouverture des données scientifiques est cruciale pour nos littoraux


Risques d’inondations et qualité de l’eau à la lagune de Nokoué au Bénin

La lagune de Nokoué au Bénin est représentative des systèmes lagunaires d’Afrique de l’Ouest : bordée d’une large population qui avoisine les 1,5 million de personnes, cette lagune constitue une ressource vivrière majeure pour les habitants de la région.

cases dépassant de l’eau
La crue exceptionnelle de 2010 du lac Nokoué (sud du Bénin).
André O. Todjé, Fourni par l’auteur

La lagune subit une importante variabilité naturelle, notamment aux échelles saisonnières sous l’influence de la mousson ouest-africaine. Ainsi, les zones périphériques sont inondées annuellement (en fonction de l’intensité des pluies), ce qui cause des dégâts matériels et humains importants. La lagune est aussi le cœur d’un écosystème complexe et fluctuant sous l’effet des variations hydrologiques, hydrobiologiques et hydrochimiques.

Là aussi, le changement climatique, avec la montée des eaux et l’augmentation de l’intensité des évènements hydrométéorologiques, contribue à faire de la lagune de Nokoué une zone particulièrement sensible.

Nous mettons en place un jumeau numérique de la lagune de Nokoué qui permettra de répondre aux besoins des acteurs locaux, par exemple la mairie, afin de lutter contre les inondations côtières en relation avec l’élévation du niveau de la mer, les marées et les événements météorologiques extrêmes.

imagerie satellite et modèles
La lagune de Nokoué vue par satellite (gauche) et la bathymétrie et maillage du modèle hydrodynamique SYMPHONIE.
Sentinel-2 (gauche) et LEGOS/IRD/CNRS (droite), Fourni par l’auteur

En particulier, ce jumeau numérique permettra de modéliser la variabilité du niveau d’eau de la lagune en fonction du débit des rivières et de la topographie. Il géolocalisera l’emplacement des zones inondées en fonction du temps dans un contexte de crue — une capacité prédictive à court terme (quelques jours) appelée « what next ? »

Le jumeau numérique sera également en mesure de faire des projections de l’évolution du risque de crue sous l’effet du changement climatique, c’est-à-dire prenant en compte l’élévation du niveau de la mer et l’augmentation de l’intensité des pluies. Cette capacité prédictive sur le long terme, typiquement jusqu’à la fin du siècle, est appelée « what if ? »

Enfin, il permettra de modéliser et d’évaluer la qualité de l’eau de la lagune (par exemple sa salinité ou le temps de résidence de polluants). Par exemple, en période d’étiage, quand l’eau est au plus bas, la lagune étant connectée à l’océan, elle voit sa salinité augmenter de manière importante, bouleversant au passage l’équilibre de cet écosystème. Le riche écosystème actuel est en équilibre avec cette variation saisonnière mais des aménagements (barrages, obstruction du chenal de connexion à l’océan…) pourraient le mettre en péril.

Un démonstrateur de jumeau numérique consacré à la submersion marine en Nouvelle-Calédonie

L’élévation du niveau de la mer causée par le changement climatique, combinée aux marées et aux tempêtes, constitue un risque majeur pour les populations côtières à l’échelle mondiale dans les décennies à venir. Ce risque est « évolutif » — c’est-à-dire qu’il dépend de comment le climat évoluera dans le futur, notamment en fonction de notre capacité à atténuer les émissions de gaz à effet de serre.

Il est donc très important d’être capable de modéliser le risque de submersion marine et de projeter ce risque dans le futur en prenant en compte la diversité des scénarios d’évolution climatiques afin de supporter l’action publique au cours du temps, avec différentes stratégies d’adaptation ou d’atténuation : relocalisation de populations, modification du plan local d’urbanisme, création d’infrastructures de protection côtières qu’elles soient artificielles ou bien basées sur la nature.

La modélisation de la submersion marine nécessite une connaissance en 3D sur terre (du sol et du sursol, incluant bâtiments, infrastructures, végétation…), mais aussi – et surtout ! – sous l’eau : la bathymétrie. Si cette dernière est assez bien connue sur le pourtour de la France métropolitaine, où elle est mesurée par le Service hydrographique et océanographique de la marine (Shom), une grande partie des zones côtières en outre-mer est mal ou pas caractérisée.

En effet, le travail et le coût associé aux levés topobathymétriques in situ sont très élevés (supérieur à 1 000 euros par km2). À l’échelle du monde, la situation est encore pire puisque la très grande majorité des côtes n’est pas couverte par des mesures bathymétriques ou topographiques de qualité. Aujourd’hui, plusieurs techniques permettent de déterminer la bathymétrie par satellite en utilisant la couleur de l’eau ou le déplacement des vagues.

3 cartes
Le jumeau numérique de la région de Nouméa : génération du maillage à partir de la bathymétrie et de la topographie (gauche) ; projection climatique avec calcul de hauteur d’eau par submersion (centre) ; bâtiments impactés (droite).
BRGM, C. Coulet, V. Mardhel, M. Vendé-Leclerc (2023) — Caractérisation de l’aléa submersion marine sur Grand Nouméa en Nouvelle-Calédonie. Rapport final — Méthodologie générale V1. BRGM/RP-72483-FR, 88 p., et Résultats Nouméa V1. BRGM/RP-72923-FR, 48 p, Fourni par l’auteur

En Nouvelle-Calédonie, nous explorons le potentiel des satellites pour alimenter un jumeau numérique permettant de faire des modélisations de submersion marine. Nous nous concentrons dans un premier temps sur la zone de Nouméa, qui concentre la majeure partie de la population et des enjeux à l’échelle de l’île. Une première ébauche de jumeau numérique de submersion marine a ainsi été réalisée par le BRGM. Il permet par exemple d’évaluer la hauteur d’eau atteinte lors d’un évènement d’inondation et les vitesses des courants sur les secteurs inondés.

Dans un deuxième temps, nous étudierons la capacité à transposer notre approche sur une autre partie de l’île, en espérant ouvrir la voie à un passage à l’échelle globale des méthodes mises en place.

The Conversation

Vincent Lonjou a reçu des financements du CNES

Raquel Rodriguez Suquet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Trois littoraux où les jumeaux numériques pourraient permettre de mieux maîtriser les conséquences des inondations – https://theconversation.com/trois-littoraux-ou-les-jumeaux-numeriques-pourraient-permettre-de-mieux-maitriser-les-consequences-des-inondations-258272

Maths au quotidien : pourquoi votre assurance vous propose un contrat avec franchise

Source: – By Niousha Shahidi, Full professor, data analysis, EDC Paris Business School

Un contrat avec franchise incite à ne pas prendre de risques – une manière pour les assurances de se garantir que leurs clients ne se reposent pas complètement sur elles. Ce sont les maths qui le disent.


Nous avons tous un contrat d’assurance contre des risques précis : assurance auto, assurance multirisque habitation (45,9 millions de contrats en 2023 en France)… Vous avez signé ce contrat d’assurance afin de vous couvrir des frais en cas de sinistre. Ce qui est inhabituel, avec les assurances, c’est que vous achetez « un produit » (contrat), mais vous le récupérez (les indemnités) que si vous subissez un sinistre. De plus, il est courant que l’assureur vous propose un contrat « avec franchise », c’est-à-dire qu’en cas de sinistre, une partie fixe des frais reste à votre charge.

Pourquoi les contrats « avec franchise » sont-ils si répandus ? Il existe plusieurs réponses.

Franchise : un contrat idéal

Des chercheurs se sont intéressés au contrat optimal en modélisant mathématiquement la relation entre l’assureur et l’assuré. On dit qu’un contrat est optimal s’il n’existe pas d’autre contrat qui profiterait davantage à l’un (l’assuré ou l’assureur) sans détériorer la situation de l’autre.

Pour trouver le contrat qui maximise à la fois les préférences de l’assuré et de l’assureur, il faut résoudre un problème d’« optimisation ».

L’assureur est considéré comme neutre au risque, c’est-à-dire qu’il n’a pas de préférence entre une richesse dite « aléatoire » (impactée par un risque subi, mais incertain) et une richesse certaine égale à l’espérance de la richesse aléatoire.

Par contre, l’assuré est considéré comme risquophobe, c’est-à-dire que dans l’exemple précédent, il préfère la richesse certaine à la richesse aléatoire.

Dans ce contexte, des travaux de recherche ont montré que le contrat avec franchise est optimal. En effet, ce type de contrat permet à l’assuré risquophobe de réduire le risque puisqu’en cas de sinistre, il aura juste à payer la franchise. Si la franchise est nulle, le contrat neutralise alors complètement le risque puisqu’en payant juste la prime, l’assuré recevra une indemnité égale au dommage subi (potentiellement avec un plafond, mentionné dans le contrat) : on dit qu’il aura une richesse certaine.


Tous les quinze ours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Franchise : incitation cachée et aléa moral

D’un point de vue pratique, la mise en place d’un contrat avec franchise représente plusieurs avantages pour l’assureur.

Tout d’abord, ce type de contrat réduit ses frais de gestion car les petites pertes (en dessous du montant de la franchise) ne sont plus traitées.

L’assuré est alors incité à faire un effort afin d’éviter les petites pertes qui resteraient à sa charge, ce qui permet de réduire le phénomène d’« aléa moral ». Ce dernier décrit une situation d’asymétrie d’information entre l’assureur et l’assuré. En effet, une fois le contrat d’assurance signé, l’assurance ne peut pas observer l’effort consenti par l’assuré pour éviter un risque (par exemple la vigilance au volant). Non seulement la mise en place de la franchise permet à l’assureur d’obliger l’assuré à faire un effort, elle lui permet aussi de détourner les individus à haut risque, qui cherchent souvent un contrat plus généreux que les individus à bas risques et qui sont prêts à payer une prime (même chère) afin de ne pas subir les petits risques.

Un autre problème d’asymétrie de l’information, connu sous le nom d’« antisélection » (ou sélection adverse) est alors soulevé. Dans ce contexte, l’assureur ne connaît pas le type (haut/bas risque) de l’assuré. Un individu à haut risque peut acheter un contrat destiné à un individu bas risque.

Si l’assureur ne propose que des contrats sans franchise, il risque d’avoir trop d’assurés à haut risque. L’assureur devra alors statistiquement faire face à un nombre important de sinistres (l’assureur par manque d’information se trouve avec les hauts risques alors qu’il aurait souhaité l’inverse), ce qui aboutit souvent à un déséquilibre entre le montant des primes perçues et le montant des indemnités versées. Il est donc important pour l’assureur de diversifier ses produits en proposant des contrats avec ou sans franchise.

Un contrat avec franchise est donc bien un optimum : l’assuré comme l’assureur a intérêt à éviter les petits sinistres. La franchise permet à l’assureur de faire des économies et en même temps de sélectionner ses clients. Le contrat choisi révèle votre « appétence au risque », que les assureurs classifient en types haut et bas risque !

The Conversation

Niousha Shahidi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Maths au quotidien : pourquoi votre assurance vous propose un contrat avec franchise – https://theconversation.com/maths-au-quotidien-pourquoi-votre-assurance-vous-propose-un-contrat-avec-franchise-259187

Reconnaître enfin le trouble de stress post-traumatique complexe, pour mieux le soigner

Source: – By Cyril Tarquinio, Professeur de psychologie clinique, Université de Lorraine

Depuis les années 1990, des cliniciens et des chercheurs se battent pour faire reconnaître le trouble de stress post-traumatique complexe comme une entité à part entière. Beaucoup plus courant que le trouble de stress post-traumatique simple, et différent dans ses symptômes, il survient suite à une exposition répétée à des événements violents, comme en cas de violences intrafamiliales ou d’exposition répétée à des situations de guerre. Il peut laisser d’importantes séquelles, en particulier lorsque des enfants en sont victimes.


Catastrophes naturelles, accidents de la route, agressions, attentats… L’exposition à des événements violents, qui menacent l’intégrité personnelle, déclenche un stress intense chez les personnes qui les vivent. Les conséquences des modifications physiologiques qui en résultent s’estompent généralement en quelques jours, mais chez certaines personnes, ce retour à la normale ne se fait pas correctement, et mène au développement d’un trouble de stress post-traumatique.

Au-delà de ces accidents aigus et limités dans le temps, certaines situations de stress répétés – comme les situations de maltraitances infantiles – génèrent elles aussi un trouble de stress post-traumatique, aux conséquences très sensiblement différentes : le trouble de stress post-traumatique complexe.

Une étude publiée en 2006 a révélé que dans une population d’adolescents ayant subi des traumatismes répétés dans l’enfance, 61 % présentaient un tel traumatisme complexe, alors que seulement 16 % manifestaient un trouble de stress post-traumatique simple.

Beaucoup plus répandu que le traumatisme simple, le traumatisme complexe a d’importantes conséquences sur le développement lorsqu’il se produit dans l’enfance. Il reste pourtant très mal reconnu, ce qui a des implications en matière de prise en charge.

Traumatisme simple ou traumatisme complexe

Le trouble de stress post-traumatique se traduit par diverses catégories de symptômes : des pensées de répétition (la personne revit la scène via des cauchemars, ou des « flashbacks » qui lui font revivre la scène) ; l’évitement des souvenirs du traumatisme et des situations qui pourraient le rappeler ; des pensées et émotions négatives (peur, honte, culpabilité, colère) ; des symptômes neurovégétatifs (irritabilité, troubles du sommeil, hypervigilance).

Ce trouble invalidant a été défini dans les années 1980. Cependant, dès les années 1990, certains cliniciens et chercheurs ont pointé les limites et le manque de portée du trouble de stress post-traumatique tel qu’il était alors conçu.

C’est aussi à cette époque qu’ont été publiées les premières recherches sur les « expériences négatives de l’enfance » (en anglais « Adverse Childhood Experiences »). Ces travaux ont révélé que les événements traumatisants accumulés dans l’enfance et l’adolescence ont des conséquences psychopathologiques qui s’étendent bien au-delà des symptômes du trouble de stress post-traumatique classique, affectant la santé mentale et physique.

Aux États-Unis, les psychiatres Judith Lewis Herman, Leonore Terr et Bessel Van der Kolk furent parmi les premiers à souligner les différences entre les conséquences de telles situations et celles du trouble de stress post-traumatique. Dans un article de 1992, Judith Herman a spécifiquement décrit les symptômes résultant de processus traumatiques intenses et répétés, révélant qu’ils s’étendent bien au-delà de ceux du trouble de stress post-traumatique classique.

En effet, ces symptômes incluent des changements dans la personnalité de la victime (par exemple, une victime autrefois sociable peut développer un évitement systématique des relations, ou adopter des comportements d’autosabotage répétés), des perturbations relationnelles (la personne peut idéaliser puis dévaloriser soudainement ses partenaires, ou s’isoler complètement) et une perception altérée de soi (la victime se juge sans valeur, a honte de manière permanente, a l’impression d’avoir perdu son identité d’avant le trauma : « je ne suis plus la même personne »).

Selon Judith Herman, le traumatisme complexe survient surtout lorsque la victime est en « captivité » ou dans l’incapacité de fuir, ce qui l’oblige à un contact prolongé avec l’agresseur. Elle souligne que la notion de captivité doit être envisagée de manière large : il existe des contextes de vie (famille, religion, détention, travail) qui peuvent enfermer les victimes dans un système de contrôle oppressant.

Les travaux de ces pionniers ont mis en lumière la nécessité de développer un cadre diagnostique élargi pour, capable de saisir les effets profonds sur la situation clinique globale des patients des traumatismes complexes résultant de situations adverses telles que la guerre, les crises humanitaires, et les violences répétées.

On a ainsi commencé à parler de « traumatisme complexe », une terminologie qui a évolué pour mieux refléter la réalité clinique des patients.

Les expériences menant au trouble de stress post-traumatique complexe

En 1991, la psychiatre Lenore Terr a proposé de distinguer deux types de traumatismes psychologiques : le type I, résultant d’un événement traumatique unique et soudain (par exemple, une agression isolée, un accident, une catastrophe naturelle), et le type II, qui désigne l’exposition à des traumatismes répétés ou à des situations traumatiques prolongées. Ce dernier correspond à des événements traumatiques répétés qui peuvent survenir à tout âge – comme un adulte victime de violences conjugales pendant plusieurs années ou un adolescent harcelé durant sa scolarité.

Bien que graves, ces traumas laissent généralement intacte la structure de base de la personnalité. Les choses sont différentes en ce qui concerne le trauma de type III, conceptualisé par la psychologue Eldra Solomon et la spécialiste des violences intrafamiliales Kathleen Heide.
Celui-ci désigne des violences multiples et envahissantes qui commencent dès la petite enfance et s’étendant sur des années.

Ces traumas précoces surviennent pendant la formation même de la personnalité, créant des séquelles bien plus profondes : l’enfant développe un sens de soi fragmenté, une dissociation chronique, la conviction d’être « fondamentalement défectueux » et une incapacité à imaginer un futur. La différence fondamentale : le type II traumatise une personnalité déjà formée, tandis que le type III empêche la construction même d’un soi cohérent et sécure. C’est pourquoi le traitement du type III est considérablement plus complexe et exigeant.

En 2013, Christine A. Courtois (psychologue clinicienne américaine, ancienne présidente de la Division Trauma de l’American Psychological Association) et Julian D. Ford (psychologue clinicien américain, professeur de psychiatrie à l’Université du Connecticut) ont proposé une définition consensuelle du traumatisme complexe, qui intègre diverses dimensions essentielles. Les expériences menant à un trouble de stress post-traumatique complexe :

  • sont des expériences interpersonnelles impliquant souvent une trahison ;

  • sont répétées ou prolongées, souvent infligées par des figures d’autorité ou de confiance ;

  • incluent diverses formes d’abus (physiques, sexuels, émotionnels) et de négligence, le plus souvent dans un cadre familial ou éducatif ;

  • surviennent généralement à des périodes vulnérables, telles que la petite enfance, ce qui rend leurs effets durables et profonds.

Cette définition présente l’avantage de reconnaître un large éventail de situations traumatiques, ainsi que la variété des réactions psychologiques des victimes.

Elle met en avant l’impact de l’exposition prolongée à un environnement maltraitant, en soulignant que les symptômes du traumatisme complexe sont souvent plus durables et moins typiques que ceux du trouble de stress post-traumatique.

Des effets sur le développement des enfants

Les enfants confrontés à des traumatismes dans leur petite enfance présentent souvent des freins au développement de leur identité, de leur estime de soi, et de leurs capacités relationnelles.

Cette entrave est particulièrement marquée lorsque l’auteur des traumatismes est une personne de confiance, comme un parent ou un enseignant. Or, le trouble de stress post-traumatique simple, initialement développé pour les adultes, ne prend pas en compte ces spécificités développementales.

Leonore Terr et Judith Herman ont été parmi les premières à considérer le traumatisme dans une perspective développementale. Selon elles, cette approche est cruciale pour comprendre l’impact spécifique des traumatismes répétés sur le développement psychologique des enfants.

Ford et Courtois soulignent quant à eux que, sur le plan neurologique, les enfants confrontés à des traumatismes multiples développent un cerveau orienté vers la survie et la vigilance, au détriment des fonctions d’apprentissage et d’exploration.

Ces enfants « en mode survie » peinent à s’adapter aux activités quotidiennes, car ils anticipent constamment des situations de menace. Cette orientation vers la survie a des conséquences durables, limitant leur capacité à nouer des relations saines.

Des difficultés de prise en charge

Au-delà des questions de diagnostic, la prise en charge des traumatismes complexes reste un défi pour les cliniciens. Les difficultés concrètes incluent :

  • l’établissement d’une alliance thérapeutique avec des patients ayant des troubles profonds de la confiance ;

  • la gestion de la dissociation chronique qui peut interrompre le processus thérapeutique ;

  • le risque constant de retraumatisation lors de l’exploration du passé ; les crises récurrentes liées à une régulation émotionnelle défaillante ;

  • les comportements autodestructeurs et suicidaires fréquents ;

  • la fragmentation du sens de soi qui complique tout travail identitaire ;

Par ailleurs, un autre autre difficulté est posée par l’impact émotionnel intense sur le thérapeute lui-même (on parle de « traumatisation vicariante »).

La durée du traitement, souvent de plusieurs années, et la nécessité d’adapter constamment l’approche thérapeutique constituent également des défis majeurs. Elle nécessite des approches thérapeutiques adaptées et une compréhension nuancée des impacts du traumatisme sur le développement.

Un concept qui n’a toujours pas été intégré au DSM

Judith Herman a proposé d’inclure le diagnostic de trouble de stress post-traumatique complexe dans le manuel diagnostique et statistique des troubles mentaux (en anglais « Diagnostic and statistical manual of mental disorders ou DSM), ouvrage de référence en matière de classification des troubles psychiatriques et psychiques, élaboré et publié par l’Association américaine de psychiatrie (« American Psychiatric Association »).

Parallèlement, Bessel Van der Kolk et ses collègues ont proposé le concept de Disorder of Extreme Stress – Not Otherwise Specified (DESNOS) (« état de stress extrême non spécifié – ESENS, pour rendre compte des séquelles complexes du psychotraumatisme.

Cependant, ni l’un ni l’autre de ces concepts n’ont jusqu’à présent été inclus dans le DSM, malgré l’appui de nombreux cliniciens. Concernant le trouble de stress post-traumatique complexe, les auteurs du DSM ont argué que ses symptômes peuvent être pris en charge par une définition élargie du trouble de stress post-traumatique simple incluant des symptômes d’autoblâme et d’aliénation.

Insatisfaits, Besselvan der Kolk et ses collègues ont introduit le concept de Developmental Trauma Disorder (DTD), qui semblait plus approprié pour décrire les troubles des enfants et adolescents traumatisés.

Même si ces tentatives n’ont pas encore été aux classifications officielles, elles ont contribué à faire évoluer la perception du traumatisme complexe dans la recherche et la clinique.

Une meilleure reconnaissance pour améliorer la prise en charge

Le traumatisme complexe représente une réalité clinique bien plus répandue que le trouble de stress post-traumatique classique, avec des symptômes variés et durables qui nécessitent une prise en charge spécifique.

Sa reconnaissance officielle permettrait aux cliniciens de mieux appréhender les souffrances des victimes de traumatismes prolongés, en offrant des outils diagnostiques adaptés aux particularités de ce trouble.

Certains indices suggèrent que les choses changent lentement. En effet, l’outil de classification des maladies de l’Organisation mondiale de la santé (CIM-11) a inclus le trouble de stress post-traumatique complexe comme un diagnostic distinct en 2018, marquant une avancée significative.

Toutefois, cette reconnaissance reste incomplète, car la CIM-11 propose une version simplifiée du trouble de stress post-traumatique complexe, basée sur une conception « additive » : ce trouble est défini comme un trouble de stress post-traumatique classique, auquel s’ajoutent des symptômes de « perturbation dans l’organisation du soi » incluant la dérégulation émotionnelle, un concept de soi négatif et des perturbations relationnelles. La CIM-11 n’inclut pas certains symptômes importants, comme la somatisation et la dissociation, pourtant caractéristiques du traumatisme complexe.

The Conversation

Cyril Tarquinio ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Reconnaître enfin le trouble de stress post-traumatique complexe, pour mieux le soigner – https://theconversation.com/reconnaitre-enfin-le-trouble-de-stress-post-traumatique-complexe-pour-mieux-le-soigner-258411

Malnutrition à Gaza : son impact sur les 1 000 premiers jours de vie des bébés

Source: – By Nina Sivertsen, Associate Professor, College of Nursing and Health Sciences, Flinders University

À Gaza, des enfants souffrent en nombre de malnutrition aiguë. Celle-ci peut avoir un impact majeur sur leur santé, en particulier sur leur cerveau en développement, surtout durant les 1 000 premiers jours de vie (de la conception jusqu’à l’âge de deux ans). Certaines lésions cérébrales peuvent être réversibles si des soins adaptés sont mis en œuvre précocement. Mais à Gaza, les conditions ne semblent pas réunies pour assurer cette prise en charge.


En mai dernier, les Nations unies avaient alerté sur le fait que plus de 14 000 bébés mourraient de malnutrition en 48 heures si Israël continuait d’empêcher l’aide d’entrer à Gaza.

(Le 19 mai 2025, après onze semaines de blocus total, Israël a autorisé l’entrée d’une aide limitée à Gaza. L’aide entre au compte-goutte, car une fois dans l’enclave, son acheminement se heurte à des obstacles logistiques majeurs, indiquaient les services de l’Organisation des Nations unies, le 13 juin 2025, ndlr).

Après que ce chiffre a été largement diffusé, ce calendrier a été reconsidéré. En effet, un porte-parole de l’ONU a apporté une clarification et indiqué que cette projection concernait les onze mois à venir. Ainsi, d’avril 2025 à mars 2026, on s’attend à 71 000 cas de malnutrition aiguë chez les enfants de moins de cinq ans, dont 14 100 cas graves.

La malnutrition aiguë sévère signifie qu’un enfant est extrêmement maigre et risque de mourir.

On estime que 17 000 femmes enceintes et allaitantes auront également besoin d’un traitement pour malnutrition aiguë pendant cette période.

La famine et la malnutrition sont nocives pour tout le monde. Mais pour les nourrissons, l’impact peut être profond et durable.

Qu’est-ce que la malnutrition ?

Chez les nourrissons et les jeunes enfants, la malnutrition signifie que leur taille, leur poids et leur périmètre crânien ne correspondent pas aux tableaux standard, en raison d’un manque de nutrition appropriée.

Les carences nutritionnelles sont particulièrement fréquentes chez les jeunes enfants et les femmes enceintes.

Le corps humain a besoin de 17 minéraux essentiels. Les carences en zinc, en fer et en iode sont les plus dangereuses. Elles sont liées à un risque plus élevé de décès ou de lésions cérébrales chez les nourrissons.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Lorsque la malnutrition est aiguë à grave, les nourrissons et les jeunes enfants perdent du poids parce qu’ils ne mangent pas assez et parce qu’ils sont plus sensibles aux maladies et à la diarrhée.

Cela conduit à ce que l’on appelle l’émaciation.

Un enfant émacié a perdu beaucoup de poids ou ne parvient pas à en prendre, ce qui se traduit par un rapport poids/taille dangereusement faible.

Un manque persistant de nourriture adéquate entraîne une malnutrition chronique ou un retard de croissance, qui nuisent à la croissance et au développement de l’enfant.

Risque d’infections et de mortalité

Les nourrissons malnutris ont un système immunitaire affaibli. Cela les rend plus vulnérables aux infections, en raison de la taille plus petite de leurs organes et de déficits en masse maigre. La masse maigre corespond au poids du corps à l’exclusion de la graisse. Elle est cruciale pour une croissance en bonne santé, pour acquérir de la force et pour le développement global.

Quand les enfants sont affamés, ils sont davantage susceptibles de mourir de maladies courantes telles que la diarrhée et la pneumonie.

Les infections peuvent rendre plus difficile l’absorption des nutriments, ce qui crée un cycle dangereux et aggrave la malnutrition.

La malnutrition chronique affecte le cerveau

Le cerveau humain se développe extraordinairement rapidement au cours des 1 000 premiers jours de la vie (de la conception à l’âge de deux ans). Pendant cette période, une alimentation adéquate est essentielle.

Le cerveau en développement des enfants est plus susceptible d’être affecté par des carences nutritionnelles que celui des adultes.

Quand elle se prolonge, la malnutrition peut entraîner des changements structurels cérébraux, et notamment conduire à un cerveau plus petit et qui comporte moins de myéline – la membrane protectrice qui entoure les cellules nerveuses et aide le cerveau à envoyer des messages.

La malnutrition chronique peut affecter les fonctions et les processus cérébraux tels que la pensée, le langage, l’attention, la mémoire et la prise de décision.

Ces impacts neurologiques peuvent causer des problèmes à vie.

Les lésions cérébrales peuvent-elles être permanentes ?

Oui, surtout lorsque la malnutrition survient pendant les périodes cruciales du développement du cerveau, comme les 1 000 premiers jours.

Cependant, certains effets sont réversibles. Des interventions précoces et intensives, comme l’accès à des aliments riches en nutriments et à des médicaments pour traiter l’hypoglycémie (faible taux de sucre dans le sang) ainsi que le fait de combattre les infections, peuvent aider les enfants à rattraper leur retard en matière de croissance et de développement cérébral.

Une revue d’études portant sur des enfants d’âge préscolaire sous-alimentés a par exemple révélé que leurs capacités cognitives – telles que la concentration, le raisonnement et la régulation émotionnelle – s’amélioraient quelque peu lorsqu’ils recevaient des suppléments de fer et des multivitamines.

Toutefois, la malnutrition pendant la fenêtre cruciale avant l’âge de deux ans augmente le risque de handicaps à vie.

Il est également important de noter que le rétablissement est plus probable dans un environnement où des aliments nutritifs sont disponibles et où les besoins émotionnels des enfants sont pris en charge.

À Gaza, les opérations militaires d’Israël ont détruit 94 % des infrastructures hospitalières et l’aide humanitaire reste sévèrement limitée. Les conditions nécessaires à la guérison des enfants sont donc hors de portée.

Mères enceintes et allaitantes

La malnutrition maternelle sévère peut augmenter le risque de décès ou de complications pendant la grossesse pour la mère et l’enfant.

Lorsqu’une mère qui allaite est mal nourrie, elle produira moins de lait et celui-ci sera de qualité inférieure. Les carences en fer, en iode et en vitamines A, D et en zinc compromettront la santé de la mère et réduiront la valeur nutritionnelle du lait maternel. Cela peut contribuer à une mauvaise croissance et affecter le développement du nourrisson.

Les mères affamées peuvent souffrir de fatigue, d’une mauvaise santé et d’une détresse psychologique, ce qui rend difficile le maintien de l’allaitement.

Des impacts aussi sur les autres organes

Les données recueillies auprès des personnes nées pendant la famine de 1944-45 aux Pays-Bas nous ont aidés à comprendre les impacts sur la santé des enfants conçus et nés pendant que leurs mères mouraient de faim.

Dans cette cohorte, la malnutrition a affecté le développement et le fonctionnement de nombreux organes chez les enfants, y compris le cœur, les poumons et les reins.

Ce groupe présentait également des taux plus élevés de schizophrénie, de dépression et d’anxiété, ainsi que des performances inférieures aux tests cognitifs.

Il présentait également un risque plus élevé de développer des maladies chroniques évolutives (telles que les maladies cardiovasculaires et l’insuffisance rénale) et de mourir prématurément.

Ces effets sont-ils réversibles ?

Les enfants peuvent récupérer. Mais cela dépend de la gravité de la malnutrition dont souffre l’enfant, du moment où cela se produit et du type de prise en charge qu’il reçoit.

Il a été prouvé que les enfants restent vulnérables et courent un risque plus élevé de mourir, même après avoir été traités pour des complications de malnutrition aiguë sévère.

Les interventions efficaces comprennent :

  • une réadaptation nutritionnelle (qui consiste à donner à l’enfant des aliments riches en nutriments, une alimentation spécialisée et à remédier aux carences sousjacentes)

  • un soutien à l’allaitement maternel pour les mères

  • le fait de fournir des soins de réadaptation et de santé dans la communauté (afin que les familles et les enfants puissent reprendre leurs activités quotidiennes).

Cela semble difficile, voire impossible, à Gaza, où le blocus de l’aide par Israël et les opérations militaires en cours signifient que la sécurité et les infrastructures sont gravement compromises.

Or, les épisodes répétés ou prolongés de malnutrition augmentent le risque de dommages durables concernant le développement de l’enfant.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Malnutrition à Gaza : son impact sur les 1 000 premiers jours de vie des bébés – https://theconversation.com/malnutrition-a-gaza-son-impact-sur-les-1-000-premiers-jours-de-vie-des-bebes-257575

Trois conseils pour limiter le stress au travail

Source: – By Marie Chamontin, Doctorante en psychologie, Psychologue du travail et Psychothérapeute, CY Cergy Paris Université

Gardez à l’esprit que votre contrat de travail cadre les modalités d’exécution de votre activité professionnelle. Vous ne vous engagez pas à mettre de côté votre santé physique, mentale et sociale. StudioRomantic/Shutterstock

Comment éviter de stresser au travail ? Alors que la Semaine sur la qualité de vie et des conditions de travail (QVCT) s’est achevée le 20 juin, trois conseils permettent de réduire le stress : travailler en deçà d’un certain volume horaire hebdomadaire, avoir un sommeil optimal et limiter la sédentarité.


Proposée chaque année par l’Agence nationale pour l’amélioration des conditions de travail (Anact), la Semaine pour la qualité de vie et des conditions de travail (QVCT) 2025 avait pour thème « Parler du travail, c’est productif ! » L’objectif : permettre aux acteurs du monde professionnel de s’informer, débattre et partager de bonnes pratiques en faveur de la QVCT définie comme « favorisant un sentiment de bien-être au travail perçu collectivement et individuellement ».

Parler de la réalité du quotidien à travers les espaces d’expression obligatoires dans toutes les entreprises permet de développer un dialogue social de qualité. Que ce soit les représentants du personnel, les travailleurs, qu’ils soient manager ou salarié, chacun doit avoir la possibilité de s’exprimer sur son travail. Dans le cadre d’une démarche de prévention collective des risques professionnels, parler du travail est indissociable de l’évaluation des risques psychosociaux.

Ce bien-être au travail passe par la réduction du stress. On parle de stress au travail quand une personne ressent un déséquilibre entre ce qu’on lui demande de faire dans le cadre professionnel, et les ressources dont elle dispose pour y répondre. Si la QVCT passe principalement par l’organisation et l’environnement du travail, dépendant ainsi de l’employeur, des leviers individuels existent au niveau du travailleur. Sur ce plan, nous pouvons formuler trois conseils à mettre en œuvre dans le cadre professionnel, sur la base des travaux en psychologie.

Moins de 48 heures par semaine

L’augmentation du temps de travail est associée à un plus grand risque d’accident du travail, de surpoids, de développement de troubles musculo-squelettiques et d’effet négatif sur la santé mentale. Le temps de concentration allongé, les temps de repas irréguliers et déséquilibrés, l’ergonomie au poste de travail ne répondent pas aux contraintes des travailleurs. L’augmentation du stress ressenti au quotidien est un exemple d’éléments favorisant au fil du temps un effet délétère sur la santé.

En 2024, les indépendants à temps complet ont travaillé habituellement 47,2 heures par semaine en moyenne contre 36,9 heures pour l’ensemble des personnes en emploi.
DARES (Direction de l’animation de la recherche, des études et des statistiques)

Notons que les femmes enceintes peuvent bénéficier d’une réduction de temps de travail journalier prévu par un accord d’entreprise ou convention collective. En cas de besoin d’aménagement de poste qu’il soit physique (besoin d’adaptation du mobilier) ou organisationnel ( aménagement d’horaires par exemple, jour supplémentaire de télétravail), vous pouvez contacter directement votre médecin du travail.

Notez que les travailleurs bénéficiant de l’obligation d’emploi, via la reconnaissance de la qualité de travailleur handicapé notamment, peuvent également bénéficier d’aménagements de poste complémentaires, toujours en accord avec le médecin du travail. Et si vous êtes en arrêt maladie, pensez à la visite de pré-reprise pendant votre arrêt.

Rythme de sommeil régulier

Se coucher et se réveiller à heures fixes tous les jours est plus efficace que d’avoir de courtes nuits en semaines et rallonger son temps de sommeil le week-end. Avoir une activité physique quotidienne – prendre les escaliers, sortir une station de métro plus tôt, préférer le vélo ou la marche pour les petits trajets – est fortement recommandée. Pour l’activité sportive où l’intensité est plus élevée, évitez de vous coucher dans les deux heures suivantes. Votre corps sera encore trop chaud pour libérer les hormones nécessaires à l’endormissement. Les stimulants comme le thé, café et boissons énergisantes sont à bannir après 16 heures.


Abonnez-vous dès aujourd’hui !

Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH, marketing, finance…).


Pour ceux qui rencontrent des difficultés de sommeil la nuit, bien que cela soit contre-intuitif, évitez les siestes en journée. Vous allez diminuer votre fatigue accumulée en journée, fatigue nécessaire pour favoriser l’endormissement la nuit. Certaines hormones, sécrétées principalement à l’obscurité, sont nécessaires à cet endormissement. Éviter une lumière trop forte le soir, préférer une lumière douce, tamisée a minima 1 heure avant de vous coucher. Idem avec les écrans. Exposez-vous sans modération le matin à la lumière du soleil.

Optimiser le sommeil des travailleurs.
Réseau Morphée

Certains métiers avec des horaires atypiques ou encore le travail de nuit – entre 21 heures et 7 heures du matin – peuvent occasionner des troubles du sommeil nécessitant une attention particulière. Il concerne 3,2 millions de Français en 2023. En cas de troubles persistants, n’hésitez pas à consulter votre médecin généraliste.

Lutter contre la sédentarité

En France, près de 42 % des adultes de 18-44 ans passent plus de huit heures par jour dans une situation de sédentarité, contre 31 % chez les 45-64 ans. Cette différence est expliquée par le temps passé devant un ordinateur. La sédentarité correspond au temps passé assis ou allongé dans la journée, hors temps de sommeil.

Au travail, la stratégie la plus efficace pour diminuer son temps de travail assis est l’utilisation de bureau assis-debout. Ce dernier se présente comme un bureau standard, tout en permettant d’ajuster la hauteur du plan de travail, de façon mécanique ou électrique – prévoyez un budget supérieur pour cette dernière option. Il est possible d’alterner différentes positions au cours de la journée. Ce type de mobilier peut faire l’objet d’un aménagement de poste physique, préconisé par votre médecin du travail.

Que l’on soit dernière son écran d’ordinateur ou celui de son smartphone, il est recommandé de lever la tête régulièrement et de regarder au loin. Ce changement de distance permet à nos yeux de réduire leur contraction liée à l’accommodation et de favoriser le clignement. Résultat : moins de sécheresse oculaire et de sensation de vision trouble. De même, se lever régulièrement et marcher quelques minutes pendant sa journée de travail – pour aller chercher un verre d’eau par exemple. Éviter l’ascenseur permet également de réduire le risque de déclarer une pathologie liée à la sédentarité.

La santé avant tout

Je n’ai pas le temps de faire tout ça, j’ai du travail, moi ! 

Gardez à l’esprit que votre contrat de travail cadre les modalités d’exécution de votre activité professionnelle : vous mettez à disposition de votre employeur votre capacité de travail, par un lien de subordination, en échange d’une rémunération. Vous ne vous engagez pas à mettre de côté votre santé physique, mentale et sociale. Il est important que ce qui fait sens pour vous puisse être investi afin de trouver un équilibre général.

Même si vos conditions de travail ne dépendent pas de vous, bien qu’elles impactent significativement votre qualité de vie au travail, ces trois leviers individuels – moins de 48 heures hebdomadaires de travail, un bon sommeil et se lever régulièrement – restent à votre portée. Ils préviennent l’apparition de troubles pouvant altérer durablement votre bien-être au quotidien.

Certes, ces trois actions ne résolvent pas tout, mais c’est déjà pas mal !

The Conversation

Marie Chamontin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Trois conseils pour limiter le stress au travail – https://theconversation.com/trois-conseils-pour-limiter-le-stress-au-travail-258424

« The Last of Us » : le « Cordyceps », menace fictive, réel atout thérapeutique ?

Source: – By Efstathia Karachaliou, Pharmacienne, Doctorante en pharmacognosie, Université Bourgogne Europe

Une larve parasitée par un champignon appartenant au genre _Ophiocordyceps_, lequel dépasse du corps momifié de l’insecte. PattyPhoto/Shutterstock

Dans la série The Last of Us, l’apocalypse est arrivée par un champignon parasite, le Cordyceps. Transformant les humains en zombies ultra-agressifs, il a provoqué l’effondrement de notre civilisation. Un scénario qui prend racine dans le réel, puisque ce type de champignon existe bel et bien, mais ne s’attaque qu’aux insectes. Inoffensif pour les humains, il est même utilisé par la médecine traditionnelle chinoise, qui lui prête de nombreuses vertus.


La deuxième saison de The Last of Us, diffusée par la chaîne HBO, s’est achevée fin mai 2025. Adaptation d’un jeu vidéo à succès, cette série postapocalyptique reprend les ingrédients habituels du genre : l’humanité s’est effondrée suite à une brutale pandémie, la loi du plus fort règne, les survivants tentent de survivre en s’organisant au milieu du chaos, tout en évitant eux-mêmes d’être infectés.

L’originalité du scénario tient ici à la source de l’épidémie qui a mené à la catastrophe : point de virus pour transformer les êtres humains en zombies agressifs, mais un champignon parasite, le Cordyceps. Ce nom n’a pas été inventé par les scénaristes : le genre de champignon dont ils se sont inspirés existe bel et bien (même s’il a été récemment renommé Ophiocordyceps). Et ses membres sont eux aussi capables de transformer en zombies ses victimes.

Heureusement, ces champignons ne s’attaquent qu’aux insectes : ils ne présentent aucun danger pour notre espèce. Au contraire : ces champignons pourraient même être à la base de nouveaux médicaments. Explications.

Un champignon qui « zombifie ses victimes »

Dans The Last of Us, près de 60 % de l’humanité a été décimée ou contaminée par le champignon Cordyceps. Responsable d’une « infection cérébrale », le champignon prend le contrôle des humains qu’il parasite et les transforme en créatures agressives. Ce concept s’inspire de champignons qui existent bel et bien, et appartiennent aux genres Cordyceps et Ophiocordyceps.

Le genre Ophiocordyceps est passé à la postérité grâce à la capacité de l’un de ses membres, Ophiocordyceps unilateralis, à « pirater » le cerveau des fourmis qu’il contamine. Il parvient ainsi à modifier leur comportement, maximisant de ce fait ses chances de transmission.

Lorsqu’une fourmi est contaminée, elle quitte le nid pour se rendre dans des zones en hauteur, souvent des végétaux. Perchée en surplomb, sur une feuille ou un brin d’herbe, elle s’ancre avec ses mandibules dans une sorte « d’étreinte de la mort » : elle y restera jusqu’à son décès.

Le corps de la fourmi morte reste dès lors en place à un endroit présentant des conditions idéales pour le développement fongique. La formation des corps fructifères du champignon est facilitée, tout comme la propagation de ses spores, qui vont pouvoir infecter d’autres fourmis qui vaquent à leurs occupations, en contrebas.

Ce cycle de manipulation comportementale est crucial pour le champignon. En effet, sans cette adaptation, les fourmis infectées seraient rapidement retirées du nid par leurs congénères. Bien que des travaux de recherche aient approfondi la compréhension de ces interactions, de nombreuses questions demeurent sur la complexité de cette manipulation comportementale.

Parmi les quelque 350 espèces du genre Ophiocordyceps, toutes ne s’attaquent pas aux fourmis. Ophiocordyceps sinensis parasite plutôt les chenilles, les modifiant si radicalement que les observateurs ont longtemps cru que celles-ci passaient de l’état animal à l’état végétal. Mais le plus intéressant est que ce champignon occupe une place à part en médecine traditionnelle, depuis très longtemps.

Un pilier de la médecine traditionnelle chinoise

Plus de 350 espèces associées ont été identifiées à ce jour à travers le monde, mais une seule – Ophiocordyceps sinensis – est officiellement reconnue comme drogue médicinale dans la pharmacopée chinoise depuis 1964.

Il est récolté dans les prairies de haute altitude (3 500–5 000 mètres) des provinces chinoises comme le Qinghai, le Tibet, le Sichuan, le Yunnan et le Gansu. Son usage remonte à plus de trois cents ans en Chine.

Appelé dongchongxiacao (« ver d’hiver, herbe d’été »), ce champignon est un pilier de la médecine traditionnelle chinoise. Selon les principes de cette dernière, O. sinensis – de nature « neutre » et de saveur « douce » – est réputé tonifier les reins, apaiser les poumons, arrêter les saignements et éliminer les mucosités. Il est traditionnellement utilisé pour traiter la fatigue, la toux, l’asthénie post-maladie grave, les troubles sexuels, les dysfonctionnements et les insuffisances rénales.

Il faut souligner que, traditionnellement, les préparations d’O. sinensis contiennent non seulement le champignon, mais aussi d’autres ingrédients (alcool, solvants…). Ainsi, pour « revigorer les poumons et renforcer les reins », la médecine chinoise traditionnelle conseille d’administrer l’ensemble larve et champignon. Il est donc difficile d’attribuer une éventuelle activité au champignon lui-même. Sans compter qu’il n’est pas toujours certain que l’espèce utilisée soit bien celle déclarée.

Toutefois, l’impressionnante liste d’allégations santé associée à ces champignons parasites a attiré l’attention de la recherche pharmaceutique, et des études ont été entreprises pour évaluer le potentiel des principes actifs contenus dans ce champignon.

Des pistes à explorer

Certains travaux semblent indiquer des effets – chez la souris – sur la croissance tumorale ainsi que sur la régulation de certaines cellules immunitaires. Une activité anti-inflammatoire a aussi été mise en évidence dans des modèles animaux et des cultures de cellules. Enfin, une méta-analyse (analyse statistique de résultats d’études déjà publiées) menée sur un petit nombre de publications a suggéré que, chez des patients transplantés rénaux, un traitement d’appoint à base de préparation d’O. sinensis pourrait diminuer l’incidence de l’hyperlipidémie, l’hyperglycémie et des lésions hépatiques. Les auteurs soulignent cependant que des recherches complémentaires sont nécessaires, en raison de la faible qualité des preuves et du risque de biais lié à la mauvaise qualité méthodologique des travaux analysés.

Une revue Cochrane (Organisation non gouvernementale à but non lucratif qui évalue la qualité des données issues des essais cliniques et des méta-analyses disponibles) de la littérature scientifique concernant les effets de ce champignon sur la maladie rénale chronique aboutit aux mêmes conclusions : si certaines données semblent indiquer que des préparations à base d’O. sinensis administrées en complément de la médecine occidentale conventionnelle pourraient être bénéfiques pour améliorer la fonction rénale et traiter certaines complications, la qualité des preuves est médiocre, ce qui ne permet pas de tirer de conclusion définitive.

Une autre espèce de champignon apparentée, Ophiocordyceps militaris, a aussi retenu l’attention des scientifiques. Il parasite quant à lui les pupes du ver à soie tussah (Antherea pernyi), lesquelles sont traditionnellement cuisinées et consommées dans certaines régions de Chine. Divers composés actifs ont été isolés de ce champignon, tel que la cordycépine, isolée dans les années 1950, qui pourrait avoir un intérêt dans la lutte contre le cancer, même si cela reste à confirmer. Chez la souris, des travaux ont aussi suggéré des effets sur la réduction des taux sanguins d’acide urique.

Des aliments « médicinaux » ?

Au-delà des pratiques médicales traditionnelles ou des explorations pharmacologiques visant à mettre au point de nouveaux médicaments, les champignons Ophiocordyceps sont aussi employés comme aliment diététique. En Chine, ils sont par exemple utilisés dans les plats traditionnels, les soupes, les boissons (bières, thés…) ou les compléments alimentaires (gélules). Leurs partisans prêtent à ces produits d’innombrables vertus : renforcement de l’immunité, lutte contre le vieillissement, régulation du sommeil, stimulation de l’appétit, et protection de la santé en général.

Toutefois, à l’heure actuelle, les preuves scientifiques soutenant de telles allégations manquent encore, notamment en matière de validation clinique en ce qui concerne, par exemple, l’immunité.

Cette utilisation s’inscrit dans la même tendance que celle qui a vu ces dernières années se développer les « aliments fonctionnels ». Aussi appelés nutraceutiques ou aliments « médicinaux », ces produits, qui sont vendus à grand renfort de marketing mettant en avant diverses allégations thérapeutiques, connaissent un fort développement mondial. Selon le cabinet BCC Research, la demande mondiale en nutraceutiques devrait passer de 418,2 milliards de dollars en 2024 à 571,3 milliards en 2029, avec un taux de croissance annuel moyen de 6,4 %.

Cependant, malgré l’abondance des produits revendiquant des bienfaits pour la santé, le niveau de preuve scientifique reste souvent limité ou controversé. La démonstration rigoureuse des effets physiologiques de ces aliments est complexe, en raison notamment de la variabilité des compositions, des biais liés aux études d’observation, ou encore du manque de standardisation des protocoles cliniques. Cela pose des défis importants en matière d’évaluation scientifique, de communication des allégations et de réglementation.

En vigueur depuis le 1er janvier 2018, le règlement sur les « nouveaux aliments » s’applique à l’ensemble de l’Union européenne. Est considéré comme nouvel aliment tout aliment n’ayant pas été consommé de manière significative avant mai 1997.

Pour que la Commission européenne accepte d’autoriser la mise sur le marché d’un nouvel aliment, plusieurs conditions doivent être remplies : compte tenu des données scientifiques disponibles, il ne doit présenter aucun risque pour la santé (ce qui ne signifie pas qu’il l’améliore), et son utilisation ne doit pas entraîner de déficit nutritionnel.

Si les mycéliums de Cordyceps sinensis sont aujourd’hui autorisés, ce n’est pas le cas de ceux de Cordyceps militaris, qui n’a pas encore reçu d’autorisation préalable de mise sur le marché européen.

The Conversation

Efstathia Karachaliou ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. « The Last of Us » : le « Cordyceps », menace fictive, réel atout thérapeutique ? – https://theconversation.com/the-last-of-us-le-cordyceps-menace-fictive-reel-atout-therapeutique-255130

Qu’est-ce que la gueule de bois, et y a-t-il des remèdes ?

Source: – By Mickael Naassila, Professeur de physiologie, Directeur du Groupe de Recherche sur l’Alcool & les Pharmacodépendances GRAP – INSERM UMR 1247, Université de Picardie Jules Verne (UPJV)

Les vendeurs de remèdes miracles contre la gueule de bois nous assurent qu’ils nous permettront de boire sans payer l’addition. Mais ces promesses séduisantes ne reposent sur aucune preuve scientifique solide. Et lorsque ces produits sont vendus en pharmacie, cela entretient une illusion de légitimité qui brouille les repères en matière de santé publique.


La gueule de bois – ce malaise du « lendemain de fête » – est souvent banalisée, moquée, voire érigée en rite de passage. Mais il s’agit aussi désormais d’un phénomène médicalement reconnu, puisque codifié par l’Organisation mondiale de la santé (OMS) dans la dernière version de la Classification internationale des maladies (CIM-11).

Que nous apprennent les recherches scientifiques sur les causes de ce désagréable état et ses conséquences ? Existe-t-il des prédispositions ? Des remèdes qui fonctionnent ? Que change le fait que la gueule de bois soit aujourd’hui reconnue comme une entité médicale à part entière ? Voici les réponses.

Qu’est-ce que la gueule de bois ?

La gueule de bois (en anglais « alcohol hangover ») désigne l’ensemble des symptômes qui apparaissent lorsque le taux d’alcool dans le sang est redescendu à zéro, généralement plusieurs heures après une consommation excessive. Cet état dure de 6 à 24 heures.

Selon le Hangover Research Group, un collectif international de chercheurs spécialisé dans l’étude scientifique de la gueule de bois et la littérature scientifique récente, les symptômes sont de trois types :

  • physiques : maux de tête, nausées, vomissements, fatigue, sécheresse buccale, tremblements, tachycardie, troubles du sommeil ;

  • psychologiques et cognitifs : anxiété (illustrée par le mot-valise anglais « hangxiety »), irritabilité, humeur dépressive, troubles de l’attention, de la mémoire, lenteur cognitive ;

  • physiologiques : inflammation systémique, stress oxydant, déséquilibre électrolytique (les électrolytes présents dans le sang, comme le sodium ou le potassium par exemple, interviennent dans plusieurs processus biologiques, notamment les fonctions nerveuses et musculaires), hypoglycémie (diminution du taux de sucre sanguin), dérèglement du rythme circadien (l’« horloge interne » qui régule notre corps), perturbation de neurotransmetteurs (les messagers chimiques qui permettent aux neurones de communiquer entre eux) comme le glutamate et la dopamine.

Peut-on prédire qui aura une gueule de bois ?

Si la gueule de bois peut survenir à partir d’une alcoolisation modérée (de l’ordre, par exemple, de quatre verres en une soirée), la dose minimale varie fortement selon les individus.

Divers facteurs modérateurs ont été bien identifiés. C’est notamment le cas de la vitesse d’ingestion : plus l’alcool est consommé rapidement, plus le pic d’alcoolémie est élevé, ce qui augmente le risque de gueule de bois.

La biologie joue également un rôle, qu’il s’agisse du sexe (on sait, par exemple, que les femmes éliminent plus lentement l’alcool que les hommes), du poids, de l’état de santé, ou encore de la génétique, qui influe sur les processus enzymatiques (notamment ceux impliquant les enzymes qui interviennent dans la détoxification de l’alcool, telle que l’alcool déshydrogénase et les aldéhydes déshydrogénases).

L’âge joue également un rôle : les jeunes adultes sont plus sujets à la gueule de bois que les personnes âgées. Les jeunes adultes ont tendance à consommer plus rapidement et en plus grande quantité lors d’occasions festives (« binge drinking »), ce qui augmente fortement le risque de gueule de bois.

Les personnes plus âgées consomment souvent de façon plus modérée et régulière. Avec l’âge, certaines personnes réduisent naturellement leur consommation et apprennent à éviter les excès et à anticiper les effets. Elles répondent moins aux effets inflammatoires de l’alcool et rapportent moins les symptômes de la gueule de bois.

Enfin, l’état physique (niveau d’hydratation, sommeil, alimentation préalable) influe aussi sur les symptômes. Boire à jeun, sans ingérer d’eau ni dormir suffisamment, majore les symptômes.

Gueule de bois et « blackouts » : un lien inquiétant

Les « blackouts » alcooliques, ou amnésies périévénementielles, traduisent une perturbation aiguë de l’hippocampe, une structure du cerveau qui joue un rôle essentiel dans la mémoire. En interagissant avec certains récepteurs présents au niveau des neurones, l’alcool bloque les mécanismes moléculaires qui permettent la mémorisation ; le cerveau n’imprime alors plus les souvenirs…

Bien que ces blackouts ne soient pas synonymes de gueule de bois, ils y souvent associés. En effet, une telle perte de mémoire indique une intoxication sévère, donc un risque plus élevé de gueule de bois… et d’atteintes cérébrales à long terme !

Un facteur de risque pour l’addiction ?

Plusieurs études suggèrent un paradoxe du lien entre gueule de bois et addiction. Ainsi, bien que la gueule de bois soit une expérience désagréable, elle ne dissuaderait pas nécessairement la consommation future d’alcool et pourrait même être associée à un risque accru d’addiction à l’alcool. Une étude a par exemple suggéré que la gueule de bois fréquente chez les jeunes constitue un marqueur prédictif spécifique et indépendant du risque de développer une addiction à l’alcool plus tard dans la vie. Ce lien semble refléter une vulnérabilité particulière aux effets aversifs de l’alcool.

Chez les buveurs « sociaux » qui se caractérisent par une consommation d’alcool festive, sans présenter une addiction à l’alcool, une gueule de bois sévère est souvent dissuasive. Cependant, chez certains profils à risque (individus jeunes, impulsifs, ou présentant des antécédents familiaux), la gueule de bois n’induit pas de réduction de consommation. Pis : elle est perçue comme un désagrément tolérable renforçant l’habitude de consommation et cette réponse aux effets subjectifs de la gueule de bois constitue ainsi un facteur de vulnérabilité à l’addiction à l’alcool, notamment si l’individu cherche à soulager la gueule de bois… en buvant de nouveau (cercle vicieux).

Pas de remède miracle

Eau pétillante, bouillon, vitamine C, aspirine, bacon grillé, sauna, jus de cornichon, « hair of the dog » (« poils du chien », ce qui signifie en réalité reprendre un verre)… La littérature populaire est riche en remèdes de grand-mère censés soulager la gueule de bois.

Selon les dires des uns et des autres, pour éviter ou limiter les désagréments liés à une consommation excessive d’alcool, il faudrait se réhydrater (eau, bouillons), soutenir le foie (chardon-Marie, cystéine), réduire l’inflammation (antioxydants, ibuprofène), relancer la dopamine (café, chocolat) ou encore restaurer les électrolytes (boissons pour sportifs)… Pourtant, à ce jour, l’efficacité de ces différents remèdes n’a été étayée par aucune preuve scientifique solide.

En 2020, une revue systématique de la littérature a conclu à l’absence d’efficacité démontrée des interventions analysées, les résultats en matière d’efficacité étant jugés « de très faible qualité ». Ce travail a inclus 21 essais contrôlés randomisés, analyse 23 traitements différents, et conclut que la qualité globale des preuves est très faible, selon le système GRADE (Grading of Recommendations Assessment, Development and Evaluation).

Précédemment, d’autres travaux étaient également arrivés à la même conclusion.

La meilleure prévention reste donc de boire modérément, lentement, et de s’hydrater.

Un enjeu éthique : faut-il traiter la gueule de bois ?

Le fait que la gueule de bois soit maintenant reconnue comme une entité médicale interroge. Ce glissement sémantique est risqué : il pourrait banaliser l’alcoolisation excessive, et même favoriser la consommation. Risque-t-on de voir un jour des médecins prescrire un « traitement » préventif pour permettre de boire plus sans souffrir ?

La médicalisation de la gueule de bois pourrait aussi avoir un effet pervers : considérer qu’il est possible de « boire sans conséquence », à condition de bien se soigner après coup…

Il ne faut pas oublier que la gueule de bois n’est pas un simple désagrément : cet état est le reflet d’un stress intense infligé au cerveau et au reste du corps. La comprendre, c’est mieux se protéger – et, peut-être aussi, réfléchir à ses habitudes de consommation.

À ce sujet, si vous le souhaitez, vous pouvez autoévaluer vos symptômes de gueules de bois en utilisant cette traduction française de la Hangover Symptom Scale (HSS) :

The Conversation

Mickael Naassila est Président de la Société Française d’Alcoologie (SFA) et de la Société Européenne de Recherche Biomédicale sur l’Alcoolisme (ESBRA); Vice-président de la Fédération Française d’Addictologie (FFA) et vice-président junior de la Société Internationale de recherche Biomédicale sur l”Alcoolisme (ISBRA). Il est membre de l’institut de Psychiatrie, co-responsable du GDR de Psychiatrie-Addictions et responsable du Réseau National de Recherche en Alcoologie REUNIRA et due projet AlcoolConsoScience. Il a reçu des financements de l’ANR, de l’IReSP/INCa Fonds de lutte contre les addictions.

ref. Qu’est-ce que la gueule de bois, et y a-t-il des remèdes ? – https://theconversation.com/quest-ce-que-la-gueule-de-bois-et-y-a-t-il-des-remedes-238600

L’accord de l’OMS sur les pandémies se fait-il au détriment d’autres priorités de santé mondiale ?

Source: – By Valery Ridde, Directeur de recherche, Institut de recherche pour le développement (IRD)

L’accord sur les pandémies signé en mai 2025 par les États membres de l’Organisation mondiale de la santé (OMS) est présenté comme un succès historique du multilatéralisme. Pourtant, il pourrait se révéler délétère pour les autres priorités de santé globale, du fait de la gouvernance technocratique qu’il propose et des coûts financiers élevés qui seraient alloués à des risques pandémiques hypothétiques.


Le 20 mai 2025, l’Assemblée mondiale de la santé a adopté ce que l’Organisation mondiale de la santé (OMS) a qualifié « d’accord historique » concernant la prévention des pandémies.

Célébrant l’accord comme un triomphe du multilatéralisme et une étape vers la sécurité sanitaire mondiale, le Dr Tedros Adhanom Ghebreyesus, directeur général de l’OMS a déclaré :

« Les nations du monde ont écrit l’histoire. »

Les dirigeants mondiaux se sont fait l’écho de ce sentiment.

La revue scientifique de référence Nature a également rejoint le satisfecit, en qualifiant le traité de « triomphe dans un monde déchiré ». La France, qui a coprésidé les négociations, est fière de ce succès.

Un contexte de réduction de l’aide au développement

En France, les responsables ont parlé d’« une victoire majeure pour le multilatéralisme » alors même qu’à l’instar des États-Unis d’Amérique et de l’Union européenne, elle a considérablement réduit son aide au développement dans le secteur de la santé.

La France continue de concentrer son soutien vers des programmes verticaux orientés vers quelques maladies, au détriment d’une approche globale de la santé. Alors que le ton de célébration domine les récits officiels, un examen attentif révèle une image plus complexe.

L’accord sur les pandémies n’est qu’un début

L’idée de cet accord est née à la suite de la pandémie de Covid-19 qui a révélé de profondes fractures dans la gouvernance mondiale de la santé. En décembre 2021, les États membres de l’OMS ont convenu de lancer des négociations en vue d’un nouvel instrument international pour la prévention, la préparation et la réaction aux pandémies (PPPR).

Cela a conduit à la création de l’organe intergouvernemental de négociation. Il s’est réuni 13 fois pendant plus de trois ans. Les deux premières années ont coûté plus de 200 millions de dollars, ce qui soulève des questions quant à l’efficacité et à la transparence de la diplomatie mondiale en matière de santé.

L’accord tire sa légitimité de la déclaration de l’Assemblée générale des Nations unies sur la PPPR (PPPR, pour prévention, préparation et réaction aux pandémies, ndlr) qui a souligné la nécessité d’une réponse internationale coordonnée aux futures menaces pour la santé. Le 20 mai 2025, il a été adopté par consensus (moins 11 abstentions et 60 non-votes) lors de la 78e Assemblée mondiale de la santé. Cependant, ce n’est que le début.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


La mise en œuvre de l’accord repose sur trois prochaines étapes essentielles :

  • i) la ratification par au moins 60 États membres, ce qui déterminera sa force juridique ;

  • ii) la création d’une Conférence des parties, qui servira d’organe directeur ;

  • iii) un accord sur le contenu spécifique de l’article qui concerne l’accès et le partage des avantages pour les produits de santé ; aspect le plus controversé des négociations.

Les implications juridiques et le rôle de l’OMS

L’accord sur les pandémies a été adopté en vertu de l’article 19 de la Constitution de l’OMS, qui prévoit des conventions juridiquement contraignantes. Toutefois, sa relation avec le Règlement sanitaire international (RSI) demeure ambiguë.

Alors que ce règlement continue de régir la notification des épidémies et les réponses à apporter, le nouvel accord étend le mandat de l’OMS à la distribution équitable des produits médicaux dans le monde et aux mécanismes de financement. Mais les détails doivent encore être déterminés par la Conférence des parties.

Cette centralisation de l’autorité risque de transformer la Conférence des parties en un centre technocratique dominé par des acteurs disposant de ressources suffisantes, ce qui mettrait à l’écart des voix moins puissantes, comme cela été le cas lors de la pandémie de Covid-19.

Le texte final limite l’autorité de l’OMS (article 24, paragraphe 2) et réaffirme que la mise en œuvre de l’accord reste de la responsabilité souveraine des États membres.

Des risques de pandémie surestimés, au détriment d’autres priorités

Alors que l’accord est célébré comme une étape diplomatique, il est essentiel de modérer l’enthousiasme par une analyse sobre de ses limites et de ses préoccupations.

Tout d’abord, l’hypothèse centrale de l’accord est que les pandémies constituent une menace « existentielle ». Cependant, la probabilité de pandémies catastrophiques est souvent surestimée et davantage motivée par des incitations politiques que par des preuves scientifiques. Cette inflation du risque peut conduire à des réponses disproportionnées et à une affectation des ressources éloignée des besoins.

Cela pourrait conduire à un détournement coûteux, au détriment de priorités de santé plus pressantes. Ainsi, le coût annuel estimé de la préparation et de la réponse aux pandémies est estimé à 31,1 milliards de dollars, dont 26,4 milliards de dollars attendus des pays à revenu faible et intermédiaire.

De plus, une aide publique au développement de 10,5 milliards de dollars supplémentaires est nécessaire, chaque année.

Il faut également ajouter les 10,5 milliards à 11,5 milliards de dollars requis pour le programme « Une seule santé ». Bien que solide sur le plan conceptuel, son coût est prohibitif et ses priorités mal alignées. Cette approche détourne l’attention et les ressources des besoins de santé publique de base et d’une perspective transdisciplinaire des enjeux de santé.

Enfin, de manière globale, dans un monde où les services de santé de base restent sous-financés, le détournement des ressources vers des menaces futures hypothétiques risque de saper les efforts visant à remédier aux fardeaux des maladies actuelles.

Une insistance excessive sur une approche sécuritaire de la santé

L’accord s’appuie sur un cadre de biosécurité qui met l’accent sur la surveillance, la riposte et la réponse rapide. Le Fonds de la Banque mondiale pour les pandémies ne finance que la surveillance et le diagnostic, tandis que la « mission de 100 jours » ainsi que l’accent quasi exclusif mis par l’accord sur les « produits » représentent un réductionnisme biomédical.

Cette approche néglige les déterminants sociaux de la santé et la nécessité de systèmes de santé résilients.




À lire aussi :
Partout dans le monde, la résilience des systèmes de santé affaiblie par les réformes néolibérales


L’Organisation de coopération et de développement économique (OCDE) et l’OMS ont pourtant plaidé en faveur d’investissements dans la résilience des systèmes de santé.

Des préoccupations en matière d’équité

Malgré des engagements rhétoriques en faveur de l’équité, l’accord risque de répéter les échecs des réponses à la pandémie de Covid-19.

L’accent mis sur l’équité vaccinale a ainsi éclipsé des objectifs plus larges en matière d’équité en santé. L’accord adopte un modèle unique qui ne peut pas refléter la diversité des besoins et des capacités des différents pays, en particulier ceux dont le système de santé est fragile.

Des risques de corruption et de marchandisation ?

La centralisation des efforts du nouvel instrument international pour la PPPR (PPPR, pour prévention, préparation et réaction aux pandémies, ndlr) ainsi que la marchandisation de la préparation aux pandémies (au moyen de stocks, d’outils de surveillance et de technologies propriétaires) créent un terrain fertile pour la corruption, la recherche de rentes et des résultats négatifs en matière de santé.

L’afflux de fonds et le discours sur l’urgence peuvent conduire à des procédures de passation de marchés opaques et à des incitations dangereuses, comme on l’a vu dans certains pays durant la pandémie de Covid-19.

Pour une approche globale centrée sur les déterminants sociaux de la santé

Ce qui est peut-être le plus troublant, c’est la négligence de l’accord à l’égard des principes fondamentaux de santé publique. On met peu l’accent sur les solutions communautaires, le renforcement du système de santé (au-delà de la surveillance) ou les déterminants sociaux et les inégalités en matière de santé. Au lieu de cela, l’accord favorise un modèle technocratique descendant qui risque d’aliéner les populations qu’il vise à protéger.

L’adoption de l’accord de l’OMS sur les pandémies est annoncée comme une réalisation historique. Pourtant, l’histoire ne jugera pas cet accord par la fête autour de sa signature, mais par ses résultats, pour le moins incertains.

Cet accord repose sur des hypothèses contestées, impose des charges financières importantes et risque d’enraciner un modèle technocratique de gouvernance mondiale de la santé obnubilée par les enjeux sécuritaires. Il est très loin des principes fondamentaux de la santé publique : l’équité, l’engagement communautaire et le renforcement du système de santé.

Au tout début de la pandémie de Covid-19, nous avons appelé à un changement de paradigme. Nous avons plaidé en faveur d’une approche globale de la santé, qui s’attaquerait aux déterminants sociaux, afin d’aider les populations à réduire leurs facteurs de risque individuels et ainsi renforcer leur immunité naturelle. L’accord sur les pandémies vise exactement le contraire.

Sans une correction rapide – vers des approches plus inclusives, adaptées aux contextes et axées sur l’équité – cet accord pourrait devenir une nouvelle occasion manquée plutôt qu’une étape dans les progrès à réaliser, pourtant urgents.

The Conversation

Valery Ridde a reçu des financements de l’INSERM, l’ANR, Enabel, OMS, Banque Mondiale, ECHO, FRM.

Elisabeth Paul est membre de l’Independent Review Committee de l’Alliance Gavi, du collectif #Covidrationnel et ancienne membre du Technical Review Panel du Fonds mondial. Elle a en outre reçu des financements d’Enabel, l’Agence belge de développement.

J’ai une collaboration de recherche formelle et continue avec l’Organisation mondiale de la santé (OMS). J’ai été consultant invité par le sous-comité de l’article 20 sur le financement des pandémies dans le cadre de l’accord sur les pandémies à Genève. J’ai collaboré au rapport de l’OMS et de la Banque mondiale visant à estimer les coûts de la préparation à la pandémie pour le sommet du G20 en Indonésie.

ref. L’accord de l’OMS sur les pandémies se fait-il au détriment d’autres priorités de santé mondiale ? – https://theconversation.com/laccord-de-loms-sur-les-pandemies-se-fait-il-au-detriment-dautres-priorites-de-sante-mondiale-258237

À l’hôpital, la découverte d’une bactérie « mangeuse de plastique »

Source: – By Ronan McCarthy, Professor in Biomedical Sciences, Brunel University of London

Les plastiques sont omniprésents à l’hôpital. Amparo Garcia/Shutterstock.com

La bactérie Pseudomonas aeruginosa est particulièrement redoutée à l’hôpital, car elle s’attaque aux patients dont le système immunitaire est dégradé. De nouveaux travaux révèlent que ce dangereux microbe dispose d’un atout de taille pour assurer son succès : elle est capable de dégrader les plastiques pour s’en nourrir et mieux persister sur les surfaces qu’elle colonise.


La pollution plastique représente l’un des défis environnementaux majeurs de notre époque. Ces dernières années, des microbiologistes ont découvert des bactéries capables de dégrader divers types de plastique. Un jour, ces microbes « mangeurs de plastique » pourraient nous aider à faire diminuer les montagnes de déchets qui encombrent nos décharges et finissent dans les océans.

Si les microorganismes dotés de telles capacités suscitent l’espoir, ils peuvent aussi, dans d’autres contextes, être à l’origine de graves problèmes. C’est par exemple le cas de l’une des souches de la bactérie Pseudomonas aeruginosa que nous avons identifiée à l’hôpital, et qui est capable de dégrader certains matériels médicaux.

Des bactéries mangeuses de plastique à l’hôpital

Les plastiques sont largement utilisés en médecine, notamment pour les sutures (en particulier les sutures de type résorbable), les pansements et les implants. Nous nous sommes demandé s’il pouvait exister, dans les hôpitaux, des bactéries capables de dégrader les plastiques.

Pour le vérifier, nous avons analysé grâce à des outils informatiques les génomes de différents microbes pathogènes connus pour être présents en milieu hospitalier, afin de déterminer si certains d’entre eux renfermaient des enzymes proches de celles dont sont équipées les bactéries de l’environnement capables de s’attaquer au plastique. Nous avons eu la surprise de constater que certains microbes hospitaliers en sont effectivement dotés, ce qui suggère qu’ils pourraient être eux aussi capables de décomposer du plastique. Ce type d’enzymes a par exemple été identifié chez Pseudomonas aeruginosa, une bactérie opportuniste, autrement dit, qui devient dangereuse lorsque le système immunitaire est affaibli, responsable chaque année d’environ 559 000 décès dans le monde.

Un grand nombre des infections par ce microbe (qui se traduisent de diverses façons selon la localisation du site d’infection : infection des follicules pileux, de l’œil, de l’oreille, des poumons, de la circulation sanguine, des valves cardiaques…) sont contractées en milieu hospitalier. Les patients sous ventilation artificielle ou souffrant de plaies chirurgicales ou de brûlures sont particulièrement exposés aux infections à P. aeruginosa. Il en va de même pour ceux qui sont équipés de cathéters.

Après cette découverte, nous avons décidé de vérifier en laboratoire si cette bactérie était effectivement capable de « manger » du plastique.

Nous nous sommes concentrés sur une souche spécifique de cette bactérie, isolée chez un patient atteint d’une infection cutanée, et possédant un gène codant pour une enzyme dégradant le plastique. Nous avons découvert qu’elle pouvait non seulement pouvait décomposer le plastique, mais qu’elle l’utilisait comme source nutritive pour croître. Cette aptitude est conférée par une enzyme que nous avons nommée Pap1.

Des biofilms renforcés grâce au plastique dégradé

Classée parmi les pathogènes de priorité élevée par l’Organisation mondiale de la santé, P. aeruginosa est capable de former des biofilms (les cellules bactériennes adoptent une organisation en couche visqueuse, qui les protège du système immunitaire et des antibiotiques), ce qui complique grandement son traitement. Notre équipe avait démontré dans de précédents travaux que lorsque des bactéries environnementales forment de tels biofilms, elles peuvent dégrader le plastique de façon accélérée.

Nous nous sommes alors demandé si le fait de posséder une enzyme dégradant le plastique pouvait renforcer le pouvoir pathogène de P aeruginosa. Et nous avons découvert qu’effectivement, les bactéries dotées d’une telle enzyme présentaient une virulence accrue et formaient des biofilms plus volumineux.

Pour comprendre pourquoi le biofilm produit par P. aeruginosa était plus imposant en présence de plastique, nous en avons analysé la composition. Il en ressort que cette bactérie est capable d’incorporer le plastique dégradé au sein de cette couche visqueuse – ou « matrice », selon le terme scientifique – l’utilisant comme un « ciment », ce qui a pour effet de renforcer la communauté bactérienne formant le biofilm.

Implants orthopédiques, cathéters, implants dentaires, pansements « hydrogels » destinés aux brûlures… Les plastiques sont omniprésents dans les hôpitaux. Le fait qu’un pathogène tel que P. aeruginosa soit capable de persister durablement en milieu hospitalier pourrait-il s’expliquer par son aptitude à se nourrir de plastique ? Il s’agit, selon nous, d’une possibilité à envisager.

Un pathogène capable de dégrader le plastique de ces dispositifs, tel que celui décrit dans notre étude, pourrait constituer un problème majeur, compromettant l’efficacité du traitement et aggravant l’état du patient. Heureusement, des chercheurs travaillent déjà sur des solutions, notamment l’incorporation d’agents antimicrobiens dans les plastiques médicaux, afin d’empêcher les germes de s’en nourrir. En outre, maintenant que nous savons que certaines bactéries peuvent dégrader le plastique, il conviendra de tenir compte de cette donnée dans le choix des matériaux destinés à de futurs usages médicaux.

The Conversation

Ronan McCarthy est financé par le BBSRC, le NC3Rs, l’Académie des sciences médicales, Horizon 2020, la British Society for Antimicrobial Chemotherapy, Innovate UK, le NERC et le Medical Research Council. Il est également directeur de l’Antimicrobial Innovations Centre à l’université Brunel de Londres.

Rubén de Dios est financé par le BBSRC et le Medical Research Council.

ref. À l’hôpital, la découverte d’une bactérie « mangeuse de plastique » – https://theconversation.com/a-lhopital-la-decouverte-dune-bacterie-mangeuse-de-plastique-258150