Obésité : pourquoi les nouveaux médicaments ne sont pas des remèdes miracles

Source: The Conversation – in French – By Alexandre Duparc, Cardiologue, Université de Toulouse

Wegovy, Mounjaro, Saxenda… Les analogues de l’hormone intestinale glucagon-like peptide-1 (GLP-1) ont beaucoup fait parler d’eux ces dernières années, en raison de leur efficacité en matière de perte de poids. Mais ces médicaments ne suffiront pas à vaincre l’obésité, dont la forte progression est due à de nombreux facteurs.


La lutte contre l’obésité est l’un des enjeux majeurs de la médecine du XXIe siècle. Cette maladie chronique, aux nombreuses complications physiques, psychologiques et sociales a vu sa prévalence mondiale doubler entre 1990 et 2022, date à laquelle elle touche, selon l’Organisation mondiale de la santé (OMS), plus d’un milliard de personnes (880 millions d’adultes et 160 millions d’enfants.

La France n’est pas épargnée. On considère qu’environ 8 millions de Françaises et de Français sont actuellement concernés par l’obésité. Sa prévalence est passée de 8,5 % en 1997 à 15 % en 2012, puis 17 % en 2020 et cette tendance va se poursuivre dans les années à venir.

Récemment, de nouveaux médicaments – les analogues de l’hormone intestinale glucagon-like peptide-1 (GLP-1) – ont intégré l’arsenal thérapeutique, suscitant de nouveaux espoirs. Cependant, ils ne permettront pas à eux seuls de vaincre l’obésité. Explications.

De nouvelles molécules efficaces

L’OMS définit le surpoids et l’obésité comme une accumulation anormale ou excessive de graisse, présentant un risque pour la santé. Une personne est considérée comme en surpoids si son indice de masse corporelle (IMC) est supérieur à 25, et comme obèse si celui-ci dépasse 30.




À lire aussi :
Pourquoi il est possible d’être obèse sans être en surpoids


Historiquement, la prise en charge thérapeutique de cette maladie s’est structurée autour d’une approche pluridisciplinaire et globale alliant conseils d’hygiène de vie (activité physique, alimentation), suivi psychologique, prévention et traitement des complications. Pour les cas les plus sévères, le recours à la chirurgie bariatrique peut être envisagé.

Les thérapeutiques médicamenteuses sont longtemps restées en retrait. On se souvient de l’échec du dexfenfluramine (nom commercial Isomeride, autorisé en France de 1985 à 1997), puis du benfluorex (nom commercial Mediator, autorisé de 1976 à 2009). Tous deux ont été retirés du marché en raison de leurs effets secondaires aux conséquences dramatiques, notamment cardiaques (dégradation des valves cardiaques) et pulmonaires (hypertension artérielle pulmonaire). Le Mediator reste associé à l’un des plus retentissants scandales sanitaires des dernières décennies.

Depuis peu, une nouvelle classe de molécules est à la disposition du corps médical pour lutter contre l’obésité : les analogues du peptide glucagon-like 1 (GLP-1). Cette petite hormone permet d’augmenter la production d’insuline, et donc de mieux absorber le glucose. Elle a un effet central bénéfique sur la satiété et retarde la vidange gastrique (le vidage de l’estomac). Parmi ces nouveaux médicaments figurent le liraglutide (commercialisé sous les noms Saxenda pour l’obésité ou Victoza pour le diabète), le sémaglutide (noms commerciaux Wegovy pour l’obésité ou Ozempic pour le diabète) et le tirzépatide (Mounjaro).

Prescrites sous forme d’injections hebdomadaires, ces molécules étaient déjà indiquées en routine dans la prise en charge du diabète de type 2. Plusieurs essais cliniques de grande envergure chez les sujets obèses ou en surpoids mais indemnes de diabète ont démontré l’efficacité de ces médicaments en complément d’une prise en charge alliant diététique et activité physique. Le bénéfice semble dépasser la seule perte de poids, puisqu’on constate également une amélioration de certains paramètres cardiovasculaires et métaboliques.

L’autorisation de mise sur le marché permet actuellement de les prescrire en complément d’un régime hypocalorique et d’une augmentation de l’activité physique, chez l’adulte ayant un indice de masse corporelle supérieur à 30 kg/m2 ou supérieur à 27 en cas de co-morbidité liée au poids. Toutefois, l’Assurance maladie ne les rembourse pas.

Ces traitements, qui apparaissent comme simples, efficaces et moins invasifs que la chirurgie, ont soulevé un enthousiasme légitime. Il est cependant illusoire d’imaginer que le combat contre l’obésité puisse se réduire à l’injection hebdomadaire d’un médicament. En effet, les causes de l’obésité et du surpoids sont multifactorielles, et dépassent la problématique du seul déséquilibre entre apports et dépenses caloriques.

Obésité, surpoids : des multiples causes

Les travaux de recherche ont révélé que les risques de surpoids et d’obésité dépendent de plusieurs déterminants : des facteurs génétiques (et épigénétiques), endocriniens (autrement dit, hormonaux), médicamenteux (certains traitements augmentent le risque), psychologiques, sociologiques ou encore environnementaux.

Concernant ce dernier point, on sait aujourd’hui que de nombreuses substances omniprésentes dans l’environnement sont classées comme obésogènes. Elles peuvent perturber notre métabolisme hormonal (perturbateurs endocriniens), modifier notre microbiote intestinal, ou agir à l’échelle génétique et épigénétique.

Dans ce contexte, le concept d’exposome, défini comme « l’ensemble des expositions environnementales au cours de la vie, y compris les facteurs liés au mode de vie, dès la période prénatale », prend tout son sens.




À lire aussi :
Épigénétique, inactivation du chromosome X et santé des femmes : conversation avec Edith Heard


Dans certains cas, les effets des déterminants impliqués dans l’obésité peuvent rester latents pendant de nombreuses années, et les conséquences ne s’exprimer que tardivement, voire aux générations suivantes. Le diéthylstilbestrol (plus connu sous son nom commercial Distilbène) est un exemple emblématique de ces effets métaboliques transgénérationnels, non seulement en matière de surpoids et d’obésité, mais également en ce qui concerne le risque de cancers.

C’est pour rendre compte de ces phénomènes causaux que le concept de developmental origins of health and disease (DOHaD) – origines développementales de la santé et des maladies – a été forgé.

Une fois exposée la complexité de l’obésité, il apparaît donc évident que les cibles sur lesquelles agissent les analogues du GLP-1 (production d’insuline, satiété) sont loin d’être les seules impliquées dans la maladie.

Par ailleurs, on constate que les sources d’obésité ont, pour la plupart, des conséquences négatives sur la santé qui vont au-delà de la seule prise de poids. Ainsi, la consommation excessive de sucres raffinés, d’aliments ultratransformés, de viande rouge, de charcuterie, le manque de fibres, l’exposition à des toxiques, ou encore la sédentarité sont autant de facteurs de risques de santé dégradée.

Des molécules qui ne font pas de miracles

Les analogues du GLP-1 ne peuvent pas « guérir » l’obésité. Ce n’est d’ailleurs pas ce que prétendent les auteurs des études qui en ont testé l’efficacité.

Selon les résultats de l’étude STEP3, la perte de poids sous sémaglutide est de 15 % après 68 semaines de traitement (contre 5 % dans le groupe placebo). Si l’on considère le profil « type » des patients inclus dans cette étude, soit des individus ayant un IMC moyen à 37 (ce qui correspond à un poids de 100 kg pour une taille de 1m65), une perte de poids de 15 % les mènera à un IMC à 31. Ils passeront alors d’une obésité sévère à une obésité modérée. Si le gain en termes de santé est considérable, ces sujets présenteront encore un surrisque médical significatif.

Il convient également de se questionner sur la tolérance du traitement, ainsi que sur son observance chez des patients dont les ordonnances peuvent être très longues du fait des polypathologies. Par ailleurs, le maintien de l’efficacité au long cours reste à déterminer, a fortiori si l’ensemble des facteurs causaux n’est pas éradiqué.

Se posent aussi les problématiques de la prise de poids à l’arrêt du traitement, ainsi que de la sarcopénie, c’est-à-dire la perte musculaire, qualitative ou quantitative. En effet, une perte de poids ne se résume jamais seulement à une perte de masse graisseuse, mais s’accompagne également d’une perte de masse maigre, notamment musculaire. Ce phénomène pourrait être prévenu ou compensé grâce à l’exercice physique.

L’importance de la prévention

À ce jour, les analogues du GLP-1 sont envisagés comme traitement de l’obésité une fois que celle-ci est installée. Il s’agit donc d’une approche curative. Les articles scientifiques partent du principe que les mesures de préventions, dites « hygiénodiététiques » sont insuffisantes alors que les modalités d’élaboration de ces mesures ne sont que rarement questionnées, pas plus que la possibilité de s’attaquer aux nombreux facteurs qui entravent leur mise en pratique.

Les conseils adressés au grand public sont en effet essentiellement diffusés sous forme de messages ou d’injonctions à modifier les comportements individuels. Ils font donc implicitement reposer la responsabilité sur chacun et chacune, et sont, en ce sens, potentiellement culpabilisants. Parallèlement, ils passent le plus souvent sous silence les autres facteurs causaux qui structurent notre exposition globale.

Parmi les facteurs qui entravent la prévention, citons :

  • la facilité d’accès à des aliments favorisant l’obésité (sucrés, salés, ultratransformés), bon marché, vantés par la publicité, peu régulés et peu taxés alors que leur caractère néfaste est avéré ;

  • l’obstruction à la généralisation d’outils pourtant largement validés tels que le Nutri-Score, illustrant le fait que la question sanitaire passe généralement après les intérêts économiques, tant à l’échelle française qu’européenne ;

  • le contexte environnemental défavorable, exposant les individus à de multiples polluants. Nombre d’entre eux favorisent l’obésité, notamment via des mécanismes hormonaux ;

  • les manquements des politiques d’aménagement du territoire qui devraient promouvoir les mobilités actives et l’accès aux infrastructures d’activités physiques et sportives sur l’ensemble du territoire (urbain, semi-urbain et rural) et lutter ainsi contre la sédentarité et le manque d’activité physique ;

  • l’impact des déterminants socio-économiques ou psychologiques qui rendent difficilement applicables les comportements vertueux en termes d’alimentation et d’activité physique.

Rappelons le poids des inégalités (socio-économiques, de genre, ethno-raciales, territoriales…) dans la santé en général et particulièrement dans les questions touchant à l’obésité . En France, 17 % des individus dont le niveau de vie est inférieur au premier quart de la distribution sont obèses contre 10 % pour ceux dont le niveau de vie appartient au quartile de niveau de vie supérieur.




À lire aussi :
Obésité et « manque de volonté » : les préjugés négatifs ont la vie dure


L’augmentation de la pauvreté, de la précarité et le creusement des inégalités sociales sont à ce titre inquiétants, car ils ne peuvent que dégrader les conditions de santé des populations les plus défavorisées.

Prévenir coûterait moins cher que guérir

Terminons sur un point impossible à ne pas considérer : celui du coût du traitement par analogues du GLP-1, évalué à environ 300 euros par mois et par patient.

Sans remboursement, ce traitement ne sera accessible qu’aux plus aisés. S’il est pris en charge par l’Assurance maladie, le coût potentiel apparaît comme vertigineux. L’OMS prévoit en effet que d’ici 2030, près de 30 % de la population française pourrait être concernée par l’obésité.

Conclusion, la communauté des soignants, associée à celle des patients, ne peut compter exagérément sur cette classe de médicaments. Pour lutter contre l’obésité, il faut continuer à valoriser une prise en charge pluridisciplinaire, alliant des savoirs académiques, issus de différentes disciplines scientifiques, avec des savoirs souvent qualifiés d’« expérientiels » : ceux des patients, des professionnels de l’éducation et de la prévention en santé, des décideurs en matière de politiques de santé, etc.

Cette approche est certes moins spectaculaire et moins facilement médiatisable que les annonces tonitruantes qui accompagnent les découvertes de thérapies innovantes, mais elle est indispensable. La prévention ne s’oppose pas au traitement curatif : elle le précède, et l’accompagne.

On ne peut espérer diminuer significativement et durablement la prévalence de l’obésité qu’en ciblant l’ensemble des facteurs qui la sous-tendent, individuels, sociaux et environnementaux. Cela implique l’élaboration et la mise en œuvre de politiques de santé publique larges, ambitieuses et respectueuses de la démocratie sanitaire.

Il faut avoir conscience que cela ira vraisemblablement à l’encontre d’intérêts économiques de court terme. Mais la santé publique en vaut sans aucun doute la chandelle.

The Conversation

Alexandre Duparc n’a pas de conflit d’intérêt financier à déclarer. Il est membre de L’Atecopol et de Scientifiques en Rébellion

Philippe Terral a reçu des financements de l’ANR, l’INCa, l’IRESP, la Fondation de France.

Tania Pacheff est membre de l’association “no plastic in my food” (ex-Cantine sans plastique France)

Olivier Lairez ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Obésité : pourquoi les nouveaux médicaments ne sont pas des remèdes miracles – https://theconversation.com/obesite-pourquoi-les-nouveaux-medicaments-ne-sont-pas-des-remedes-miracles-259846

Les vaccins à ARNm anti-Covid 19 vont-ils révolutionner le traitement du cancer ?

Source: The Conversation – in French – By Adam Grippin, Physician Scientist in Cancer Immunotherapy, The University of Texas MD Anderson Cancer Center

Avec un peu d’aide, les cellules immunitaires peuvent devenir de puissantes destructrices de tumeurs. Steve Gschmeissner/Science Photo Library/Getty Images

Les vaccins contre le Covid-19 à base d’ARN messager, qui ont sauvé 2,5 millions de vies dans le monde pendant la pandémie, pourraient aussi stimuler le système immunitaire, aidant ainsi à combattre le cancer. C’est la conclusion, aussi inattendue que marquante, d’une nouvelle étude publiée dans la revue Nature.


En 2016, notre équipe, dirigée par le pédiatre oncologue Elias Sayour, développait des vaccins à ARN messager (ARNm) pour tenter de soigner des patients atteints de tumeurs cérébrales. Au cours de ces travaux, nous avons découvert que l’ARNm était capable d’entraîner le système immunitaire à détruire les tumeurs. Et ce, même lorsque ledit ARNm n’a aucun lien avec le cancer.

Partant de ce constat, nous avons émis l’hypothèse que les vaccins à ARNm conçus pour cibler le SARS-CoV-2, le virus responsable du Covid-19, pourraient également présenter des effets antitumoraux.

Renforcer les capacités naturelles de l’organisme

Afin de le vérifier, nous avons examiné les résultats cliniques de plus de 1 000 patients atteints de mélanome ou de cancer du poumon à un stade avancé, auxquels avait été prescrit un traitement par inhibiteurs de points de contrôle immunitaire. Cette prise en charge fait partie des immunothérapies : son objectif est de renforcer les capacités naturelles de l’organisme à éliminer les cellules cancéreuses.

Couramment utilisée par les médecins, l’approche basée sur l’emploi d’inhibiteurs de point de contrôle consiste à bloquer une protéine produite et utilisée par les cellules tumorales. Ladite protéine est employée par ces dernières « pour éteindre » les cellules immunitaires, et ainsi éviter d’être repérées et éliminées par les défenses de l’organisme. Bloquer cette protéine tumorale permet de remettre les cellules cancéreuses sur le radar du système immunitaire.

Nos résultats ont révélé que, de façon remarquable, les patients qui ont reçu le vaccin anti-Covid-19 à ARNm des laboratoires Pfizer ou Moderna dans les cent jours qui ont suivi le début de l’immunothérapie avaient plus de deux fois plus de chances d’être en vie au bout de trois ans que ceux qui n’avaient reçu aucun des deux vaccins.

Fait surprenant, les patients porteurs de tumeurs connues pour répondre généralement mal à l’immunothérapie ont eux aussi tiré un bénéfice très important de cette vaccination : leur taux de survie globale à trois ans s’est nettement amélioré, puisqu’il a été multiplié par cinq.

Ce lien entre administration d’un vaccin anti-Covid-19 à ARNm et amélioration de la survie est resté robuste même après ajustement pour des facteurs tels que la gravité de la maladie et la prise en compte d’éventuelles comorbidités (des pathologies ou troubles présents en même temps que la maladie, ndlr).

Pour comprendre le mécanisme sous-jacent à ces résultats, nous avons eu recours à des modèles animaux. Ces travaux nous ont permis de découvrir que les vaccins anti-Covid-19 à ARNm agissent comme un signal d’alarme. Ils déclenchent la reconnaissance et la destruction des cellules tumorales par le système immunitaire, contrecarrant ainsi la capacité du cancer à désactiver les cellules immunitaires.

Lorsque de tels vaccins sont associés à une immunothérapie par inhibiteurs de points de contrôle, les deux traitements se coordonnent, ce qui libère contre les cellules cancéreuses toute la puissance du système immunitaire.

Le pédiatre oncologue Elias Sayour (University of Florida Health), qui a dirigé ces travaux, explique que des vaccins à ARNm non spécifiques du cancer d’un patient peuvent « réveiller le “géant endormi” qu’est le système immunitaire pour qu’il lutte contre le cancer » (vidéo en anglais).

En quoi est-ce important ?

Au cours de la dernière décennie, l’immunothérapie par inhibiteurs de points de contrôle a révolutionné le traitement du cancer. Elle a permis de guérir de nombreux patients auparavant considérés comme incurables. Toutefois, ces thérapies restent inefficaces chez les patients présentant des « tumeurs froides » (peu infiltrées par les cellules immunitaires, ndlr), qui parviennent à échapper à la détection immunitaire.

Nos observations laissent penser que les vaccins à ARNm pourraient fournir l’étincelle nécessaire pour transformer ces « tumeurs froides » en « tumeurs chaudes » (qui contiennent des lymphocytes T et répondent mieux aux immunothérapies, ndlr). Nous sommes en train de monter un essai clinique pour confirmer ces résultats. Si ses conclusions sont positives, nous espérons que le recours à cette intervention, largement disponible et peu coûteuse, permettra à des millions de patients de profiter des bénéfices de l’immunothérapie.

D’innombrables flacons transparents étiquetés « CANCER mRNA vaccine 10 ML » posés sur une table
L’association de l’immunothérapie et des vaccins à ARNm pourrait permettre à un plus grand nombre de patients de percevoir les bénéfices de cette prise en charge.
Thom Leach/Science Photo Library/Getty Images

D’autres travaux de recherche sont en cours

Contrairement aux vaccins destinés à lutter contre les maladies infectieuses, qui sont utilisés pour prévenir une infection, les vaccins thérapeutiques contre le cancer sont employés en vue d’entraîner le système immunitaire des patients à mieux combattre les tumeurs.

Comme de nombreux autres scientifiques, nous travaillons activement à concevoir des vaccins à ARNm personnalisés destinés aux patients atteints de cancer. Pour y parvenir, nous prélevons un petit échantillon de la tumeur d’un patient, puis nous cherchons à prédire quelles protéines tumorales constitueraient, pour cet individu, les meilleures cibles pour le vaccin en question, grâce à des algorithmes d’apprentissage automatique. Toutefois, cette approche peut s’avérer coûteuse et les vaccins résultants, complexes à fabriquer.

A contrario, les vaccins à ARNm anti-Covid-19 n’ont pas besoin d’être personnalisés. Par ailleurs, ils sont déjà disponibles dans le monde entier, à faible coût ou gratuitement, et pourraient être administrés à tout moment au cours du traitement d’un patient.

Nos résultats, qui indiquent que ces vaccins possèdent d’importants effets antitumoraux, suggèrent que l’on pourrait aussi les utiliser pour contribuer à étendre à tous les patients les bénéfices anticancéreux des vaccins à ARNm. Dans cette optique, nous nous préparons à tester cette stratégie thérapeutique dans le cadre d’un essai clinique national.

Perspectives

L’essai clinique que nous allons mener concernera des personnes atteintes d’un cancer du poumon. Les participants recevant un inhibiteur de point de contrôle immunitaire seront répartis aléatoirement dans deux groupes. Les membres de l’un des groupes recevront un vaccin anti-Covid-19 à ARNm au cours de leur traitement, tandis que ceux de l’autre n’en recevront pas.

Cette étude nous permettra de déterminer si les vaccins à ARNm contre la Covid-19 devraient être inclus dans les protocoles de soins standards prodigués aux personnes qui reçoivent un inhibiteur de point de contrôle immunitaire. En définitive, nous espérons que cette approche aidera de nombreux patients traités par immunothérapie, en particulier ceux qui, aujourd’hui, disposent de peu d’options thérapeutiques efficaces.

Ce travail illustre comment un outil né d’une pandémie mondiale pourrait se transformer en une nouvelle arme pour lutter contre le cancer, étendant rapidement à des millions de patients les avantages des traitements existants. En exploitant un vaccin familier d’une nouvelle manière, nous espérons que des patients atteints du cancer et jusqu’à présent laissés pour compte pourront avoir accès aux bénéfices de l’immunothérapie.

The Conversation

Adam Grippin reçoit des financements du National Cancer Institute (NCI), de l’American Brain Tumor Association et de la Radiological Society of North America. Il est l’inventeur de brevets liés aux thérapies à base d’ARNm qui font l’objet d’une option de licence par iOncology. Il est actuellement employé par le MD Anderson Cancer Center et consultant pour Sift Biosciences.

Christiano Marconi travaille pour l’université de Floride. Il reçoit des fonds du centre de cancérologie UF Health Cancer Center.

ref. Les vaccins à ARNm anti-Covid 19 vont-ils révolutionner le traitement du cancer ? – https://theconversation.com/les-vaccins-a-arnm-anti-covid-19-vont-ils-revolutionner-le-traitement-du-cancer-268419

La grande histoire de la Sécurité sociale de 1945 à nos jours

Source: The Conversation – in French – By Léo Rosell, Ater, Université Paris Dauphine – PSL

Pour les 70 ans de la Sécurité sociale en 2015, un timbre commémoratif réunissait Pierre Laroque, premier directeur général de la « Sécu » (à gauche de l’image), et Ambroise Croizat, ministre communiste du travail et de la sécurité sociale (à droite). Wikitimbres

Créée en 1945, la Sécurité sociale répondait à un objectif ambitieux : mettre les Français à l’abri du besoin et instaurer un ordre social nouveau. Fruit d’un compromis entre l’État et le mouvement ouvrier, cette institution a profondément façonné la solidarité sociale en France. Retour sur l’histoire d’un système révolutionnaire, aujourd’hui confronté à des défis de gouvernance et de légitimité.

Cet article est publié en partenariat avec Mermoz, la revue du Cercle des économistes dont le dont le numéro 8 a pour thème « Notre modèle social, un chef-d’œuvre en péril »..


La Sécurité sociale fête ses quatre-vingts ans. Née en 1945, dans un pays où tout est à reconstruire, cette institution sociale affiche alors l’ambition de créer un « ordre social nouveau ». La Sécurité sociale vise à mettre l’ensemble de la population « à l’abri du besoin » et à la libérer de « la peur du lendemain ».

À la Libération, la solidarité en armes exprimée dans la Résistance devait, en quelque sorte, se transcrire dans une solidarité sociale. Cette idée caractérise le compromis institutionnel à l’origine de la Sécurité sociale, entre un État social émancipateur et un mouvement ouvrier puissant et organisé. Dans les décennies suivantes, la démocratie sociale originelle disparaît progressivement, d’abord au profit d’un paritarisme plus favorable au patronat, puis dans le sens d’une gouvernance reprise en main par l’État.

Une longue histoire

Commençons par rappeler que tout ne s’est pas créé en 1945. Le plan français de sécurité sociale est le fruit d’un processus qui s’inscrit dans le temps long, et l’on peut en faire remonter les origines philosophiques à la Révolution française, un moment important de « laïcisation de la charité religieuse » qui avait cours depuis le Moyen Âge et sous l’Ancien Régime. La Déclaration des droits de l’homme et du citoyen de 1793 pose ainsi pour la première fois le principe selon lequel « les secours publics sont une dette sacrée » de la nation. Après la chute des robespierristes, qui portaient cette aspiration, les expérimentations en matière de secours publics disparaissent.

Commence alors un XIXe siècle marqué par le refus de l’État d’intervenir directement dans les affaires économiques et sociales, mais aussi par le retour de la charité assistancielle. En parallèle, deux traditions se développent en matière de protection sociale : d’une part, une conception républicaine, qui revendique une solidarité nationale, et d’autre part, une tradition ouvrière, qui repose sur l’entraide collective au sein des caisses de secours mutuels et qui est attachée à une gestion par les travailleurs eux-mêmes. La fin du siècle est quant à elle marquée par le développement d’une philosophie, le solidarisme, inspirée de l’œuvre de Léon Bourgeois. Ce courant de pensée postule que la société doit être organisée autour de la solidarité nationale. Il inspire la « nébuleuse réformatrice » à l’origine de l’État social, à travers les premières lois sur les accidents du travail en 1898, sur les retraites ouvrières et paysannes en 1910 ou encore sur les assurances sociales en 1928-1930.

Mais ces anciennes législations sont imparfaites, car elles ne couvrent que les salariés les plus pauvres, elles dispensent des prestations jugées insuffisantes et on y adhère selon le principe de la « liberté d’affiliation ». Cela signifie que le système compte une multiplicité de caisses, d’origine patronale, mutualiste, confessionnelle, syndicale ou départementale, dont l’efficacité est inégale. Compte tenu de ce bilan critique, le programme du Conseil national de la résistance (CNR), adopté dans la clandestinité le 15 mars 1944, entend réformer cette ancienne législation, à travers « un plan complet de sécurité sociale ». Le Gouvernement provisoire de la République française va donc s’y atteler, une fois le territoire national libéré.

Une réforme révolutionnaire

Ce contexte a permis la réalisation d’une « réforme révolutionnaire ». La Sécurité sociale repose sur des mesures prises par le pouvoir politique : elle s’est construite à partir d’ordonnances, comme celles du 4 et du 19 octobre 1945 portant création de la Sécurité sociale, sur des lois, comme celle du 22 mai 1946 portant généralisation de la Sécurité sociale, ou encore sur de nombreux décrets. En revanche, elle n’en est pas moins révolutionnaire par sa portée, par son ambition, celle de créer un « ordre social nouveau », pour reprendre une expression du haut fonctionnaire Pierre Laroque, elle-même déjà présente chez Jean Jaurès. Le 23 mars 1945, Laroque proclame :

« C’est une révolution qu’il faut faire et c’est une révolution que nous ferons ! »




À lire aussi :
Mesurer le non-recours pour éviter de dépenser « un pognon de dingue »


Si le rôle de l’institution est incarné par Pierre Laroque, premier directeur de la Sécurité sociale, celui du mouvement ouvrier l’est par Ambroise Croizat. Ancien ouvrier dès l’âge de treize ans, dirigeant de la Fédération des métaux de la Confédération générale du travail (CGT) et député communiste sous le Front populaire, Ambroise Croizat devient président de la commission du travail et des affaires sociales de l’Assemblée consultative provisoire à la Libération, puis ministre du travail et de la sécurité sociale, du 21 novembre 1945 au 4 mai 1947.

Avec Pierre Laroque, ils mettent en œuvre le régime général de la Sécurité sociale, qui repose sur quatre principes fondamentaux. Tout d’abord, il doit s’agir d’un régime universel : l’ensemble de la population, de la naissance à la mort, doit bénéficier de la Sécurité sociale. De plus, le millier de caisses qui existaient du temps des assurances sociales est remplacé par un système obligatoire reposant sur une seule caisse primaire par département, une caisse régionale et une caisse nationale, prenant en charge l’ensemble des risques sociaux.

Le financement par la cotisation sociale constitue le troisième principe. Renvoyant à la formule « de chacun selon ses moyens à chacun selon ses besoins », ce mode de financement par répartition permet au budget de la Sécurité sociale d’être autonome et donc de ne pas dépendre des arbitrages budgétaires de l’État. Enfin, le quatrième principe, sans doute le plus original, renvoie à la démocratie sociale : les caisses de la Sécurité sociale sont gérées « par les intéressés eux-mêmes ».

Des oppositions diverses

De nombreuses oppositions vont tenter de retarder, voire d’empêcher, cette réalisation. Dans les milieux patronaux d’abord, hostiles vis-à-vis de la cotisation patronale, de la caisse unique et de la gestion des caisses par les travailleurs. La Mutualité et les assurances privées craignent de perdre le rôle qu’elles avaient dans les anciennes assurances sociales. Les médecins libéraux ont peur d’être « fonctionnarisés » et de perdre leur liberté d’exercice, tandis que les cadres n’ont pas envie d’être associés au même régime que les salariés. Face à ces obstacles, Croizat et Laroque font preuve de pragmatisme, en donnant partiellement satisfaction à la Mutualité, ou encore aux cadres, avec la création d’un régime complémentaire, l’Agirc. Les artisans, commerçants, professions libérales et agriculteurs obtiennent la mise en place de régimes particuliers.

Entre 1945-1967, la gestion des caisses de la Sécurité sociale est donc organisée selon le principe de la démocratie sociale, en reconnaissant un pouvoir syndical fort. En effet, les conseils d’administration des caisses sont composés à 75 % par des représentants des salariés et à 25 % par ceux du patronat. Ces administrateurs sont d’abord désignés selon le principe de la représentativité syndicale. Le syndicat chrétien de la CFTC refuse alors de participer à la mise en œuvre du régime général car il perd la gestion de ses anciennes caisses confessionnelles, mais aussi parce qu’il craint de subir l’hégémonie de la CGT. Les militants cégétistes disposent de fait d’un quasi-monopole dans la mise en œuvre du régime général sur le terrain.

La Sécurité sociale à la française n’est donc pas un système étatique. Sur le plan juridique, les caisses primaires et régionales sont de droit privé, tandis que la caisse nationale est un établissement public à caractère administratif. L’État, à travers le ministère du travail et de la sécurité sociale – et la direction de la Sécurité sociale qui en dépend –, voit son pouvoir limité à certaines prérogatives, qui restent importantes : en plus du pouvoir normatif, qui s’exprime par la fixation du taux de cotisation et du montant des prestations, l’État dispose aussi d’une fonction de contrôle sur l’activité des caisses.

Une gestion ouvrière fragilisée

Au cours de l’année 1947, le changement de contexte politique a des conséquences directes sur la Sécurité sociale. Le 24 avril 1947, des « élections sociales » sont instaurées pour renforcer sa dimension démocratique et donnent lieu à une véritable campagne politique. La CGT obtient environ 60 % des voix, la CFTC 26 % et la Mutualité 10 %. Le 4 mai, les communistes sont exclus du gouvernement. L’entrée dans la logique de la guerre froide fragilise la gestion ouvrière de la Sécurité sociale, en particulier à la suite de la scission syndicale entre la CGT et Force ouvrière.

En 1958, l’instauration de la Ve République permet à l’État d’intervenir plus directement. Les ordonnances Debré instaurent la nomination des directeurs de caisses par l’exécutif, et non plus leur élection par les conseils d’administration. En 1960, les pouvoirs des directeurs augmentent, au détriment de ceux des conseils d’administration. Au cours de la même année, le corps de l’Inspection générale de la Sécurité sociale est créé, de même que le Centre d’études supérieures de la Sécurité sociale – devenue l’EN3S en 2004 –, participant à la professionnalisation du personnel des caisses.

À partir de 1967, la démocratie sociale disparaît, au profit d’un nouveau principe, le paritarisme. Instauré par les ordonnances Jeanneney, le paritarisme repose en théorie sur un partage du pouvoir entre partenaires sociaux, à parts égales entre syndicats de salariés et patrons. Dans les faits, ce nouveau mode de gestion renforce le pouvoir du patronat, qui joue de la division syndicale. De même, les élections sociales sont supprimées, et la caisse unique est divisée en quatre branches autonomes, chacune présidée par un haut fonctionnaire.

Tout se passe comme si le compromis de 1945 entre l’État social et les syndicats ouvriers s’était renversé au profit d’une nouvelle alliance entre la « technocratie » et le patronat. En tout cas, l’ensemble de ces mesures répond aux revendications du Conseil national du patronat français (CNPF).

La crise de l’État-providence

Les années 1980-1990 voient s’imposer un autre discours, celui sur la « crise de l’État-providence ». Un État réformateur, avec à sa tête le socialiste François Mitterrand depuis 1981, réalise certes la promesse d’une retraite à 60 ans et celle de restaurer les élections sociales. Mais l’affaiblissement des syndicats et le « tournant de la rigueur » de 1983 consacrent l’objectif de réduction des dépenses publiques, partagé par tous les gouvernements successifs.

L’instauration de la contribution sociale généralisée (CSG) en 1990-1991 participe quant à elle de la fiscalisation du financement de la Sécurité sociale, au détriment de la cotisation sociale, ce qui justifie politiquement une intervention accrue de l’État.

Une parlementarisation de la gestion de la Sécurité sociale se développe ainsi entre 1996 et 2004. Le rôle du Parlement et l’influence des directives européennes en matière budgétaire et réglementaire se traduisent par plusieurs mesures prises en 1996 : l’instauration par ordonnances d’une loi de financement de la Sécurité sociale votée chaque année, la suppression définitive des élections sociales et la création de deux outils de gouvernance budgétaire, l’objectif national des dépenses de l’Assurance maladie (Ondam) et la Caisse d’amortissement de la dette sociale (Cades). En 2000, c’est au tour du Conseil d’orientation des retraites (COR) d’être créé.

France Inter, 2025.

Néomanagement et logique comptable

Enfin, depuis 2004, s’est imposée une gouvernance managériale, fortement inspirée du « nouveau management public ». Cette évolution est symbolisée par la réforme de l’assurance-maladie et celle de l’hôpital public, avec l’instauration de la tarification à l’activité (T2A). Les différentes branches sont désormais gérées par des directeurs généraux aux pouvoirs élargis, tandis que des Conventions d’objectifs et de gestion (COG) sont contractées tous les quatre ans entre l’État et les branches, puis déclinées au niveau des caisses.

Une logique comptable de définition d’objectifs et d’évaluation des résultats s’impose donc devant l’exigence de répondre à des besoins et de garantir l’accès aux droits des bénéficiaires. Cette gouvernance managériale parvient parfois à mener des réformes impopulaires, comme la réforme des retraites de 2023 passée via l’usage de l’article 49.3 de la Constitution et le détournement d’un PLFSS rectificatif. Néanmoins, se pose dès lors la question du consentement populaire à ce mode de gestion, qui fragilise une institution centrale du pacte social républicain.

Les commémorations du 80e anniversaire de la Sécurité sociale ont ainsi été propices à la remise en cause d’une gouvernance, dénoncée comme étant antidémocratique, y compris parfois au sein même des élites de l’État social. Certains appellent à renouer avec les ambitions portées, en son temps, par Pierre Laroque, leur illustre prédécesseur, notamment en termes de démocratie sociale.


Cet article est publié en partenariat avec Mermoz, la revue du Cercle des économistes dont le numéro 8 a pour objet « Notre modèle social, un chef-d’œuvre en péril ». Vous pourrez y lire d’autres contributions.

Le titre et les intertitres sont de la rédaction de The Conversation France.

The Conversation

Léo Rosell ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La grande histoire de la Sécurité sociale de 1945 à nos jours – https://theconversation.com/la-grande-histoire-de-la-securite-sociale-de-1945-a-nos-jours-268673

Crise au Mali: ce que révèle le blocus djihadiste de Bamako

Source: The Conversation – in French – By Olivier Walther, Associate Professor in Geography, University of Florida

Une coalition de groupes djihadistes affiliés à Al-Qaïda a assiégé la capitale du Mali. Depuis plus d’un mois, ils attaquent les convois d’approvisionnement de ce pays enclavé d’Afrique de l’Ouest. Ces attaques ciblent notamment ceux qui approvisionnent Bamako en carburant. Cette stratégie vise à exercer une pression considérable sur la junte militaire qui dirige le pays depuis cinq ans.

La situation sécuritaire s’est tellement détériorée que les États-Unis ont demandé à tous leurs ressortissants de quitter immédiatement le pays. Après plus de 10 ans d’insurrection armée, le blocus djihadiste conduira-t-il à la chute de la capitale ? The Conversation Africa s’est entretenu avec des chercheurs du Sahel Research Group de l’université de Floride.


Quelle est la situation actuelle à Bamako ?

Les attaques contre les infrastructures de transport et les convois circulant entre les centres urbains au Sahel ont considérablement augmenté depuis la fin des années 2010. Nos recherches montrent que certains axes routiers de transport au Mali sont particulièrement ciblés par les groupes djihadistes. L’un des plus importants relie Bamako à Gao, un centre économique stratégique où se trouve une importante base militaire. Ces attaques s’accompagnent du blocus d’autres centres urbains tels que Farabougou, Tombouctou, Kayes et, plus récemment, Bamako.

Bamako, située dans le sud-ouest du pays, a déjà été victime d’attaques djihadistes, notamment en 2015 et en 2024. Mais il s’agissait alors d’attaques terroristes limitées. Le blocus actuel reflète une ambition et une capacité bien plus grandes de la part des djihadistes. En juillet, des attaques coordonnées dans le sud-ouest du Mali ont marqué une nouvelle étape dans l’expansion vers le sud du Jama’at Nusrat al-Islam wal-Muslimin.

Depuis plusieurs semaines, Bamako est isolée de ses sources d’approvisionnement extérieures, en particulier en carburant, qui doit être importé depuis ses voisins côtiers. Le gouvernement a récemment été contraint de déclarer la fermeture des écoles et des universités en raison du manque de moyens de transport.

Pourquoi Bamako ?

Bamako est de loin la ville la plus importante du Mali en termes de population, d’économie et de politique. Sa chute aurait des conséquences catastrophiques pour l’avenir du pays.

Avec une population de 4,24 millions d’habitants en 2025, selon Africapolis, l’agglomération urbaine de Bamako est plus de dix fois plus grande que la deuxième ville du pays, Sikasso. L’importance de Bamako n’est pas seulement démographique. Toutes les fonctions exécutives y sont concentrées, notamment les ministères, la télévision nationale et l’aéroport international.

Bamako représente également une part importante de l’économie nationale. Nos études suggèrent que plus de 90 % des entreprises formelles sont situées dans la zone métropolitaine de Bamako.

La prise de Bamako rendrait inutile la conquête de territoires plus vastes et pourrait décider du sort du conflit malien. Le contrôle d’une capitale sert souvent de critère de facto pour la reconnaissance politique. Par exemple, bien qu’il ne commandait guère plus que Kinshasa dans ses dernières années, Mobutu Sese Seko a continué d’être reconnu comme le dirigeant du Zaïre jusqu’à ce que Laurent-Désiré Kabila s’empare de la capitale en mai 1997.

La prise de la capitale a également été une étape centrale dans la résolution de nombreuses guerres civiles africaines. En 2011, la prise d’Abidjan par les forces d’Alassane Ouattara, de la France et des Nations unies a mis fin à la deuxième guerre civile ivoirienne.

La prise d’une capitale africaine par des djihadistes, plutôt que par des rebelles conventionnels, déclencherait-elle une intervention extérieure des puissances occidentales ou africaines ? Cela semble peu probable. À l’exception de ses partenaires de l’Alliance des États du Sahel, le gouvernement malien est très isolé sur le plan diplomatique.

Une nouvelle intervention française paraît hautement improbable, après le retrait forcé de Paris et la montée du sentiment anti-français dans la région. Quant aux États-Unis, ils privilégient désormais les relations transactionnelles à de nouvelles interventions militaires, surtout en Afrique.

La rupture du Mali avec la Communauté économique des États de l’Afrique de l’Ouest (Cedeao) rend toute réponse régionale coordonnée peu probable. Même le Burkina Faso et le Niger, voisins du Mali et partenaires de l’Alliance des Etats du Sahel (AES), sont eux-mêmes enlisés dans leur propre insurrection djihadiste.

Quel avenir pour Bamako et le Mali ?

Trois grands scénarios semblent envisageables :

  • une offensive militaire qui permet à la junte malienne de briser le blocus

  • un règlement négocié qui conduirait vraisemblablement à un nouvel Etat

  • un chaos politique en cas de chute de Bamako.

Le premier scénario suppose une mobilisation massive des forces armées maliennes, appuyées par l’Alliance des États du Sahel et sans doute par des mercenaires russes. Elle suppose pour cela que l’armée concentre ses efforts dans la région de Bamako et reprenne le contrôle des axes stratégiques

Ce scénario paraît peu probable. L’armée malienne reste limitée et, jusqu’à présent, peu de combats ont eu lieu dans les zones urbaines. Tombouctou, Gao et Kidal ont été conquises ou « libérées » sans combat. Les forces gouvernementales, les rebelles et les djihadistes ont préféré se retirer lorsque leurs adversaires ont avancé.

Le deuxième scénario, sans doute plus réaliste, serait une sorte d’accord politique négocié entre les autorités militaires maliennes et les djihadistes. Nous suggérons depuis de nombreuses années qu’un accord politique est le seul moyen de mettre fin à un conflit qu’aucune des parties ne peut gagner militairement.

Ces derniers mois, les appels au dialogue se multiplient. Des responsables religieux, politiques et économiques y contribuent, même si la question divise. Parmi les partisans les plus favorables au dialogue sont Alioune Nouhoum Diallo, ancien président de l’Assemblée nationale, et Mossadeck Bally, président du Conseil national du patronat du Mali.

Les partisans du dialogue citent souvent les expériences de règlements obtenus grâce au dialogue entre les islamistes et les acteurs étatiques ailleurs dans la région, en particulier dans certaines parties du Maghreb. Ces cas ont toutefois été façonnés par des traditions très différentes en matière de relations entre l’État et l’islam.

Un tel accord politique obligerait le Mali à abandonner son principe de laïcité inscrit dans la Constitution, ce que toutes les élites au pouvoir, y compris les leaders actuels, ont toujours refusé. Et vu la position de force des djihadistes, le gouvernement serait contraint à des concessions qui affaibliraient sa légitimité.

Cependant, si Bamako tombait, un dialogue médiatisé deviendrait plus probable. Gérer une ville aussi grande, maintenir les échanges commerciaux et l’approvisionnement en carburant nécessiterait des arrangements avec les pays voisins, hostiles aux djihadistes. Dans ce cas, les groupes armés pourraient accepter une autorité plus modérée dans le cadre d’un compromis pragmatique. Parmi les personnalités susceptibles de mener ou de négocier un tel processus on cite souvent l’imam Mahmoud Dicko, actuellement en exil. Même loin de son pays, il continue d’exercer une influence sur la politique malienne.

Le dernier scénario est la chute de Bamako et la prise du pouvoir par les djihadistes. Bien qu’entrer dans la capitale soit désormais envisageable, former un gouvernement uni et stable serait bien plus difficile. La coalition djihadiste est traversée par des divisions, des rivalités et des scissions. Elle entretient en outre une relation conflictuelle avec l’État islamique – Province du Sahel, actif dans l’est du Mali.

Si les djihadistes prenaient Bamako, l’État islamique chercherait sûrementà être impliqué dans l’exercice du pouvoir au niveau national. Ce qui pourrait déclencher des affrontements entre eux, comme on l’a vu en Somalie ou en Afghanistan.

La situation reste donc très confuse et imprévisible. Aucun de ces scénarios ne semble imminent, mais une chose paraît certaine : la crise qui déchire le cœur du Sahel est loin d’être résolue.

The Conversation

Olivier Walther bénéficie d’un financement de l’OCDE.

Leonardo A. Villalón a précédemment reçu un financement pour ses recherches universitaires sur le Sahel dans le cadre de l’initiative Minerva du gouvernement américain.

Alexander John Thurston, Baba Adou, and Cory Dakota Satter do not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. Crise au Mali: ce que révèle le blocus djihadiste de Bamako – https://theconversation.com/crise-au-mali-ce-que-revele-le-blocus-djihadiste-de-bamako-268870

Bamako assiégée : pourquoi l’armée malienne peine à briser le blocus djihadiste de la capitale

Source: The Conversation – in French – By Oluwole Ojewale, Research Fellow, Obafemi Awolowo University, Regional Coordinator, Institute for Security Studies

Lorsque l’armée a renversé le gouvernement démocratiquement élu au Mali en 2020, le général Assimi Goita, chef du coup d’État, a promis d’éradiquer les djihadistes dans le nord du pays. Mais, depuis plus de 10 ans, le Mali tente, en vain, de les vaincre.

Plusieurs groupes terroristes opèrent au Mali. Un groupe lié à Al-Qaïda, connu localement sous le nom de Jama’at Nusrat al-Islam wal-Muslimin (JNIM), est le plus meurtrier, Il se distingue par l’audace et l’ampleur de ses attaques. Ce groupe rejette l’autorité de l’État et cherche à imposer son interprétation de l’islam et de la charia.

Malgré l’engagement du gouvernement militaire à renforcer la sécurité, les violences à l’encontre des civils ont augmenté de 38 % au Mali en 2023, comme le rapporte l’Armed Conflict Location and Event Data.

Human Rights Watch rapporte que les groupes armés islamistes ont mené 326 attaques contre des civils entre le 1er janvier et le 31 octobre 2024, faisant 478 morts.

En septembre 2024, le JNIM a attaqué l’aéroport international de Bamako et un camp militaire dans la capitale.

Après des années d’attaques de plus en plus nombreuses, l’insurrection au Mali est entrée dans une nouvelle phase. La violence s’est désormais propagée du nord et du centre du Mali vers le sud du pays. Le blocus du sud du Mali imposé par le JNIM depuis septembre 2025 a coupé les routes commerciales, affamé les villes et mis à rude épreuve l’autorité de l’État sur ce pays enclavé.

En tant que spécialiste des questions de sécurité en Afrique de l’Ouest et du Centre, j’ai mené des recherches sur la sécurité au Mali en abordant des thèmes plus larges tels que le terrorisme et le trafic d’armes. Je pense que la dernière stratégie du JNIM est particulièrement dangereuse, car son objectif est à la fois stratégique, économique, psychologique et politique.

Ces blocus sont des instruments délibérés de gouvernance coercitive et de guerre asymétrique (un conflit entre des combattants irréguliers et l’armée), destinés à provoquer la colère de la population et renforcer l’autorité des djihadistes.

Je pense que l’armée malienne n’a pas réussi à déloger les terroristes parce que les zones de blocus sont vastes, semi-arides et traversées par des routes non contrôlées, rendant toute surveillance difficile. Beaucoup de ces zones se trouvent hors de portée d’une présence étatique efficace. Dans ces zones, les mouvements de l’armée sont prévisibles et lents, tandis que les insurgés se fondent relativement facilement dans les communautés locales et les forêts.

Le terrain favorise les tactiques de guérilla : les routes étroites, les chemins de brousse et les rivières saisonnières créent des obstacles naturels aux mouvements militaires mécanisés. En revanche, les groupes terroristes équipés de motos peuvent facilement se déplacer.

Le blocus

Le blocus du sud du Mali, qui a commencé en septembre 2025, a privé la région de ses approvisionnements essentiels. Cela a de graves conséquences humanitaires et économiques.

Le Mali a récemment suspendu les cours dans les écoles et les universités en raison d’une grave pénurie de carburant causée par le blocus. Ce siège montre que l’armée est mal équipée, débordée et stratégiquement désavantagée pour contrer les tactiques terroristes en constante évolution.

Le blocus n’est pas un siège militaire conventionnel impliquant des tranchées ou des positions fortifiées. Il s’agit plutôt d’une stratégie de perturbation en réseau, consistant à bloquer les routes qui relient le Mali à ses voisins côtiers, notamment le Sénégal et la Côte d’Ivoire.

Ces routes sont des artères vitales pour l’économie malienne, servant de corridors pour le commerce, le carburant et les approvisionnements humanitaires. Les couper isole non seulement les communautés, mais sape également la confiance du public dans la capacité de l’État à gouverner et à sécuriser ses périphéries.

Les contraintes de l’armée

L’incapacité de l’armée malienne à lever les blocus s’explique par le fait qu’elle mène un conflit irrégulier et asymétrique contre un groupe insurgé mobile et profondément enraciné. Les forces armées maliennes sont structurées pour la guerre conventionnelle, mais elles sont entraînées dans une bataille qui exige de la flexibilité, la maîtrise du renseignement et des capacités de réaction rapide.

Le JNIM, quant à lui, tire parti de sa mobilité et de sa décentralisation. Ses combattants se déplacent rapidement, utilisant des motos et des armes légères. Ils peuvent frapper rapidement et se replier dans des terrains difficiles avant que les forces de l’État ne puissent réagir.

Comme je l’ai écrit ailleurs, le Mali manque de capacités militaires et ne peut pas facilement en acquérir en raison des sanctions actuelles et de son isolement international.

Bien que la junte ait sollicité l’aide du groupe russe Wagner (aujourd’hui Africa Corps) dans le cadre d’un partenariat militaire, ces collaborations n’ont donné que peu de résultats.

Lorsque le JNIM impose simultanément plusieurs blocus dans le sud du Mali, l’armée se retrouve débordée. Ses forces sont trop dispersées pour mener une contre-offensive coordonnée et soutenue. Les renforts sont victimes d’embuscades sur des routes en mauvais état ou se perdent dans des zones qu’ils connaissent mal.

Géographie, gouvernance et décentralisation stratégique

La géographie contribue à expliquer la paralysie de l’armée malienne. Les zones sous blocus sont vastes et difficiles d’accès. Le terrain est semé d’obstacles naturels.

L’État malien a longtemps lutté pour étendre sa présence au-delà des centres urbains comme Bamako et Ségou. Dans les zones rurales, l’arrivée de l’armée est souvent perçue non pas comme un retour de l’État, mais comme une intrusion, avec le risque de violations des droits humains.

Des décennies de négligence, de corruption et de pratiques abusives de contre l’insurrection ont créé une distance avec les populations locales et affaibli les réseaux de renseignement.

Les opérations de blocus visent à paralyser Bamako. Autrefois confiné aux déserts du nord et aux plaines du centre du pays, le JNIM a, au cours des dernières années, progressé régulièrement vers le sud, menant des attaques sporadiques près de la capitale.

Comment expliquer cette audace grandissante d’un groupe armé seulement de motos et de kalachnikovs ?

La réponse réside dans son organisation. Contrairement aux mouvements qui dépendent d’une structure de commandement unique, le JNIM fonctionne comme un réseau hautement décentralisé de cellules semi-autonomes. Cela lui permet de s’adapter rapidement aux conditions locales, d’exploiter les faiblesses de l’État et d’étendre son influence sans surexploiter ses ressources. Chaque cellule s’appuie sur les griefs locaux pour recruter et mener ses opérations.

L’adaptabilité est la plus grande force du JNIM et la principale faiblesse de l’État malien.

Le paradoxe de la militarisation

Malgré l’augmentation des dépenses militaires, les nouvelles alliances et la rhétorique agressive, l’emprise territoriale et la sophistication tactique du JNIM n’ont cessé de croitre.

Plus l’État se militarise, moins ses citoyens semblent en sécurité.

Ce paradoxe reflète une tendance plus large au Sahel. Les efforts de contre-insurrection sont principalement militaires, sans aborder les conditions socio-économiques et de gouvernance qui alimentent les insurrections.

La corruption, les inégalités et la marginalisation locale font partie de ces conditions. Ainsi, les campagnes militaires deviennent de simples exercices de confinement plutôt que de résolution. Dans ce contexte, les blocus et les incursions du JNIM ne sont pas seulement des manœuvres militaires, mais ils traduisent aussi une réalité politique d’une autorité politique affaiblie dans l’arrière-pays.

Une guerre au-delà de la puissance de feu

Le blocus dans le sud du Mali révèle les limites d’une réponse centrée sur la puissance militaire de l’État dans un conflit asymétrique. Pour lever définitivement les blocus, il faut plus que des victoires tactiques. Il faut repenser la notion de sécurité.

Le gouvernement militaire doit coopérer avec ses voisins tels que le Sénégal et la Côte d’Ivoire.

Plus important encore, la reconquête du territoire doit aller de pair avec le rétablissement de la confiance, la restauration de la gouvernance et la résolution des griefs. D’ici là, les motos et les AK-47 du JNIM continueront de surpasser les chars et la rhétorique de la junte militaire malienne.

The Conversation

Oluwole Ojewale does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Bamako assiégée : pourquoi l’armée malienne peine à briser le blocus djihadiste de la capitale – https://theconversation.com/bamako-assiegee-pourquoi-larmee-malienne-peine-a-briser-le-blocus-djihadiste-de-la-capitale-268898

Robert Munsch has prepared for the eventual end of his story, but his letters and books keep speaking

Source: The Conversation – Canada – By Erin Spring, Associate Professor, Werklund School of Education, University of Calgary

In April 1996, I was 11 years old. I wrote letters to authors on the topic of “becoming a writer,” enclosing a short questionnaire. To my astonishment, over 40 authors responded — some on letterhead, some on lined paper, some with doodles and stickers.

One author who wrote me back was the beloved Canadian children’s author Robert Munsch. His stories, including Mortimer, Thomas’ Snowsuit and Love You Forever, have sold more than 87 million copies, been translated into dozens of languages and are staples in classrooms, homes and libraries worldwide.

In mid-September, a Munsch profile appeared in the New York Times outlining how dementia has affected the author’s life, and his decision to elect medically assisted death (MAiD) when the time comes.

While Munsch’s daughter has said he is “NOT DYING!!!” and doing well, the recent coverage has reignited national conversations about dignity, decline and ethical questions raised by MAiD.

Munsch’s letter-writing opens journalist Katie Engelhart’s New York Times Magazine piece. She notes that when Munsch received many letters from a class, he’d reply with a single letter, often with an unpublished story that included real names of some students. But when children wrote on their own, Munsch always responded.

According to Scholastic, one of his publishers, Munsch receives about 10,000 letters a year.

How stories shape who we become

I’ve carried Munsch’s letter, and other author letters, with me for almost three decades. They now live in a shoebox on my office window sill — a reminder that the child who wrote them still lingers nearby.

I see now that in writing to the authors I admired, I was beginning to understand how stories can shape a sense of self — how young people make sense of their identities through reading.

In my research, I’ve examined how reading is a powerful tool for exploring and building identity, belonging and community. I’ve engaged with youth across urban and rural settings and those living on reserve. I’ve always found young people to be the most reliable, compelling narrators of their own stories.

Too often, both scholars and popular narratives get caught in unhelpful binaries — adult versus child, innocent versus knowing — that flatten the richness of children’s lives, positioning them as somehow incomplete. I’m more interested in what happens when we think of adults and children as akin: different, yes, but connected.

All these years later, I’m returning to Munsch’s letter, not just as a material remnant of my childhood, but as evidence of what’s possible when an author takes their child-reader seriously.

Literacy is a relationship

Literacy is not only a skill but a relationship, nurtured through moments of attention, dialogue and care. And here is where Munsch is masterful. His career has been an extended epistolary experiment in listening and taking children seriously.

I talk to kids, and I listen to kids,” he explains on his website. Munsch improvised stories in front of children, shifting in response to their laughter or protest. He drew inspiration directly from them.

“My stories have no adult morals. They’re not to improve children. They’re just for kids to like,” he shared on CBC radio in 2021.

Munsch also writes honestly on his website about his background — how he was “not a resounding academic success.” He writes openly about his mental-health challenges, encouraging parents to have brave conversations with their children.

It’s no surprise, then, that Munsch has openly shared his most recent struggle with dementia, prompting readers across the ages to share memories of how his stories have shaped their lives.

Small exchanges matter tremendously

At a time when debates about reading for pleasure and children’s creativity are making headlines, these small exchanges matter tremendously.

Recent Canadian data suggest both promise and concern. According to Scholastic’s Kids and Family Reading Report, 91 per cent of children aged 6 to 17, and 97 per cent of parents, agree that being a reader is essential. Yet the same report shows that children’s enjoyment of reading declines sharply with age, and that many struggle to connect with books.

CBC video of Robert Munsch telling the story of ‘The Paperbag Princess.’

The National Literacy Alliance has warned that one in five Canadian adults still face serious reading challenges, calling for a national strategy. Data from the United Kingdom’s National Literacy Trust reports similar findings.

In response to declining rates in reading for pleasure, the Booker Prize has launched a new award for children’s fiction, with young people on its adjudication board.

Hearing children, fully

Munsch understood children as whole people decades ago. Not only is he honest, but he makes it clear that hearing from children matters. He wrote to me:

“I loved your letter. My publisher says to me, ‘Wow! We sold 1,000,000 of Love You Forever; but that does not tell me what any one person thought of it or where any one person lives who read it. In fact, the publisher does not know that sort of thing at all; but letters tell me what is really happening with my books.”

Briefly, 11-year-old me, a young girl from rural Ontario, was that one person.

“I live in Guelph,” Munsch described to me. “It is surrounded by farms. My house is next to a hill. I have an office in the basement.”

It reads like a letter between friends.

One reader, one writer

When Engelhart’s article appeared, I pulled out my shoebox, noticing that Munsch ends his letter with a question: “Which book is your favourite?”

I had missed it at the time.

His response to my letter project was also a gesture of kinship. Munsch’s question placed the power in my hands, inviting child-me back into the conversation. I wish I had taken him up on it.

Long before “reading crises” made headlines, Munsch understood that stories are relational. His 1996 letter to me, written in the same voice that filled classrooms with laughter, embodied that belief.

In responding, he modelled what literacy can look like at its most human scale: one reader, one writer and a story shared between them.

The stories we carry

Now, as his voice begins to recede, those exchanges take on new weight.

Contemplating Munsch’s end of life invites broader reflection for Canadian cultural memory. Children’s literature often counts for less in national literary canons, but it carries enormous weight — because generational reading connects us.

What happens when a central figure of that literature fades? How do we preserve not just the texts, but the relational echoes around them?

When Munsch asked me which book was my favourite, he was really asking what story I would carry forward. Three decades later, I’m belatedly responding: it’s the letter itself — the conversation, the recognition, the trust.

I carry my shoebox wherever I go. Inside it lives a child’s curiosity, the kindness of authors and the reminder that the relations we nurture through stories shape identity in quiet, enduring ways.

The Conversation

Erin Spring does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Robert Munsch has prepared for the eventual end of his story, but his letters and books keep speaking – https://theconversation.com/robert-munsch-has-prepared-for-the-eventual-end-of-his-story-but-his-letters-and-books-keep-speaking-267280

Congress has been dodging responsibility for tariffs for decades – now the Supreme Court will decide how far presidents can go alone

Source: The Conversation – USA (2) – By Bedassa Tadesse, Professor of Economics, University of Minnesota Duluth

On Nov. 5, the U.S. Supreme Court will hear one of the most consequential trade cases in decades. The justices will decide whether a president can rely on a Cold War–era emergency law, the International Emergency Economic Powers Act, to impose sweeping import duties on a vast share of what the United States buys from abroad.

At stake is more than the scope of presidential power. The case highlights a deeper question of accountability: Who should decide what Americans pay for imported goods – the president acting alone, unelected judges reading emergency laws broadly, or the elected representatives who must face voters when prices rise?

When tariffs end up in court, it’s usually because Congress has failed to act. Over the past few decades, lawmakers have ceded much of their trade authority to presidents eager to move quickly – and the courts have been left to clean up the mess. Each new lawsuit makes it seem as though judges are running the economy when, in fact, they’re being pulled into policy questions they’re neither trained nor elected to answer.

As an economist, not a lawyer, I view this as more than a constitutional curiosity. It’s about how the world’s largest economy makes decisions that ripple through global markets, factory floors and family budgets. A duty on steel may help a mill in Ohio while raising bridge-construction and car-buying costs everywhere else. A tariff on electronics might nudge assembly onshore yet squeeze hospital and school budgets that depend on those devices.

These are choices about distribution – who gains, who pays, and for how long – that demand analysis, transparency and, above all, democratic ownership.

How did the US get here?

Congress didn’t exactly lose its tariff power; it gave it away.

The Constitution assigns “Taxes, Duties, Imposts and Excises” to Congress, not the White House. Historically, Congress set tariff lines in law – consider the Smoot–Hawley Tariff Act of 1930. The pivot began with the Reciprocal Trade Agreement Act of 1934, which let presidents adjust rates within limits via executive agreements. In the 1960s and ’70s, Congress passed laws expanding the president’s authority over trade, granting new powers to restrict or adjust imports without a separate congressional vote if certain conditions are met.

In my view, two key incentives drove the drift: blame avoidance and gridlock. Tariffs are redistributive by design: They benefit some sectors and regions while imposing costs on others. Casting a vote that helps steelworkers in one state but raises prices for builders in another is politically risky. Delegating to the White House allowed lawmakers to sidestep the fallout when prices rise or when jobs shift.

And as polarization intensified, the bargaining that once produced workable compromises became increasingly complex. Broad emergency statutes and open-ended delegations became the path of least resistance – fast, unilateral and insulated from negotiation. Over time, exceptions became the norm, and courts were tasked with resolving the gray areas.

That’s a poor way to run economic policy.

Judges interpret statutes and precedent; they don’t run general equilibrium models, forecast inflation paths or map supply chain rerouting. Evidence in court is confined to a single case file. Remedies are blunt: They are either to uphold, strike down or send back. Tariff design, by contrast, is about calibration: how high, how long, which sectors, which exclusions, what off-ramps, what triggers for renewal or repeal.

When lawsuits substitute for legislation, countries drift into policy by injunction. Companies see rules whipsaw; projects are delayed or shelved; households experience price swings that feel arbitrary; trading partners retaliate against policies they see as improvisational.

A matter of accountability

Accountability sits at the center of the problem. Most judges aren’t elected; lawmakers are. Lifetime tenure protects judicial independence – good for rights, bad for setting taxes. No one can vote out a court when tariffs push up the price of a school Chromebook or a contractor’s rebar.

Members of Congress, by contrast, must explain themselves. They can hold hearings, commission impact analyses, hear from unions and small businesses, and then defend the trade-offs. If tariffs save jobs in one town but raise prices nationwide, voters know exactly whom to reward or punish. That democratic link is why the Constitution places “Duties and Imposts” in the hands of Congress.

None of this means paralysis when it comes to trade policy. The United States has done this before – via trade-promotion and fast-track authorities that set clear goals and required renewal votes – while the EU and Japan have paired swift action with built-in legislative oversight.

Congress can be nimble without being reckless. Best practices for tariffs include setting clear targets using accessible language, having independent analysts conduct reviews before and after a tariff is put in place, and having diplomacy baked into a broader trade-security strategy that reports retaliation risks.

The challenge facing the court

In my view, the Supreme Court’s role here is both modest and vital: to enforce the statute and the constitutional line.

If a general emergency law doesn’t clearly authorize sweeping, long-duration tariffs, it’s not activism to say so plainly. It’s boundary-keeping that returns the pen to Congress. What I think the court should avoid is appearing to write the tariff code from the bench. That swaps democratic ownership for judicial improvisation and guarantees more litigation as a strategy.

In theory, a more public, accountable system would also free everyone to focus on what they do best. That means economists measuring who gains and who pays, lawmakers weighing trade-offs and answering to voters, and courts enforcing the rules – not designing the policy.

The Conversation

Bedassa Tadesse does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Congress has been dodging responsibility for tariffs for decades – now the Supreme Court will decide how far presidents can go alone – https://theconversation.com/congress-has-been-dodging-responsibility-for-tariffs-for-decades-now-the-supreme-court-will-decide-how-far-presidents-can-go-alone-268555

The CSA’s revised standard on respirators should help us all breathe easier

Source: The Conversation – Canada – By Dick Zoutman, Professor Emeritus, School of Medicine, Queen’s University, Ontario

The CSA Group — a not-for-profit standards organization — released for review a new draft standard on the “Selection, Use, and Care of Respirators” (CSA Z94.4:25) for workplaces, specifically including health care. This new standard is designed to ensure much better protection for health-care workers and for everyone seeking health care.

We live insulated from many dangers because of public measures that protect us from things like contaminated food, shoddy construction, unsafe workplaces and other risks that escalate when producers and employers cut corners that take risks with our safety.

We’re also better protected because of occupational health and safety legislation coupled with standardized safety equipment. Rear-view mirrors? The first cars didn’t have those — now we take them for granted. Like a rear-view mirror, a respirator is a simple device that makes both users and those around them safer.

CSA Group is an independent not-for-profit standards organization with international accreditation, including from the Standards Council or Canada. Since it was founded 1919 as the Canadian Engineering Standards Association, it has helped keep Canadians safer by establishing standards for many products, including safety equipment.

Since the 1980s, it has had a standard for particulate respirators. Canada led the way on safety then, and the new draft CSA respirator standard ensures that Canada is continuing to lead.

The science on respirators

Respirators, a specialized type of mask, are designed to seal against the face so that they effectively filter the air for wearers. They’re made from charged fibres in multiple layers, trapping dangerous particles before they reach the wearer.

Respirators have long been considered essential in many workplaces. Asbestos and paint particles, for instance, should never be inhaled into the lungs. Similarly, health-care workers and patients should not inhale airborne bacteria or viruses. Measles, influenza, COVID, tuberculosis and other pathogens can float in the air, carried inside tiny aerosolized particles that we all produce when we breathe, speak, cough or sneeze.

The evaluation of respirator effectiveness in health care has been intense, especially over years of the COVID-19 pandemic. There have also been significant technical improvements in their design for improved efficacy and comfort. A recent review and meta-analysis that one of us worked on examined more than 400 papers and concluded that respirators significantly reduce transmission.

The draft of the New CSA Standard

Standards are the backbone of public safety. Regular updating of standards ensures that, when science or technology advance, our systems can adapt in a structured, clear and enforceable manner. With the evidence supporting respirator use against airborne disease transmission, particularly for COVID-19, it was time for the CSA to update its respirator standard.

The importance of protecting workers and patients in health-care settings is reflected in the new standard. For the first time ever, it includes an entire section dedicated to health care where pathogen exposure is much more likely — and more likely to cause further spread. As the CSA notes, health care is of particular concern because of the number of health-care workers and the knock-on effects of pathogen spread on “the general population.”

The new edition has been in development by experts from across disciplines for more than two years. The draft — which was removed from CSA Group’s website at the end of the public review period — makes a number of key changes.

It uses a robust, layered approach that incorporates two fundamental concepts in safety: “the hierarchy of controls” and “the precautionary principle.” The first creates a structure for considering all of the different ways that safety can be improved, while the second requires taking steps for safety even in situations where the science is not yet clear (as recommended by the SARS Commission) — in other words, “better safe than sorry.”

For health-care workplaces, important changes include:

● By default the use of respirators by health-care providers throughout the health-care facility is required unless a detailed risk assessment by qualified experts deems a space exempt due to engineered risk reduction (such as displacement ventilation, upper air germicidal ultraviolet radiation, etc.).

● A minimum requirement for Protection Level 1 respirators (for example, CA-N95, NIOSH N95), which provide respiratory protection to the wearer.

● Providing various styles and sizes of respirators for free that meet user comfort, fit and breathability needs, fit testing, training and promoting sustainability, such as through reusable and/or plant-based materials. New designs for respirators make wearing them for long periods much more comfortable due to greater breathability.

The draft CSA respirator standard is evidence-based and necessary to bring workplace protections up to date with science for the benefit of all Canadians, including health-care workers and patients. Expressing concern for safety is not enough to make it happen; the new standard must be accepted into practice, and the relevant provincial and federal health and safety regulations updated to require its adoption.

The Conversation

Dick Zoutman is on the Board of The Canadian COVID Society and serves as an advisor to the Coalition for Community and Healthcare Acquired Infection Reduction.

Julia M. Wright is an uncompensated member of the Board for the Canadian Lung Association. She currently holds an Insight Grant from the Social Sciences and Humanities Research Council of Canada for unrelated research on literature.

Mark Ungrin is an uncompensated volunteer advisor to the Canadian COVID Society and Co-chair of its Legal Committee, and collaborates with the Canadian Aerosol Transmission Coalition. His has received funding from NSERC, SSHRC and CIHR for research in the areas of tissue engineering and synthetic biology that includes relevant biosafety and biosecurity considerations.

Ryan Tennant is an uncompensated volunteer with Ontario School Safety and COVID-19 Resources Canada. He currently holds a Canada Graduate Scholarship from the Natural Sciences and Engineering Research Council of Canada for unrelated research on paediatric sepsis prediction technologies.

ref. The CSA’s revised standard on respirators should help us all breathe easier – https://theconversation.com/the-csas-revised-standard-on-respirators-should-help-us-all-breathe-easier-265048

Cómo autocontrolar la presión arterial sin cometer errores

Source: The Conversation – (in Spanish) – By Victoria Mazoteras Pardo, PROFESORA TITULAR DE UNIVERSIDAD, Universidad de Castilla-La Mancha

Fernando Avendano/Shutterstock

La hipertensión es traicionera: normalmente no avisa. Solo midiéndola correctamente con regularidad podemos detectarla, hacer seguimiento y evitar que se complique dando lugar a enfermedades cardiovasculares, que son la primera causa de muerte en el mundo.

Lo malo es que, según la Organización Mundial de la Salud, una de cada tres personas adultas tiene la tensión elevada y más de la mitad lo desconoce. La evidencia muestra que hasta un 80-90 % de las dudas en el diagnóstico o el control podrían resolverse mediante mediciones realizadas por el propio paciente, siempre que se sigan criterios correctos y se utilicen dispositivos validados.

El autocontrol de la presión arterial es un reto

Medirse a uno mismo la presión arterial (AMPA, siglas de Automedición de la Presión Arterial), pese a parecer sencillo, es una tarea rodeada de errores frecuentes. Para colmo, en ocasiones usamos dispositivos de dudosa validez.

Tiene como ventaja que ofrece valores más representativos de la presión arterial real, evitando el “efecto de bata blanca”, que puede dar cifras de tensión alta en la consulta, o la “hipertensión enmascarada”, que se produce cuando las mediciones son normales en el centro sanitario pero altas en casa. Medir la tensión arterial en el entorno doméstico, habitual, predice mejor el riesgo cardiovascular.

Además, la automedición fomenta la participación activa del paciente, mejora la adherencia al tratamiento y reduce la necesidad de visitas clínicas, además de contribuir a la prevención incluso en personas sin hipertensión.

Quién puede realizar la automedición

Antes de recomendar la AMPA, los profesionales deben valorar si el paciente o su cuidador son candidatos adecuados. Deben descartarse limitaciones físicas o cognitivas que impidan el manejo del aparato, y evitarla en casos de arritmias graves, temblores intensos o un alto nivel de nerviosismo ante la toma.

Además, el paciente debe aprender el uso del dispositivo, la frecuencia de medición y las condiciones adecuadas mediante una correcta educación sanitaria. Sin una formación correcta, la automedición puede generar errores o ansiedad.

Las guías aconsejan realizarla durante siete días consecutivos, tres veces por la mañana y tres por la noche, descartando el primer día y calculando la media del resto. Para el seguimiento a largo plazo, bastaría con repetirla uno o dos días por semana.

Errores frecuentes que alteran los resultados

Los fallos más comunes se deben a factores internos (estrés, dolor, arritmias) o externos (postura incorrecta, manguito inadecuado o falta de reposo).

La medición debe hacerse en una habitación tranquila con una temperatura entre 20 y 25 ºC, tras cinco minutos de reposo, evitando comer, fumar o hacer ejercicio media hora antes. El brazo debe apoyarse a la altura del corazón, la espalda recta y los pies en el suelo. El manguito ha de colocarse directamente sobre la piel, ajustado pero sin comprimir.

Los dispositivos de muñeca solo son recomendables cuando el de brazo no puede usarse. En la primera sesión se aconseja medir ambos brazos y tomar como referencia el que muestre valores más altos.

No todos los dispositivos son iguales

Muchos dispositivos, incluidos relojes inteligentes y aplicaciones móviles, no han sido validados ni calibrados según los estándares internacionales.

Un error de pocos milímetros de mercurio puede alterar un diagnóstico. Por ello, los tensiómetros para AMPA deben ser automáticos, de brazo y con marcado CE. Su exactitud debe estar respaldada por protocolos de validación reconocidos, como el acuerdo AAMI/ESH/ISO, y figurar en las listas de dispositivos validados de iniciativas como STRIDE BP.

Las guías recomiendan revisarlos al menos una vez al año para asegurar su calibración.

La salud digital como aliada

Las nuevas tecnologías han abierto un escenario prometedor. La llamada M-Salud permite monitorizar la presión arterial mediante aplicaciones, relojes inteligentes y plataformas digitales. Se estima que la mitad de los usuarios de teléfonos recopilan información sobre su salud y uno de cada cinco utiliza una app sanitaria.

En la hipertensión, estas herramientas ayudan a reducir la presión arterial en torno a 5 mmHg, mejoran la adherencia al tratamiento y aumentan la conciencia sobre factores que influyen en la tensión, como el estrés o la actividad física. Además, facilitan la comunicación entre pacientes y profesionales y reducen costes sanitarios al evitar visitas innecesarias.

Aun así, no todas las aplicaciones son fiables. Es fundamental elegir aquellas basadas en evidencia científica y con respaldo de instituciones sanitarias.

En un mundo donde las enfermedades cardiovasculares siguen siendo la principal causa de muerte, promover el conocimiento ciudadano sobre cómo y cuándo medirse la tensión es una herramienta poderosa de prevención.

Medir bien la tensión no es un gesto trivial: es una forma de participar activamente en el propio cuidado y de reducir el impacto de la hipertensión en la población.

The Conversation

Victoria Mazoteras Pardo no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Cómo autocontrolar la presión arterial sin cometer errores – https://theconversation.com/como-autocontrolar-la-presion-arterial-sin-cometer-errores-267148

¿En qué se parecen un hospital sueco, un alemán y un español?

Source: The Conversation – (in Spanish) – By Laura Cambra Rufino, Profesora Arquitectura, Universidad Politécnica de Madrid (UPM)

Cuando se diseña un hospital, ¿se valora más el número de camas o los metros cuadrados por habitación? ¿A qué se da prioridad? ¿Se hace igual en España que en Alemania o Suecia? ¿Existen diseños más eficientes que otros?

La comparación de métricas (benchmarking) entre proyectos es una práctica habitual en el campo de la salud. Pero no suele ser común para comparar edificios, y menos aún los hospitales, más complejos.

Una encuesta internacional reciente en cinco idiomas distintos (inglés, sueco, italiano, alemán y español) nos aclara qué datos se usan para planificar y diseñar hospitales, y cómo varían según el país o el tipo de organización.

¿Qué se compara exactamente?

Los datos relacionados con superficies son los más valorados en todo el mundo, ya sea superficie por departamento, superficie por habitación o metros cuadrados por cama. También se tienen en cuenta el tipo de cliente (público o privado), el año de construcción y si se trata de una obra nueva o una reforma.

Los datos sobre costes resultan igualmente relevantes. En especial, el coste por metro cuadrado construido. Otros indicadores interesantes son la duración de la estancia, el tipo de paciente, las especialidades médicas y la distribución de las habitaciones.

¿Qué ventajas y límites tiene comparar proyectos?

Comparar usando datos de otros hospitales permite tomar mejores decisiones. No solo porque ayuda a identificar diseños más eficientes, sino también porque permite descubrir buenas prácticas, mejorar la comunicación con el cliente y reducir errores.

No obstante, algunos profesionales creen que usar demasiados estándares puede limitar la creatividad. Otros alertan de que los datos pueden estar desactualizados o no ser comparables entre países. Además, muchas veces las empresas no comparten información fuera de su entorno, lo que dificulta la creación de bases de datos abiertas.

Por otro lado, algunos países exportan más conocimiento que otros. Profesionales del diseño hospitalario de Estados Unidos, Alemania, Italia, España o Suecia acostumbran a trabajar fuera de sus fronteras. En cambio, es raro que estos países reciban a profesionales del exterior. Por eso, se dice que estos países exportan conocimiento, mientras que regiones como Sudamérica, África, Asia u Oriente Medio la importan con más frecuencia.

Exportación de conocimiento sobre arquitecutra hospitalaria entre países. Relación del país de procedencia de las personas encuestadas en el estudio y los países donde trabajan.
Silja Viergutz HK, Cambra-Rufino L, Apple M, Heithoff A, Lindahl G, Capolongo S, Brambilla A. Benchmarking Relevance for Hospital Design and Planning: An International Web-Based Survey. HERD. 2024 Jul;17(3):189-208. doi: 10.1177/19375867241239324. Epub 20

En definitiva, a pesar de las diferencias culturales y geográficas, tanto el hospital sueco, como el alemán y el español se enfrentan a desafíos similares. El envejecimiento de la población, los rápidos avances en la tecnología médica y las crisis sanitarias exigen rediseñar nuestras infraestructuras. En este escenario, compartir métricas de referencia entre países no solo permitiría aprender unos de otros, sino también orientar de manera más eficiente la inversión de los recursos destinados al futuro de los hospitales.




Leer más:
¿Cómo mejorar el diseño de los hospitales?


The Conversation

Laura Cambra Rufino ha recibido fondos públicos durante su etapa predoctoral (contrato FPU Ministerio) y postdoctoral (Margarita Salas).

Hannah-Kathrin Viergutz no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. ¿En qué se parecen un hospital sueco, un alemán y un español? – https://theconversation.com/en-que-se-parecen-un-hospital-sueco-un-aleman-y-un-espanol-262265