L’inventeur du phalanstère parie sur l’association libre des attractions entre les êtres humains pour atteindre l’harmonie, y compris dans la sphère professionnelle. Plaisir et travail ne doivent pas être opposés.Wikimediacommons
Charles Fourier (1772-1837) est l’un des premiers auteurs à développer une critique du capitalisme libéral. Un philosophe dénigré par Karl Marx pour son socialisme utopique. Considéré tantôt comme un être fantasque, tantôt comme un inventeur encombrant, il exerce une carrière de commerçant durant une grande partie de sa vie. Une de ses réflexions résonne dans notre actualité : qu’est-ce qui peut motiver l’individu à l’égard de son travail ?
Il est probablement l’auteur le plus original parmi les socialistes français du XIXe siècle, considérés comme utopiques, tels Claude-Henri de Rouvroy de Saint-Simon (1760-1825) ou Étienne Cabet (1788-1856). Les travaux que j’ai menés dans le cadre d’une thèse d’État sur les socialistes utopiques ont mis en évidence l’idée que, chez Charles Fourier, le travail n’était pas l’élément premier, mais une activité entraînée par des motivations, une « attraction passionnée ».
L’idée principale qui se dégage de son œuvre ? Les transformations des structures de production nécessitée par les crises, le chômage et la misère, doivent prendre la forme d’un collectivisme décentralisé. Ce dernier repose sur une propriété associée dont l’élément central est constitué par « la phalange » ou commune sociétaire.
Les nouvelles relations sociales sont analysées notamment dans la Théorie des quatre mouvements et des destinées générales (1808), le Nouveau Monde industriel et sociétaire ou invention du procédé d’industrie attrayante et naturelle, distribuée en séries passionnées (1829), la Fausse Industrie morcelée, mensongère et l’antidote, l’industrie naturelle, combinée, attrayante, véridique donnant quadruple produit (1835-1836). Ces ouvrages mettent l’accent sur l’aliénation économique, doublée d’une aliénation affective qui ne peut être dépassée qu’en libérant l’individu de toutes les contraintes qui l’empêchent de se réaliser.
Dans ce nouveau système, par quoi les travailleurs et travailleuses sont-ils motivés, en dehors de l’argent ?
Motivations non pécuniaires
L’existence de rapports humains dans la production implique pour Charles Fourier la prise en considération des motivations non pécuniaires. Il critique dans le premier tome de la Théorie de l’unité universelle « les méthodes qui laissent dans l’oubli la plus vaste, la plus nécessaire des études, celle de l’Homme, c’est-à-dire de l’attraction passionnée ». Une organisation doit reposer sur l’association libre des attractions entre les êtres humains pour atteindre l’harmonie. Plaisirs et travail ne sont pas opposés, mais promus.
L’étude du monde du travail doit être « celle de l’homme social » centrée sur le « social et le passionnel », en d’autres termes sur l’analyse des motivations. L’unité de production, en tant qu’organisation, est commandée à la fois par les impératifs économiques et techniques de la production, mais également par les besoins psychologiques des travailleurs.
Luxe des ateliers et bagne de l’usine
Le point de départ de sa réflexion est celui de l’adaptation physiologique, du corps, de l’individu à son travail. Charles Fourier insiste sur la nécessité d’usines harmonieuses, « le luxe des ateliers » et sa conséquence sur la santé des travailleurs. Une usine ne doit pas être un bagne. Il met l’accent sur l’importance des couleurs, des peintures souvent refaites, des conditions de température et de propreté des ateliers.
Charles Fourier est le penseur du phalanstère, contraction de phalange et de monastère, le regroupement organique des éléments considérés nécessaires à la vie harmonieuse d’une communauté appelée phalange. Wikimedia
L’organisation du travail doit s’attacher à réduire les distances entre les postes de travail. Une opération de production va échoir à plusieurs groupes de travail et être décomposée en « éléments distincts ». Dans le Nouveau Monde industriel et sociétaire, il souligne que cet « exercice parcellaire en fonctions » va favoriser le passage d’un poste de travail à l’autre. Il s’agit de permettre « au travailleur exécutant » de replacer cette opération dans le tout de la production.
Papillonner contre la monotonie
Le passage d’un poste de travail à l’autre satisfait le besoin de variété, analysé sous le nom de « papillonne ». Les attitudes désignées sous le nom d’ennui, liées « à la monotonie d’un travail sans diversion » soulignées dans La Fausse Industrie, peuvent être réduites par l’alternance des tâches. Ces dernières nécessitent un fractionnement de la journée de travail et l’introduction de pauses.
« Le but serait manqué si cet enchaînement de plaisirs ne coopérait pas au bien de l’industrie active » dit-il dans le tome III de la Théorie de l’unité universelle.
Pour Charles Fourier, le temps de travail doit être découpé en séances de deux heures. Cette division quotidienne pas à négliger les aspects économiques, tels que l’accroissement de la production et de la productivité.
« Perfection du tout » dans le travail en groupe
Premier volume de la Théorie des quatre mouvements.
Il y a chez Charles Fourier l’idée que l’organisation du travail possède des propriétés sociales et psychologiques indépendantes de la technologie. Le machinisme ne peut répondre aux besoins des humains. C’est dans cette perspective qu’il faut développer le sentiment de coopération, d’appartenance à un groupe et l’émulation en favorisant le travail collectif.
C’est là que réside la profonde originalité du socialiste utopique. Son analyse rompt absolument avec l’hypothèse de la foule, associée à la perte du sentiment de responsabilité de l’individu, lorsqu’il rappelle dans le Nouveau Monde industriel et sociétaire que le groupe est « une masse liguée par identité de goût pour une fonction exercée ». Des hommes et femmes avec la même « attraction passionnée ».
Le groupe n’est pas une simple collection d’individus. Selon Charles Fourier, il implique des relations stables entre sept à neuf personnes. Il est analysé comme un moyen d’expression des motivations individuelles. Le travail en groupe satisfait le besoin de comprendre la signification de la tâche. La compréhension du but aiguise le besoin de contribuer à « la perfection du tout », le besoin d’achever.
Sens de la vie
La motivation est dénommée par l’auteur « composite ». Dans ce contexte, les considérations affectives deviennent aussi importantes que les considérations économiques comme le taux de salaire, les horaires, etc.
« Le lien ne serait que simple s’il se bornait à exciter l’émulation industrielle par appât du gain. Il faut y joindre des véhicules tirés d’autres passions comme les rencontres amicales », précise Charles Fourier dans la « Théorie de l’unité universelle ».
Les relations affectives, faites de coopération et d’émulation, au sein du groupe de travail sont analysées sous le nom de « cabaliste ». Bien entendu, la motivation pécuniaire existe, mais l’aspect relationnel a pour conséquence de rendre plus complexe l’interprétation du comportement humain. « Les membres du groupe sont entraînés au travail par émulation, amour-propre, et autres véhicules compatibles avec celui de l’intérêt » rappelle-t-il dans la Théorie des Quatre Mouvements.
L’amour-propre nous amène à tenir compte d’autrui. Cet échange réciproque satisfait le besoin de dignité, d’être reconnu dans son travail.
De Charles Fourier se dégage l’idée actuelle que l’accroissement de la productivité est souvent le résultat de la double exigence de la production et de la recherche d’un bien-être de l’individu. « Pour découvrir notre fin, il était deux conditions à remplir, la première de créer la grande industrie, fabriques, sciences et arts ; quand la grande industrie est créée, il reste à remplir la deuxième condition, la recherche du sens de notre vie » rappelle-t-il.
Bernard Guilhon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Le film de Baz Luhrmann (2013) a réactivé le mythe de Gatsby.
Le 10 avril 2025, « Gatsby le magnifique » (« The Great Gatsby », en anglais), roman de l’Américain Francis Scott Fitzgerald (1896-1940), célébrait son centième anniversaire. Bien qu’il ait déjà fait l’objet d’une bonne centaine d’ouvrages ou d’articles critiques, ce court récit continue d’inspirer les chercheurs.
Aux États-Unis, tout le monde connaît Gatsby, car les jeunes Américains étudient le livre au lycée. Il présente en effet l’avantage de ne compter que cent soixante-dix pages et d’être, à première vue, relativement simple.
Il a aussi donné lieu à des adaptations diverses qui ont contribué à sa popularité : un ballet, un opéra, des productions radiophoniques et théâtrales, et surtout cinq films. Parmi eux, deux ont connu un succès international : le film réalisé par Jack Clayton en 1974, avec Robert Redford dans le rôle de Gatsby et Mia Farrow dans celui de Daisy Buchanan, et celui de Baz Luhrmann, en 2013, avec Leonardo di Caprio et Carey Mulligan.
Un monument des lettres américaines
Gatsby le Magnifique, c’est l’histoire d’un amour malheureux entre une garçonne (flapper, en anglais) à la voix « pleine d’argent », comme le dit le héros, et un gangster très riche (le fameux bootlegger de la prohibition). C’est aussi le rêve américain et ses limites, la tragédie du temps qui passe, la débauche des années vingt, [l’« âge du jazz », comme l’a appelé Fitzgerald]), avec ses soirées extravagantes, ses excès de musique, de danse et surtout d’alcool. On n’a jamais autant bu que pendant la prohibition, aurait dit Fitzgerald. Et il savait de quoi il parlait !
Gatsby, c’est aussi un récit ciselé, sans un mot de trop, où le destin du héros finit par se confondre avec celui de l’Amérique. Le roman est devenu une sorte de monument des lettres américaines, « la chapelle Sixtine de la littérature américaine », écrit l’autrice, universitaire et critique littéraire, Maureen Corrigan dans un ouvrage de 2014, So We Read On : How The Great Gatsby Came to Be and Why It Endures (Little Brown and Company) (non traduit en français, nldr), où elle analyse justement la pérennité du récit. Selon elle, chaque fois qu’on lit Gatsby, on le trouve meilleur encore. En tout cas, on découvre des détails nouveaux, des indices, comme dans un roman policier (car c’en est un aussi, avec trois morts violentes), qu’on n’avait pas repérés auparavant.
Lors d’une conférence à la Librairie du Congrès à Washington à l’occasion de la sortie de son livre, Corrigan insiste sur l’influence qu’a exercée sur Fitzgerald, pendant l’écriture du livre, ce qu’on appelle, en français comme en anglais, la fiction hard-boiled, sous-genre de la fiction policière américaine qui met en scène des « durs » (hard-boiled). Elle demande aussi « Que reste-t-il à dire ? » sur Gatsby aujourd’hui.
À l’occasion du centième anniversaire du roman, un des chefs-d’œuvre de la littérature américaine, il m’a semblé opportun de publier un recueil d’articles académiques en anglais pour faire le point sur la critique fitzgeraldienne des deux côtés de l’Atlantique. C’est ainsi que F. Scott Fitzgerald. A Hundred Years after Gatsby (ouvrage non traduit en français, ndlr) est paru en septembre 2025 aux Presses universitaires de Bordeaux. En lançant ce projet, je ne cherchais pas du tout à répondre à la question de Corrigan tant j’étais convaincue qu’on ne me proposerait pas d’article sur Gatsby, qu’on avait déjà tellement écrit sur ce court roman que le sujet était comme épuisé. J’imaginais que les chercheurs américains, britanniques, français et suédois que j’ai sollicités me soumettraient plutôt des articles portant sur des nouvelles ou des textes peu connus.
Je me fourvoyais complètement.
La pérennité de Gatsby
Sur neuf articles, cinq sont consacrés à Gatsby le Magnifique, deux à Tendre est la nuit (Tender Is the Night, publié en 1934) et deux autres à des récits autobiographiques. Quatre sur les cinq ont été rédigés par des Américains, le dernier par un Britannique. Si la plupart des Européens répugnent désormais, semble-t-il, à revenir à Gatsby, les Américains n’ont pas les mêmes réserves. Et le pire, c’est qu’ils arrivent encore à faire parler le texte.
Un de ces cinq articles, signé James L. W. West, relève de la « critique génétique » et compare des versions plus anciennes du roman à celle qui a été publiée en 1925. Il se concentre, en particulier, sur un bal masqué que Fitzgerald a supprimé. Le passage montrait la différence profonde, une différence de classe et de culture, entre Daisy et Gatsby. Le nouveau riche avait invité des stars de cinéma, des gens à la mode, croyant faire plaisir à la jeune femme. Dans son monde à elle, cependant, celui des vieilles fortunes (old money), on ne s’intéresse pas aux célébrités. En supprimant cet épisode, Fitzgerald a donc privilégié l’implicite, l’allusion. Tout au long du récit, en effet, il appartient au lecteur de décoder ou de déchiffrer les rares indices qui lui sont donnés.
Un autre article (écrit par Dominic Robin) analyse l’œuvre au prisme du réalisme magique, sans craindre ni l’audace ni l’anachronisme d’une telle lecture, même si l’auteur reconnaît volontiers que son approche n’est pas sans faille. La formule « réalisme magique », forgée en 1925 par un critique d’art allemand, désigne d’abord la peinture avant de s’appliquer à la littérature sud-américaine dans les années 1960. Gatsby ne se révèle donc ni vraiment magique ni réaliste non plus, disons plutôt entre les deux.
Un troisième article (signé Tom Phillips) lit le roman à la lumière, ou plus exactement au rythme du jazz, et soutient que Fitzgerald a fait de la syncope, au fondement du jazz, son mode d’écriture. Ainsi, il dit les choses sans avoir l’air de les dire. Il appartient au lecteur, par exemple, de déceler l’identité métisse du personnage de Jordan Baker (l’amie de Daisy, ndlr).
Le quatrième article (celui d’Alan Bilton) compare l’art de Fitzgerald dans le roman à celui des thanatopracteurs. Sous le vernis de surface, entre grimage et camouflage, le romancier dissimulerait et dévoilerait tout à la fois différences sociales, corruption, et matérialisme.
Gatsby et les présidents américains
Quant au cinquième article (Kirk Curnutt), sans doute le plus novateur, il analyse la présence de Gatsby, ou plutôt celle de son nom dans le discours politique américain, plus particulièrement celui qui concerne les présidents des États-Unis.
Alors que Gatsby n’est pas un texte politique (à l’exception des allusions de Tom Buchanan, le mari de Daisy, aux questions de race et d’immigration), il a été utilisé, récupéré sans arrêt, pour qualifier les présidents, républicains ou démocrates, à commencer par Richard Nixon au moment du scandale du Watergate, au début des années 1970.
Il faut dire que la démission de Nixon en 1974 a coïncidé avec la sortie de l’adaptation cinématographique du roman réalisée par Clayton, laquelle a donné lieu à une campagne publicitaire féroce. Les deux noms, celui de Nixon et celui de Gatsby, se sont donc retrouvés dans les médias au même moment. Par la suite, la plupart des présidents américains ont été qualifiés de Gatsby, y compris Barak Obama et Donald Trump. Si on peut s’approprier ainsi son nom, avance aussi l’article, c’est sans doute en raison de l’identité incertaine, ambivalente même du personnage, à la fois idéaliste et gangster, naïf et pragmatique.
Robert Redford et Mia Farrow dans le Gatsby, de Jack Clayton (1974). Allociné
À la lumière de ces approches différentes et non moins fascinantes du roman, il apparaît que la critique littéraire traditionnelle, centrée sur le texte, est désormais condamnée au silence ou, pire encore, à la répétition. Gatsby le Magnifique semble devenu plutôt un « objet culturel », produisant de plus en plus de discours extérieurs au domaine littéraire, celui de la politique, de la musique… ou de la cosmétique funéraire, par exemple. C’est pour cette raison que les critiques américains, moins enfermés dans leur discipline sans doute, arrivent encore à produire des analyses nouvelles et novatrices de ce court récit.
F. Scott Fitzgerald. A Hundred Years after Gatsby, sous la direction de Pascale Antolin, a été publié en septembre 2025 aux Presses universitaires de Bordeaux (ouvrage en anglais).
Pascale Antolin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Des problèmes cardiaques peuvent survenir chez les athlètes qui pratiquent l’endurance, après de longues périodes d’entraînement intensif.TetianaKtv/ Shutterstock
Pratiquer une activité physique est l’une des meilleures façons de garder un cœur en bonne santé. Pourtant, des travaux de recherche ont révélé que les athlètes qui pratiquent l’endurance à très haut niveau ont jusqu’à 4 fois plus de risques d’être atteints de fibrillation auriculaire (aussi appelée fibrillation atriale). Or, cette affection augmente le risque d’insuffisance cardiaque et d’accident vasculaire cérébral.
Si s’entraîner régulièrement et être en bonne forme physique réduit les risques de nombreuses maladies chroniques et préserve la santé mentale comme la santé physique, pourquoi est-ce que les gens qui sont le plus en forme sont plus à risque que les autres de développer des troubles cardiaques potentiellement mortels ? Les recherches suggèrent une piste d’explication : en matière de santé cardiaque, il se pourrait qu’il vaille mieux ne pas abuser des bonnes choses.
Lorsque nous nous penchons sur les indices rassemblés par les scientifiques, il apparaît clair que la pratique d’une activité physique joue un rôle clé dans le maintien en bonne santé du cœur et dans la diminution du risque de fibrillation auriculaire pour la majorité de la population.
Des niveaux d’activité physique plus élevés pourraient n’avoir un effet protecteur que chez les femmes. En effet, l’étude a également révélé que lorsque les niveaux d’activité physique étaient jusqu’à trois fois supérieurs aux recommandations, le risque de fibrillation auriculaire était réduit d’environ 20 % supplémentaires chez les femmes, mais pas chez les hommes.
L’exercice physique apparaît également comme un traitement fondamental pour les patients déjà atteints de fibrillation auriculaire. Une méta-analyse menée par mes collègues et moi-même a montré que chez les patients atteints de fibrillation auriculaire, l’exercice physique réduisait le risque de récidive en matière d’arythmie de 30 %. Il améliorait également les symptômes, la qualité de vie et la condition physique desdits patients.
Il s’est cependant avéré difficile de déterminer quelle quantité d’activité physique pouvait être optimale pour la rééducation, car la durée du programme, la fréquence des exercices et la durée des séances variait considérablement d’un participant à l’autre.
Si nos conclusions confirment bien que l’activité physique joue un rôle important dans la santé cardiaque, elles soulignent également notre manque de connaissance quant à la quantité d’exercice nécessaire pour optimiser cet effet protecteur. Or, le savoir est une condition sine qua none pour la mise en place d’interventions de « médecine personnalisée ».
En outre, étant donné la popularité croissante des épreuves d’endurance, qu’il s’agisse de marathons classiques ou d’ultra-trails en montagne, il est important de déterminer à partir de quels volumes d’exercices des conséquences délétères pour le cœur peuvent survenir.
La dose fait-elle le poison ?
Nos précédentes recherches ont démontré que la relation entre activité physique et risque de fibrillation auriculaire suit une courbe « en J ». En d’autres termes, cela signifie qu’augmenter son niveau d’activité physique jusqu’à atteindre les niveaux recommandés dans les directives des autorités sanitaires est associé à une réduction significative du risque de fibrillation auriculaire. Cependant, lorsque ces recommandations sont très largement dépassées, en pratiquant par exemple dix fois plus d’activité physique que ce qui est recommandé, une augmentation du taux de fibrillation auriculaire est constatée.
Par ailleurs, des analyses d’imagerie menées sur des cœurs d’athlètes qui pratiquent l’endurance à haut niveau ont également révélé que certains d’entre eux présentaient des traces de cicatrices sur le myocarde (le tissu musculaire du cœur), lesquelles peuvent être un signe avant-coureur de fibrillation auriculaire ainsi que d’autres troubles cardiaques.
Une méta-analyse a par exemple montré que les athlètes avaient un risque près de quatre fois plus élevé de fibrillation auriculaire que les non-athlètes. Cette analyse incluait des personnes qui ne présentaient aucun signe ou symptôme d’autres problèmes cardiaques. Il est intéressant de noter que les athlètes plus jeunes présentaient un risque plus élevé de fibrillation auriculaire que les athlètes plus âgés. Ce constat souligne la nécessité de mener des recherches complémentaires pour comprendre la cause de cette situation.
En outre, hommes et femmes semblent présenter des profils de risque différents. Ainsi, une étude portant sur 402 406 personnes a révélé que les hommes qui déclaraient faire plus de dix fois la quantité hebdomadaire recommandée d’activité physique présentaient un risque de fibrillation auriculaire accru de 12 %. Ce risque ne semblait en revanche pas plus élevé chez les femmes qui s’entraînaient de la même façon. Pour avoir un ordre d’idée, ce niveau d’activité physique équivaut à peu près à sept heures d’exercice physique intense (course, vélo pratiqué à haute intensité) par semaine.
Autre point à souligner : il semblerait que le risque de fibrillation auriculaire chez les athlètes qui pratiquent l’endurance ne soit pas uniquement lié à la quantité d’exercice, mais également à la combinaison entre la charge globale d’entraînement et son intensité, sur le long terme.
Ainsi, une étude suédoise portant sur environ 52 000 skieurs de fond a révélé que les sportifs qui participaient à un plus grand nombre de courses présentaient un risque de fibrillation auriculaire supérieur de 30 % par rapport aux autres. Le fait pour des athlètes de réaliser les chronomètres les plus rapides à l’arrivée était également associé à un risque accru de 20 %.
Or, le nombre de courses auxquelles un athlète participe et le temps qu’il met pour les terminer reflètent probablement la charge et l’intensité de son entraînement. On peut imaginer que plus il participe à des courses, plus sa charge d’entraînement est importante, et plus il termine les courses rapidement, plus son entraînement est intense. Ce constat suggère que la quantité et l’intensité de l’exercice sont deux éléments clés en matière de risque de fibrillation auriculaire.
Les scientifiques ne comprennent pas encore pleinement les mécanismes qui sous-tendent cette relation entre exercice physique et fibrillation auriculaire. Celle-ci s’explique probablement par plusieurs facteurs qui agissent simultanément. Ainsi, après de nombreuses années d’entraînement très intense, le stress subi par le cœur peut entraîner une hypertrophie des oreillettes (les deux cavités supérieures) ainsi qu’une augmentation de la pression sur leurs parois, ce qui peut produire des cicatrices (un remodelage pathologique du tissu cardiaque).
Même après un unique marathon en montagne, les scientifiques ont observé des pics d’inflammation courts et fréquents dans le cœur des athlètes, ainsi qu’un ralentissement transitoire de la conduction électrique dans leurs oreillettes cardiaques.
Au fil du temps et de la répétition des entraînements ainsi que des événements sportifs, ces contraintes subies par le cœur pourraient mener à l’augmentation de la taille des cavités cardiaques et à la formation de cicatrices, ce qui augmenterait le risque de fibrillation auriculaire.
S’il est peu probable qu’un coureur « normal » voit son risque de fibrillation auriculaire augmenter s’il ne prépare qu’un seul marathon, il est tout de même important de s’entraîner intelligemment.
Il faut notamment tenir compte du volume et de l’intensité de son entraînement, en particulier s’il est pratiqué durant plusieurs heures chaque semaine. Cela pourrait contribuer à réduire le stress cardiaque et donc à diminuer le risque de fibrillation auriculaire.
Pour conclure, soulignons que la fibrillation auriculaire peut être traitée et prise en charge efficacement. Afin de bénéficier d’un traitement approprié, il est essentiel de savoir en détecter les symptômes : un pouls irrégulier, des palpitations ou un essoufflement.
Ben Buckley a reçu des fonds de recherche à l’initiative des chercheurs de BMS/Pfizer, Huawei EU, NIHR, MS Society et Research England.
Promis depuis plus de quarante ans, le « statut de l’élu local » devrait enfin voir le jour, avec un vote en deuxième lecture à l’Assemblée nationale le lundi 8 décembre. Très attendue par les élus, cette loi révèle pourtant un paradoxe : comment donner un statut à une fonction dont les contours restent flous et dont les conditions d’exercice sont profondément inégales ? À travers ce texte se révèle le profond malaise de l’engagement politique local.
Les élus locaux devraient prochainement disposer d’un « statut ». Une proposition de loi a été adoptée en ce sens en première lecture par le Sénat et l’Assemblée nationale. Elle a été approuvée à l’unanimité dans chacune d’elles. Un tel consensus, dépassant les clivages politiques, demeure suffisamment rare pour être souligné. En deuxième lecture, le texte adopté par le Sénat s’est rapproché de celui de l’Assemblée nationale. Il appartient donc à celle-ci de se prononcer sur les quelques dispositions restant en discussion, ce qu’elle fera le lundi 8 décembre 2025.
Une très longue attente
Les élus des collectivités territoriales (communes, départements et régions) réclament depuis longtemps ce statut, qui a leur a été promis par le législateur depuis le début des années 1980. Lors du lancement de la décentralisation, le législateur s’était engagé à créer ce « statut ». L’article 1er de la loi du 2 mars 1982 relative aux droits et libertés des communes, des départements et des régions prévoyait que des « lois détermineront […] le statut des élus ». Mais le législateur n’a jamais réalisé cet engagement.
Les élus locaux sont ainsi restés dans l’attente d’un statut qui s’est au fil du temps chargé d’une dimension idéalisée. Elle a nourri l’espoir que l’adoption de ce statut améliorerait leur situation.
L’adoption prochaine d’un statut de l’élu local pose néanmoins la question de sa définition. À vrai dire, cette question aurait dû être posée depuis longtemps. Mais, aussi étonnant que cela puisse paraître, les nombreux rapports qui ont été publiés sur le sujet n’ont jamais défini le statut de l’élu local. Ils ont exprimé le besoin d’un statut sans le définir.
Qu’est-ce qu’un statut ?
La définition courante d’un statut renvoie à un texte qui précise les droits et obligations des membres d’une communauté, souvent professionnelle, en fonction des missions qui leur sont confiées. Il fixe également les conditions d’accès à ces fonctions. Il existe ainsi un statut des fonctionnaires dans le code général de la fonction publique ou celui du salarié dans le Code du travail.
Dès lors, s’il n’existe pas de statut des élus locaux, l’on devrait supposer qu’aucun texte ne précise les droits et obligations des élus des collectivités territoriales. Mais est-ce le cas ?
Un statut déjà constitué
Curieusement, non. Les droits et obligations sont déjà fixés par le Code général des collectivités territoriales (CGCT).
Des droits
Le titre II du CGCT, consacré aux « garanties accordées aux élus locaux », énumère les droits dont ils bénéficient. Parmi eux figurent une indemnité de fonction, variable selon la taille de la collectivité et la nature des responsabilités ; une protection sociale et un dispositif de retraite ; des autorisations d’absence et des crédits d’heures permettant de quitter son entreprise pour l’exercice du mandat ; une possibilité de suspendre son contrat de travail avec droit à réintégration ; un droit à la formation, tant pour exercer son mandat que pour préparer son retour à l’emploi, etc. Tous ces droits ont été progressivement introduits dans le CGCT par le législateur.
Des devoirs
De même, des obligations des élus figurent dans plusieurs codes (et notamment dans le Code pénal). Depuis 2015, elles sont également résumées dans la « charte de l’élu local », inscrite à l’article L. 1111-1-1 du CGCT. Elle rappelle que l’élu doit exercer ses fonctions « avec impartialité, diligence, dignité, probité et intégrité », poursuivre « le seul intérêt général », ou encore prévenir ou faire cesser immédiatement tout conflit d’intérêts ». Cette charte doit être lue par le maire, ou le président de la collectivité, à l’intention de tous les élus lors de l’installation du nouveau conseil (municipal, départemental ou régional).
Les conditions d’accès aux mandats locaux sont, quant à elles, définies principalement par le code électoral.
Dès lors, si tous les éléments constitutifs d’un statut figurent déjà dans le CGCT, pourquoi le législateur s’apprête-t-il à instaurer formellement ce statut ? Et pourquoi les élus s’en félicitent-ils ?
Une réponse au malaise de l’élu local
Investi d’une portée symbolique, idéalisé et élevé au rang d’enjeu majeur, l’adoption du statut de l’élu local est perçue comme une réponse aux préoccupations des élus locaux.
Ces facteurs pèsent lourdement sur leur moral et contribuent à l’augmentation du nombre de démissions en cours de mandat. Selon un rapport du Sénat, près de 1 500 maires ont démissionné depuis le dernier renouvellement de 2020 (chiffre de février 2024).
Les gouvernements se sont inquiétés de ce malaise. C’est pourquoi la proposition de loi créant un statut de l’élu local a été soutenue dès son dépôt par les Premiers ministres qui se sont succédé durant la procédure législative (Michel Barnier, François Bayrou et Sébastien Lecornu, qui a salué l’adoption prochaine du texte lors du Congrès des maires le 20 novembre 2025).
Pourquoi ce nouveau texte est-il qualifié de statut de l’élu local ?
Un argument fréquemment avancé – très discutable – consiste à dire que la reconnaissance de droits et obligations dispersés dans la législation ne suffit pas. Un statut suppose un texte spécifique définissant la nature du mandat et regroupant les droits et les devoirs.
La proposition de loi vient combler cette absence. Elle formalise en effet le statut de l’élu local dans une nouvelle section du CGCT, énumérant de manière générale les principaux droits et obligations des élus locaux (en reprenant la « charte de l’élu local »).
Le texte comporte, par ailleurs, une disposition qui peut sembler relever de l’évidence. Elle précise que « tout mandat local se distingue d’une activité professionnelle et s’exerce dans des conditions qui lui sont propres ». Cette précision n’est pourtant pas anodine parce qu’elle a longtemps été mise en avant pour justifier la difficulté à concevoir un statut de l’élu local.
Une précision révélatrice d’un modèle de statut
La question de savoir si le « métier d’élu » ne pouvait pas être assimilé à une profession a constitué un obstacle à l’adoption d’un statut de l’élu local. Ainsi, la loi no 92-108 du 3 février 1992 relative aux conditions d’exercice des mandats locaux n’a pas utilisé le terme de « statut », mais de « garanties », « pour ne pas accréditer l’idée d’une professionnalisation de l’exercice des mandats locaux » (selon le sénateur Jean-Pierre Sueur).
Le débat sur la professionnalisation concerne surtout les exécutifs locaux (maires et adjoints, présidents et vice-présidents), qui sont de véritables administrateurs de leur collectivité, et sont soumis à ce titre à des régimes de responsabilité pénale et financière exigeants. On peut, en effet, les considérer comme des « managers » qui perçoivent en contrepartie de leur action des indemnités de fonction assimilées à une rémunération (soumises à l’impôt, ainsi qu’à la CSG et à la CRDS). Il peut donc paraître réducteur d’affirmer qu’ils n’exercent pas une forme d’activité professionnelle.
À l’inverse, le terme est peu adapté pour les conseillers sans délégation, dont la participation se limite aux séances du conseil et qui, pour la plupart, ne perçoivent aucune indemnité.
En réaffirmant que le mandat local se distingue d’une activité professionnelle, la proposition de loi renforce l’idée selon laquelle il s’agit d’une activité d’intérêt général exercée, en principe, à titre bénévole, conformément au principe selon lequel « le mandat de maire, d’adjoint ou de conseiller municipal est exercé à titre gratuit » (art. L. 2123-17 CGCT).
Cette affirmation ignore la très grande diversité des situations des élus locaux et des niveaux d’indemnisation. Si le conseiller municipal d’une petite commune ne perçoit rien, le conseiller départemental ou régional a droit à une indemnité mensuelle brute qui varie entre 1 500 euros à 2 700 euros brut selon la taille de la collectivité (CGCT, art. 3123-16 et art. 4135-16). De même, si le maire d’une petite commune ne peut recevoir plus de 1 000 € brut, les maires d’une ville, d’un président de département ou de région peuvent recevoir 5 600 € brut (CGCT, art. L. 2123-23 ; art. 3123-17 ; art. L. 4135-17) avec des possibilités de majoration de l’indemnité.
Il existe donc une forte disparité entre, d’une part, les élus qui ne peuvent assumer leur mandat qu’en exerçant une activité professionnelle ou en étant à la retraite et, d’autre part, ceux qui peuvent s’y consacrer pleinement.
La loi créant un statut de l’élu local est-elle symbolique ?
Cette loi est largement symbolique, parce que, tout bien considéré, elle officialise un statut qui existait déjà.
Elle apporte certes quelques ajustements. Pour les droits, elle augmente légèrement les indemnités des maires des petites communes. Elle étend aussi la protection fonctionnelle à tous les élus locaux et elle clarifie la notion de conflit d’intérêts en la limitant à la recherche d’un « intérêt privé » (et non à celui d’un « intérêt public »).
Pour les devoirs, elle prévoit l’obligation pour l’élu local de s’engager « à respecter les principes de liberté, d’égalité, de fraternité et de laïcité ainsi que les lois et les symboles de la République ». Cette disposition peut surprendre en ce qu’elle traduit une forme de défiance à l’égard de certains élus, que le législateur semble juger insuffisamment attachés aux principes républicains. Une telle obligation n’est en effet prévue pour aucune autre catégorie d’élus, qu’il s’agisse des députés, des sénateurs, ou même du président de la République.
Est-ce là le statut tant attendu par les élus locaux ? Leur offrira-t-il la protection et la reconnaissance qu’ils espéraient ? On peut en douter.
Arnaud Haquet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Source: The Conversation – France in French (3) – By Dominique Costagliola, Épidémiologiste et biostatisticienne, directrice de recherches émérite INSERM, Institut Pierre Louis d’Epidémiologie et de Santé Publique, Sorbonne Université, INSERM et Membre de l’Académie des Sciences, Inserm
Épidémiologiste et biostatisticienne, membre de l’Académie des sciences, Dominique Costagliola est directrice de recherche émérite à l’Inserm. Cette figure de la recherche contre le VIH fait le point pour « The Conversation » sur la situation de l’épidémie en France, et revient sur les conséquences, au niveau mondial, du retrait des aides états-uniennes.
The Conversation : En France, combien de personnes vivent actuellement avec le VIH ?
Dominique Costagliola : En 2023, selon les estimations de Santé publique France, 181 000 personnes vivaient avec le VIH dans notre pays.
Les taux de découverte de séropositivité annuels sont particulièrement élevés dans les départements et régions d’outre-mer. Dans les Antilles, on dénombrait 200 nouveaux diagnostics par million d’habitants à la Martinique et 156 pour l’ensemble Guadeloupe, Saint-Martin et Saint-Barthélemy. À Mayotte, ce taux est de 306. En Guyane, il monte à 672. Cela semble peu en nombre de personnes, mais rapporté à la population, c’est conséquent.
Que peut-on dire de la dynamique de l’épidémie dans notre pays ?
D. C. : Les estimations d’incidence de Santé publique France indiquent une stabilisation dans toutes les populations considérées (personnes hétérosexuelles nées à l’étranger, personnes hétérosexuelles nées en France, HSH nés en France, HSH nés à l’étranger, usagers de drogues injectables, personnes trans contaminées par rapports sexuels).
Cette tendance tranche avec les évolutions contrastées qui avaient été observées entre 2012 et 2021. Sur cette période, l’incidence a baissé en France, cependant cette baisse se voyait surtout chez les hommes ayant des relations sexuelles avec les hommes (HSH) nés en France.
Depuis 2022, le nombre de nouveaux diagnostics ne diminue plus dans cette population, ce qui est une source de préoccupation. À l’inverse, alors qu’il augmentait chez les HSH nés à l’étranger sur la même période, il se stabilise depuis deux ans.
Les chiffres révèlent que la baisse de l’incidence chez les HSH était modeste de 2012 à 2015. Le changement observé est probablement en partie lié à la modification des recommandations de prise en charge. À partir de 2013, ces dernières ont préconisé de « mettre en place un traitement antirétroviral chez toute personne vivant avec le VIH », autrement dit dès le diagnostic. Auparavant, quand un individu était diagnostiqué, il n’était pas immédiatement mis sous traitement antirétroviral (on attendait que son taux de lymphocytes T CD4 – les cellules immunitaires qui sont progressivement détruites par le virus – diminue).
Ce changement de paradigme a eu un impact sur la circulation de la maladie. En effet, la charge virale des personnes sous traitement est contrôlée. En conséquence, elles ne transmettent pas le virus.
L’accentuation de la baisse à partir de 2016 peut quant à elle s’expliquer par la mise à disposition de la PrEP (prophylaxie pré-exposition), innovation qui s’est répandue progressivement, essentiellement dans ce groupe.
Pour mémoire, cette approche consiste à fournir un traitement antirétroviral préventif aux personnes non encore infectées par le VIH mais à risque d’être exposées, afin de prévenir la contamination. Il s’agit d’une mesure complémentaire aux autres moyens de prévention. Concrètement, les individus concernés prennent des comprimés, quotidiennement ou à la demande (dans ce cas, avant et après une prise de risque).
La pandémie de Covid-19 a-t-elle eu un impact sur l’épidémie de VIH en France ?
D. C. : On constate qu’en 2020, le nombre de nouveaux diagnostics a diminué de façon importante. On peut probablement y voir en partie l’effet de la pandémie de Covid-19 : on dépistait moins à cette époque, en raison des perturbations du système de santé. Le fait qu’il y a eu à cette époque davantage de distanciations sociales qu’à l’accoutumée a peut-être aussi contribué à limiter la transmission.
Depuis ce plus bas niveau, estimé à 4 500 nouveaux cas environ en 2020, une remontée du nombre de nouveaux diagnostics a été observée. Elle pourrait être simplement due à la reprise de l’activité de dépistage, voire à son augmentation. En effet, depuis 1er janvier 2022, il est possible d’effectuer un dépistage du VIH dans tous les laboratoires d’analyses biologiques de France, sans ordonnance.
En 2024, 8,5 millions de tests VIH ont été réalisés, lesquels ont mené à la découverte de 5 100 nouveaux diagnostics de séropositivité. Ce chiffre semble indiquer une tendance à la stabilisation, mais il faudra voir si celle-ci se confirmera dans les années à venir.
Qui sont ces personnes, et sait-on comment elles ont été contaminées ?
D. C. : L’âge au moment du diagnostic est très variable selon la population considérée. Chez les personnes hétérosexuelles, la part des seniors (50 ans et plus) est nettement plus importante que dans les autres populations. Parmi les 5 100 personnes nouvellement diagnostiquées en 2024, 44 % étaient nées en France, et 56 % à l’étranger.
Les deux modes principaux de contamination sont les rapports hétérosexuels (53 % des cas en 2024), et les rapports sexuels entre hommes (42 % des diagnostics). Les autres modes de contamination sont beaucoup moins fréquents : le partage de matériel d’injection dans le cas des usagers de drogues représentait 1 % des diagnostics, les contaminations mère-enfant 1 % également, les contaminations sexuelles de personnes trans 2 %.
On remarque qu’en 2024, 47 % des personnes nées à l’étranger qui ont découvert leur séropositivité en France se sont avérées avoir été contaminées après leur arrivée dans notre pays.
Les personnes vivant avec le VIH sans le savoir constituent une source particulière de préoccupation. Selon Santé publique France, elles étaient environ 9 675 fin 2024. Si ce chiffre est en baisse de 10 % par rapport à 2023, il nécessite de poursuivre les efforts en matière de dépistage.
C’est un point important, car pour limiter la transmission, il est essentiel de raccourcir le délai qui s’écoule entre le moment où un individu est contaminé et celui où il est diagnostiqué…
D. C. : En effet, car si l’on ne sait pas que l’on est infecté, on ne va pas prendre de précaution, et donc on va être susceptible de contaminer d’autres personnes. À l’inverse, les données de la littérature scientifique démontrent que quand les gens connaissent leur séropositivité, ils prennent moins de risques.
Par ailleurs, une fois diagnostiqué, on reçoit un traitement qui permet de contrôler la charge virale. À partir de ce moment, on ne transmet plus le virus. Donc plus tôt on se fait dépister, plus le risque de transmettre le virus est limité, car ce sont plutôt les personnes qui ignorent leur statut qui sont à la source des nouvelles contaminations.
Enfin, plus les traitements sont débutés tôt, meilleures sont les chances de parvenir à contrôler le virus et à restaurer le système immunitaire.
À l’heure actuelle, quel est le délai entre la contamination et le diagnostic ?
D. C. : Santé publique France l’estime à 1,7 an en médiane, mais il varie beaucoup selon la situation considérée.
Ainsi, ce délai est d’environ 3 ans pour les hommes hétérosexuels nés à l’étranger. Il est d’un peu plus de 2 ans et demi pour les femmes hétérosexuelles nées à l’étranger, et d’un peu moins de 2 ans et demi pour les hommes hétérosexuels nés en France. Pour les hommes ayant des relations sexuelles avec les hommes nés en France, il est légèrement inférieur à un an, et légèrement supérieur à un an pour les HSH nés à l’étranger et les personnes trans contaminées par rapport sexuel.
On sait aussi que le risque de contamination est plus élevé chez les personnes précaires, qui ont moins de possibilités de s’occuper correctement de leur santé. Il s’agit là d’un obstacle à surmonter pour être capable de gérer correctement l’épidémie.
D. C. : L’Agence nationale de sécurité du médicament et des produits de santé (ANSM) a établi en novembre 2015 une recommandation temporaire d’utilisation (RTU) du Truvada pour la PrEP, devenue effective en janvier 2016. Ce médicament est une association entre deux molécules qui inhibent des enzymes indispensables au bon fonctionnement du VIH (ténofovir – ou TDF – et emtricitabine – ou FTC).
Selon les données du groupement d’intérêt scientifique EPI-PHARE, qui depuis 2017 assure le suivi de l’évolution de l’utilisation de Truvada ou de ses génériques en France dans le cadre d’une PrEP, durant le premier semestre 2025, 67 505 personnes utilisaient effectivement la PrEP, que ce soit en initiation ou en renouvellement. Les personnes qui y ont eu recours en France entre le 1er janvier 2016 et le 30 juin 2025 sont principalement des hommes (94 %), âgés de 33 ans en médiane. La grande majorité (69 %) résidait dans des communes appartenant à des unités urbaines de plus de 200 000 habitants.
On ne sait pas dans quelle mesure la PrEP couvre correctement les populations les plus à risque, mais on peut supposer que ce n’est sans doute pas suffisant, en tout cas pour la prévention.
D’autres médicaments soulèvent de grands espoirs pour limiter la transmission : les PrEP injectables. De quoi s’agit-il, et où en est-on en France ?
D. C. : À l’heure actuelle, en France, la PrEP repose sur l’association TDF/FTC. Ces molécules sont fabriquées par plusieurs laboratoires, sous forme générique. Elles sont donc bon marché.
À côté de ces PrEP, qui se prennent sous forme de cachets, sont développées des PrEP injectables, comme le cabotégravir (du laboratoire VIIV HEALTHCARE – qui est également utilisable en traitement, en bithérapie).
En PrEP, cette molécule requiert une injection tous les deux mois, en intramusculaire. Elle dispose d’une autorisation de mise sur le marché au niveau européen, mais sa commercialisation en France reste en suspens, car les discussions sur son remboursement n’ont pas encore abouti. Une étude est en cours pour évaluer le service médical rendu par rapport à la PrEP TDF/FTC.
Une autre PrEP injectable, le lénacapavir (laboratoire Gilead), a fait beaucoup parler d’elle en raison de la formidable efficacité dont elle a fait montre lors des essais cliniques : durant ces derniers, aucune infection n’a été détectée. Certes, les échantillons étaient de taille modeste, mais ça n’en est pas moins impressionnant.
En ce qui concerne les traitements antirétroviraux, où en est-on ? Sont-ils satisfaisants ?
D. C. : Aujourd’hui, nous disposons en France de traitements qui permettent de prendre en charge toutes les situations cliniques, y compris les personnes porteuses de virus très résistants. On retrouve ici encore le lénacapavir, mentionné précédemment, qui dispose d’une indication dans de tels cas de figure. L’efficacité de cette molécule repose sur son mode d’action totalement nouveau : elle interagit avec les protéines de la capside du VIH-1, bloquant différentes étapes du cycle de réplication viral.
De nouvelles molécules sont en cours de développement, notamment les traitements injectables avec seulement quelques injections par an, ou dans de nouvelles familles ciblant de nouveaux gènes du virus ou dans les familles existantes.
Ces traitements, bien qu’ayant un coût et devant être pris à vie, permettent néanmoins aux personnes vivant avec le VIH d’avoir une espérance de vie qui se rapproche beaucoup de celle de la population générale. À condition que le diagnostic soit fait suffisamment tôt, afin de contrôler rapidement la charge virale, avant que les taux de LT CD4 ne diminuent trop.
Or, en 2024, environ 26 % des gens étaient encore diagnostiqués à un stade avancé de la maladie, autrement dit avec un taux de LT CD4 inférieur à 200 par millimètre cube de sang – ce qui correspond à un risque élevé de développer des maladies, ou bien à un moment où ils avaient déjà une pathologie opportuniste classant au stade sida – résultant de l’immunodépression induite par l’infection. Dans cette situation, le temps pour réussir à récupérer des taux de LT CD4 supérieurs à 500 et diminuer l’inflammation qui est induite par l’infection sera très long.
Le fait d’avoir été immunodéprimé et de l’être resté longtemps, soit en raison d’un diagnostic tardif, soit parce que l’on a été infecté avant la mise à disposition des traitements ou avant la recommandation universelle de traitement, peut avoir des conséquences à long terme sur le risque de pathologies, telles que les cancers ou les maladies cardiovasculaires.
C’est aussi le cas lorsqu’on a été exposé aux premières générations d’inhibiteurs nucléosiques de la reverse transcriptase (AZT, DDI ou D4T) ou d’inhibiteurs de protéase (lopinavir)
Quelle proportion de patients cela représente-t-il ?
D. C. : On sait qu’à l’heure actuelle, environ un quart des gens qui sont dans les files actives (une file active se définit comme le nombre de patients différents vus en consultation au moins une fois dans l’année, ndlr) ont été diagnostiqués avant 1996. Donc avant l’avènement des trithérapies.
Les trois quarts restants ont majoritairement été diagnostiqués avant 2013 (autrement dit avant la recommandation universelle de traitement). Les histoires de ces patients diffèrent donc en fonction du contexte historique de leur prise en charge.
Il faut cependant souligner qu’en France, 97 % des gens sont traités et ont une charge virale contrôlée. À condition de ne pas arrêter le suivi, bien entendu. Or, un certain nombre de personnes, qu’on a du mal à évaluer, arrêtent parfois leur prise en charge.
Nous sommes en 2025, et les recherches sur un potentiel vaccin sont toujours en cours. Pourquoi est-ce si compliqué ? Qu’apporterait un vaccin ?
D. C. : Si efficaces que soient les traitements, ils doivent être pris à vie, et ne sont pas parfaits (en raison de certains effets secondaires notamment). Par ailleurs, ils coûtent cher. Les trithérapies qui sont les plus populaires à l’heure actuelle ne sont pas encore disponibles sous forme générique. Un vaccin abordable qui conférerait une protection de long terme permettrait de diminuer drastiquement les nouvelles infections et le coût de leur prise en charge.
La difficulté est que pour développer un vaccin qui fonctionne contre un micro-organisme, il faut trouver un moyen d’activer les défenses que notre corps met en œuvre spontanément face à lui. Or, le VIH est précisément problématique parce qu’il échappe au système immunitaire, et le dégrade…
On ne connaît que quelques cas exceptionnels de personnes qui ont développé une immunité naturelle face à ce virus. Étant donnée la rareté de tels individus, monter des projets de recherche est très compliqué. Et ce, d’autant plus que la généralisation des traitements empêche d’en découvrir de nouvelles.
Soulignons cependant que la difficulté à mettre au point un vaccin ne signifie pas qu’il faille abandonner les recherches. On ne sait jamais ce qui pourrait en sortir, comme l’illustre l’histoire des vaccins à ARN messager (ARNm) : lorsque quelques équipes ont commencé, il y a vingt ans, à envisager d’utiliser cette molécule comme vaccin, beaucoup de gens leur ont ri au nez, en raison des difficultés techniques à surmonter… On sait comment les choses ont fini par tourner.
Ce point dépasse le cadre de la lutte contre le VIH. Les politiques de la recherche doivent offrir aux scientifiques une marge de manœuvre afin qu’ils puissent travailler également sur des sujets non ciblés, à côté de ce qui semble plus immédiatement prometteur ou « productif ». Adopter un tel équilibre – raisonné – est garant d’un financement de la recherche sain. Et il faut soutenir les jeunes scientifiques, pour qu’ils puissent réaliser pleinement leur potentiel et atteindre leur point de capacité maximum !
À propos de financements, l’administration Trump, aux États-Unis, a brutalement coupé de nombreuses subventions consacrées à la lutte contre le VIH. Quelles sont les conséquences de ces décisions ?
Le programme PEPFAR (President’s Emergency Plan for AIDS Relief, lancé en 2003), plan d’aide d’urgence destiné à la lutte contre le VIH, a finalement été maintenu en partie après une suspension, mais son fonctionnement a été fortement impacté.
Il faut savoir que dans certains pays à revenus limités, l’infrastructure de soins et les traitements étaient financés à 80 %, voire jusqu’à 100 %, à la fois par l’USAID et par PEPFAR, qui finançait les antirétroviraux. Soulignons à ce sujet qu’il ne s’agit pas d’avoir les traitements, il faut également les infrastructures pour les distribuer, faire les tests de dépistages, assurer le suivi des patients… C’est ce que permettait USAID. Son arrêt brutal a totalement désorganisé les services de soins pour les personnes vivant avec le VIH.
Le retrait des financements américains a aussi eu des conséquences sur l’agence ONUSIDA (UNAIDS, en anglais), l’agence de l’ONU dédiée à la lutte contre le VIH : ses services aux communautés ont dû être fortement réduits. Sur 70 bureaux nationaux ayant fait remonter des données, 40 % ont indiqué avoir dû cesser ces activités.
Les auteurs d’une étude publiée dans la revue Lancet en mai 2025 ont par ailleurs estimé qu’une réduction de 24 % de l’aide internationale, combinée à l’arrêt du soutien du PEPFAR, dans les pays à revenus faibles et intermédiaires pourrait entraîner entre 4,43 millions et 10,75 millions de nouvelles infections par le VIH, de 0,77 million à 2,93 millions de décès supplémentaires liés au VIH sur la période 2025 et 2030, par rapport au statu quo. Si PEPFAR revenait à un niveau équivalent à celui d’avant la crise, ces chiffres pourraient être ramenés respectivement de 0,07 million à 1,73 million de nouvelles supplémentaires et de 0,005 million à 0,061 million de décès.
Ces coupes menacent aussi la recherche, notamment en Afrique du Sud, qui figure parmi les pays les plus touchés. Il s’agit non seulement l’un des pays où l’incidence est la plus élevée, mais aussi l’un de ceux qui comptent la plus grande expertise en matière d’essais cliniques…
Il faut noter que la baisse de l’aide américaine n’est pas la seule en cause, même si sa brutalité a limité les capacités de réaction. Dans de nombreux pays riches, dont la France, l’aide publique au développement est en baisse. Dans ce contexte, les inquiétudes sur la reconstitution du Fonds mondial sont importantes.
Cette situation doit nous faire réfléchir sur le manque de sécurité que représente un mode de financement des systèmes de soin qui repose quasi exclusivement sur un seul bailleur. Il s’agit là d’une question qui dépasse le seul cadre de la lutte contre le VIH. C’est un enjeu majeur en matière de santé publique.
Dominique Costagliola est membre de l’association AIDES et de son conseil d’administration. Au cours des 5 dernières années, elle a fait un exposé non rémunéré en 2022 dans le cadre d’une réunion organisée avec le soutien de Pfizer sur “Recherche Clinique dans l’urgence, Pourquoi, Comment ? “. Au cours des 5 dernières années son laboratoire a reçu 1 contrat de recherches de Janssen sur l’utilisation de la rilpivirine en France.
Source: The Conversation – in French – By Sasha Séjaï, Doctorante en marketing durable et comportement du consommateur, Université de Caen Normandie
Vous aimez Noël ? Les marques aussi ! Pendant cette période de l’année, elles peuvent mobiliser un puissant levier du marketing : la nostalgie et le cortège des émotions qui lui sont associées. De quoi faire plaisir à tout le monde ? Pas si sûr, car, tandis qu’on se tourne ému vers le passé toujours recommencé, on finit par en oublier le futur bien incertain.
Alors que vous finalisez l’achat des bonbons et des costumes pour le soir d’Halloween, au détour d’un rayon, c’est bien Mariah Carey que vous entendez et son infatigable tube de Noël ! La fête ne se limite plus à la semaine du 24 décembre, mais colonise désormais plus de deux mois dans l’année. Si elle plaît autant aux consommateurs, c’est qu’elle active chez nous une émotion particulièrement agréable, que, de surcroît, les marques savent parfaitement exploiter : la nostalgie !
Madeleine de Proust
La nostalgie, une émotion antinomique, à la fois agréable et douloureuse, qui invoque un passé idéalisé, presque parfait, qui tend, parfois, à ternir le présent. Historiquement, le terme remonte à 1688 lorsque le médecin alsacien Johannes Hofer introduit le concept de Heimweh en référence aux mercenaires helvétiques qui servent en France et en Italie. Selon Hofer, la nostalgie est une pathologie traumatique.
En psychologie, le concept de nostalgie se réfère à la mémoire autobiographique des individus ; une odeur, une chanson ou un plat, peuvent réactiver des souvenirs de l’enfance. Il s’agit de l’« effet madeleine de Proust». Les marques savent l’exploiter dans leurs boutiques en multipliant les stimulations olfactives et gustatives (chocolat chaud, biscuits de Noël, sapin), même quand elles ne vendent pas ces produits, créant ainsi une atmosphère familiale et nostalgique.
Dans cette perspective, Noël est une véritable bombe de nostalgie : musiques, décorations et plats, tous agissent comme des catalyseurs de souvenirs et d’émotions rassurants.
L’effervescence collective
D’un point de vue sociologique, la nostalgie est une expérience collective. Elle s’illustre au travers de rituels partagés qui consolident les liens sociaux entre les individus. Comme l’a souligné le sociologue Émile Durkheim, les rituels produisent une « effervescence collective ».
De ce fait, la nostalgie est un levier émotionnel puissant qui réactive les souvenirs d’antan et rassure les consommateurs. Les marques l’ont bien compris et proposent lors des fêtes de fin d’année, non plus des produits mais de véritables capsules temporelles. Des marques ont réussi le pari de transformer des produits saisonniers en rituels attendus par les consommateurs.
Chaque année, le Caramel Brulée Latte ou le Peppermint Mocha de Starbucks déclenchent les mêmes réactions enthousiastes : les clients savent qu’ils retrouveront le goût, l’odeur et le packaging, autant de repères sensoriels puissants. Ces marques ont réussi à introduire de véritables repères temporels, transformant ce qui appartenait autrefois aux traditions familiales – odeurs, recettes et rituels familiaux – en rituels partagés avec la marque, que les consommateurs attendent tous les ans.
Un saut arrière dans le temps
Autre marqueur avec lequel les marques aiment jouer : le design des produits. Le reste de l’année, elles s’efforcent d’être originales et de se démarquer, lors de Noël, la tendance s’inverse. Le style vintage – les typographies anciennes, illustrations d’antan ou papiers cadeaux d’époque – font un saut dans le temps et transforment l’achat en une expérience mémorielle.
Cette appropriation temporelle s’illustre avec les calendriers de l’Avent et de l’après, qui constituent une pure invention du marketing. Dans nos souvenirs, ces calendriers se ressemblaient tous : un petit chocolat quotidien pour accompagner notre impatience jusqu’au soir de Noël. Aujourd’hui, ils se déclinent sous toutes les formes et s’adressent principalement aux adultes : cosmétiques, figurines, bières, accessoires de luxe… Les marques ont réussi le pari de s’approprier une fête familiale et d’imposer de nouveaux codes.
Noël commence désormais dès le mois d’octobre et s’étend jusqu’au mois de janvier. Cette extension temporelle transforme Noël en outil idéal pour alimenter la surconsommation légitimée par l’atmosphère festive et nostalgique. Ainsi, les marques ne construisent plus leurs campagnes pour un consommateur rationnel mais davantage pour l’enfant que nous étions. Comme l’explique la chercheuse Krystine Batcho, dont les travaux portent sur la nostalgie, les éléments de notre enfance apportent un réconfort émotionnel et répondent à notre besoin cognitif de se dire que, quoiqu’il arrive, tout finira par s’arranger.
Dilemme et stratégies de rationalisation
Si cette nostalgie procure réconfort et douceur, elle agit toutefois comme un frein à la transition écologique. Les décorations, la montagne de cadeaux et les repas gargantuesques en famille sont unanimement rattachés à nos souvenirs d’enfance. Renoncer à ces rituels peut donner l’impression de trahir l’enfant que nous étions.
France Culture 2020.
Ce dilemme illustre parfaitement l’état de dissonance cognitive. Nous savons tous que la surconsommation au moment des fêtes de fin d’année représente un coût écologique : surproduction et surconsommation de biens, énergie nécessaire pour les décorations, achats impulsifs… Pourtant, nous réduisons cet inconfort psychologique avec des stratégies de rationalisation « C’est juste une fois dans l’année » ou encore de neutralisation « Les vrais responsables ce sont les marques, pas moi ».
Comment concilier la dimension nostalgique du Noël de notre enfance sans sacrifier l’avenir ? Plusieurs pistes existent : fabriquer ses propres décorations en transformant l’activité en rituel familial, privilégier des cadeaux durables et locaux, ou préférer les moments partagés plutôt que les objets accumulés.
L’enjeu central est de préserver l’esprit de Noël tout en pensant au futur, pour que la nostalgie reste une douceur et ne devienne pas une amertume.
Sasha Séjaï est membre du laboratoire de recherche NIMEC. Elle a reçu des financements de l’Université de Caen Normandie.
Catherine Allix-Desfautaux et Olivier Badot ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.
Condamné pour son homosexualité en Grande-Bretagne, Oscar Wilde a trouvé refuge à Paris à la toute fin du XIX<sup>e</sup> siècle et y meurt en 1900. Ici en photo (à gauche) aux côté de son compagnon, Lord Alfred Douglas.
Paris n’a pas seulement accueilli les artistes et les rêveurs du XIXᵉ siècle : la ville fut aussi la base arrière des bannis, des insurgés et des souverains déchus venus d’Europe et d’Asie. Dans ses cafés, ses imprimeries et ses hôtels, se tissaient des alliances improbables, parfois décisives. Comment la capitale française est-elle devenue un refuge où se réinventaient les luttes et les imaginaires politiques du siècle ?
Au XIXᵉ siècle, Paris est la terre d’asile : la ville offre aux exilés – malgré la barrière de la langue, leur isolement, leur anonymat et leurs différences culturelles – un espace où peuvent se former de grands mouvements politiques, faisant circuler des idées nouvelles et permettant de faire naître des courants de pensée.
Cette idée de Paris comme foyer révolutionnaire s’installe dès 1830 et les « Trois Glorieuses », ces trois journées de révolte qui renversent Charles X. La presse s’émancipe et les clubs secrets politiques fleurissent dans les décennies qui suivent. Paris devient un exemple et, ailleurs en Europe, l’élan révolutionnaire trouve un écho. Mais, quand l’élan se heurte – souvent – à l’échec ou à la répression, Paris accueille les premiers exilés. La tradition d’asile s’ancre dans la ville.
En 1848, le printemps des peuples porte l’élan à son paroxysme, le droit d’asile est réaffirmé par la Deuxième République. C’est à ce moment-là qu’Alphonse de Lamartine, ministre des affaires étrangères, et le gouvernement provisoire, seulement quelques jours après avoir fait tomber la monarchie de Juillet, envoient le Manifeste à l’Europe, déclarant une doctrine de non-agression, de fraternité, mais aussi d’accueil des persécutés. La tradition d’asile, héritage de la Constitution de 1793, est réaffirmée dans l’esprit de la souveraineté révolutionnaire et populaire. Il deviendra l’un des fondements des idées progressistes et libérales que la seconde République entend faire siennes.
La capitale des bannis : quand l’Europe converge vers Paris
Paris ouvre ses portes à celles et ceux qui, de Vienne, Berlin, Milan à Budapest, sont pourchassés. Des journalistes, des étudiants, des avocats, des officiers, des républicains convergent vers la ville, qui devint la capitale de la liberté d’expression, du libéralisme, et du progrès politique.
De grandes figures de l’exil y passent : Karl Marx, installé rue Vaneau (VIIᵉ arrondissement) entre 1843 et 1845, y rédige sa critique du libéralisme allemand (Manuscrits de 1844). Lénine vit rue Marie-Rose (XIVᵉ) entre 1908 et 1912. Oscar Wilde, proscrit non pour délit politique mais pour mœurs, y trouve un dernier asile en 1897, preuve que Paris accueille aussi les amours « dissidents ».
Anti-impérialisme et réseaux clandestins : Irlandais et Indiens
À Paris, les Irlandais tissent des réseaux clandestins contre la Couronne, les Russes y fomentent des complots contre le tsar, les Polonais y attendent le retour de l’indépendance.
Dans l’adversité face à la couronne britannique se trouve un terrain fertile d’entente entre les Irlandais, déterminés à soustraire par la force leur patrie à la domination anglaise, et d’anciens rois déchus indiens, spoliés par la Compagnie des Indes orientales britanniques. Parmi eux : Suchet Singh (1841–1896), à la tête du petit royaume himalayen de Chamba réduit à l’impuissance, ou Duleep Singh (1838-1893), le dernier maharajah de la nation sikhe, dépossédé, puis exilé du Pendjab à vie.
Mes recherches m’ont amené sur les pas de Duleep Singh, qui rencontre les réseaux nationalistes irlandais chez Reynold’s, un bar irlando-américain situé rue Royale (VIIIᵉ), immortalisé dans un dessin d’Henri Toulouse-Lautrec. Parmi ce noyau de la révolte irlandaise à Paris se trouvent notamment les frères Joseph et Patrick Casey, mais aussi Patrick Egan, James Stephens et Eugene Davis. Ce dernier édite le journal United Ireland à Paris, interdit en Grande-Bretagne et mène une double vie : imprimeur le jour, il rejoint ses compagnons conspirateurs et militants la nuit tombée. En 1887, les nationalistes irlandais, en quête d’alliances contre Londres, facilitent les premiers contacts entre le maharajah déchu Duleep Singh et des intermédiaires dans ses démarches (vaines) pour tenter de reconquérir son trône.
Quelques années plus tard, le 22 octobre 1893, seul dans son appartement du VIIIe arrondissement de Paris, Duleep Singh s’éteint, après des années d’errance d’hôtel en hôtel. Au lendemain de sa mort, la presse française relaie la nouvelle : le « maharajah de Lahore » est mort à Paris, et toute la France s’intéresse à cet homme venu d’ailleurs.
Aujourd’hui, l’histoire de ces exilés est tombée dans l’oubli. Pourtant, tout espace est façonné par ses habitants, et tout lieu porte les traces de son histoire. Paris s’est transformé de ville d’accueil des expatriés et des immigrés en fabrique de libertés. Elle est devenue un espace de lutte des indépendances.
Et la colonisation française ?
Ville laboratoire de l’anticolonialisme mondial, la capitale française est pourtant – et d’abord – une capitale impériale. Elle accueillera des militants venus de ses propres colonies au début du XXe siècle. Les nationalistes indiens et les fenians irlandais seront suivis par des nationalistes algériens, des militants indochinois ou des écrivains antillais.
Des militants d’Afrique du Nord s’organiseront, sous Messali Hadj en 1926, jouant un rôle majeur dans la prise de conscience politique des travailleurs nord-africains installés en France. C’est ainsi que l’Étoile nord-africaine (ENA) revendique la fin du colonialisme français et la création d’un État algérien indépendant. Hô Chi Minh fonde à Paris une mouvance anticoloniale vietnamienne, en structurant un réseau révolutionnaire au début des années 1920. Il y crée le journal le Paria dès 1922, qui lui servira de tribune anticolonialiste. L’Antillais Aimé Césaire et son épouse, Suzanne Roussi-Césaire, y forgent le concept de négritude dans les années 1930 pour dénoncer le colonialisme. Paris tolère ces hommes et ces femmes sur son territoire, mais leur présence demeure étroitement surveillée par la police et les services de renseignement.
En laissant ces hommes et ces femmes penser, discuter, s’organiser, la France nourrissait sans le vouloir des aspirations qui finiraient par contester son pouvoir colonial. Ce phénomène s’accélère dans les années soixante, alors que la répression fait rage. On peut citer le cas de Djamila Boupacha, militante du Front de libération nationale algérien (FLN), violée et torturée par l’armée en 1960. L’avocate Gisèle Halimi et l’écrivaine Simone de Beauvoir dénoncent les faits et révèlent les pratiques de l’armée française en Algérie. Paris, éternelle capitale des révolutions, se réinventait alors à travers un nouveau chemin, celui de la défense des droits humains.
Andrew Milne ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Source: The Conversation – France (in French) – By Jean-Marie Cardebat, Professeur d’économie à l’Université de Bordeaux et Professeur affilié à l’INSEEC Grande Ecole, Université de Bordeaux
Le célébrissime guide Michelin va proposer un guide des domaines viticoles. La diversification peut sembler logique. Après les mets, les vins… Toutefois, l’environnement concurrentiel est tel que rien ne dit que le nouveau guide connaîtra le même succès que son glorieux aîné. À l’ère des réseaux sociaux et des influenceurs, quelle place peut espérer occuper un enième guide professionnel ?
Dans un secteur déjà saturé de guides, d’experts, de revues spécialisées et de prescripteurs en tout genre, le guide Michelin annonce son entrée sur le marché de la notation des domaines viticoles. Erreur stratégique en perspective ou poursuite d’une diversification réussie ? Si la question reste ouverte pour le moment, on peut se demander si le guide Michelin ne se trompe pas (légèrement) de cible. Car la notation de la dimension œnotouristique des domaines semblerait a priori bien plus pertinente pour ce guide, né en 1900, qui évalue le secteur de l’hospitalité depuis 1926 (pour les restaurants et depuis 2024 pour les hôtels).
Un marché des experts déjà très concurrentiel
Le segment de l’expertise viticole est dominé depuis plusieurs décennies par une série d’acteurs spécialisés. Parmi les plus connus, on trouve le Wine Advocate (fondé par le célèbre Robert Parker), le Wine Spectator (la revue américaine spécialisée sur le vin qui touche 3,5 millions de lecteurs), la célèbre experte anglaise Jancis Robinson et la revue britannique Decanter (qui organise un concours international des vins bien connu), ou pour la France, La Revue du Vin de France et le Guide Hachette.
Chacun d’entre eux possède des méthodologies stabilisées et une légitimité historique auprès des particuliers mais aussi auprès des professionnels (détaillants, négociants, importateurs). Ce monde de l’expertise dans le vin et tous ses enjeux sont décrits de façon détaillée dans un article académique. Il souligne notamment le rôle central que ces acteurs jouent dans la formation des prix, en particulier pour les vins fins. L’entrée d’un nouvel évaluateur généraliste, en l’occurrence un guide gastronomique, même prestigieux, se positionnerait face à des experts techniques dont le cœur de métier est déjà parfaitement installé. La voie est donc étroite pour Michelin.
Un déplacement vers les communautés de consommateurs
Plus grave, le guide Michelin se positionne en tant qu’expert traditionnel dans un monde où les consommateurs privilégient désormais l’information issue de leurs pairs plus que de celle émanant des experts. La littérature académique démontre cette prédominance nouvelle des consumers geeks qui alimentent par dizaines de millions les notes agrégées de sites comme Vivino ou CellarTracker.
À l’instar de l’hôtellerie et de la restauration, ces notes et commentaires de consommateurs tendent à supplanter l’influence des experts traditionnels. Ce sont ces notes qui font les prix du vin à présent, plus que celles des experts, y compris dans le haut de gamme. Cette tendance de fond réduit considérablement l’espace de marché potentiel pour le guide Michelin. Son entrée sur le marché de l’expertise du vin se fait donc à contretemps de l’évolution du marché.
Des critères de notation encore flous
Dans ce contexte, la capacité du guide Michelin à imposer une nouvelle grille d’évaluation reste incertaine, d’autant que les cinq critères annoncés demeurent flous : la qualité de l’agronomie, la maîtrise technique, l’identité, l’équilibre, la constance. Le vocabulaire est imprécis, trop général, sans métrique ni méthode avancée pour saisir des critères souvent qualitatifs et éminemment subjectifs.
Cela nuit à la lisibilité et à l’objectivité de la démarche. Au final, qu’apporte cette nouvelle grille de lecture ? Que mesure-t-on exactement ? La qualité du vin, les processus menant à la réalisation du vin ? Le guide Michelin navigue entre le monde de l’expertise de processus (agronomique) et de produit (œnologique). Ce positionnement ambigu pourrait ne pas être compris par les utilisateurs potentiels.
Un atout : le capital de marque international
Pour autant, la stratégie du guide Michelin n’est pas sans fondement. Elle s’appuie sur une notoriété mondiale et une audience internationale à fort pouvoir d’achat. Le guide espère donc capter dans un premier temps sa propre clientèle. La force de la marque est ainsi son argument majeur, et l’on sait l’importance de la marque dans le monde du luxe. Cette reconnaissance constitue notamment un levier puissant pour attirer des consommateurs étrangers en quête de repères simples, particulièrement dans des régions viticoles complexes comme la Bourgogne ou Bordeaux où le guide débutera son activité de notation viticole.
Le capital réputationnel du guide Michelin comprend aussi son savoir-faire en matière d’évaluation. Avec ses étoiles, le guide manie depuis 1926 un système d’évaluation multicritères opaque mais néanmoins reconnu et respecté. Notons d’ailleurs que tous les experts du vin développent un système qui leur est propre et dont la transparence n’est pas la première qualité.
Dès lors, d’un point de vue économique, la notation des domaines viticoles peut être interprétée comme un mouvement logique de diversification horizontale. Michelin capitalise sur sa compétence centrale – la construction de standards de qualité – pour pénétrer un secteur adjacent à celui de la gastronomie.
En attendant l’évaluation œnotouristique
Cette stratégie de diversification peut toutefois être interrogée. Le guide Michelin possède un savoir-faire et une réputation dans l’hospitalité. L’œnotourisme apparait alors comme le secteur lié au vin le plus pertinent. Le guide Michelin, fort de son expertise en matière de destinations, d’expériences et de services, aurait pu s’imposer de manière naturelle sur ce terrain en évaluant des critères, tels que la qualité de l’accueil, le parcours/la visite du domaine, la cohérence de l’offre touristique, la gastronomie locale associée, l’expérience globale du visiteur, etc. Autant de critères sur lesquels la compétence est déjà présente et l’avantage concurrentiel incontestable.
Legend 2025.
En outre, l’industrie œnotouristique représente aujourd’hui un marché en expansion rapide : 18 % de croissance moyenne annuelle en Europe, selon le Global Wine Tourism Report (2025) de la Commission européenne. L’œnotourisme (et le tourisme gastronomique, très souvent liés) sont totalement alignés avec l’histoire du guide Michelin et avec les attentes de la clientèle internationale premium qu’il capte déjà en partie.
A minima, une stratégie tournée vers l’œnotourisme aurait dû constituer une étape vers l’évaluation des vins et des vignerons. Le risque d’aller directement sur l’évaluation du vin est double. C’est d’abord le risque de dilution de crédibilité lié à un manque de légitimité. Mais aussi le risque d’arriver bien trop tard, à contre-courant des tendances, dans un marché du vin en plein essoufflement. La force de la marque suffira-t-elle ? L’avenir nous le dira.
Jean-Marie Cardebat est Président de la European Association of Wine Economists
Alors que Donald Trump exige qu’il démissionne, Nicolas Maduro refuse pour l’instant de quitter le pouvoir. Washington brandit la menace d’une intervention armée.
Donald Trump l’a exprimé on ne peut plus clairement : il souhaite la chute du régime de Nicolas Maduro, au pouvoir au Venezuela depuis qu’il a pris en 2013 la suite d’Hugo Chavez. Pour cela, le président des États-Unis brandit diverses menaces : bombardements, opérations clandestines de la CIA, voire intervention militaire au sol. Lui qui se targue d’avoir mis fin à plusieurs guerres depuis son retour à la Maison Blanche il y a un an est-il sur le point d’en démarrer une ? Entretien avec Thomas Posado, maître de conférences en civilisation latino-américaine contemporaine à l’Université de Rouen-Normandie, auteur, entre autres publications, de Venezuela : de la Révolution à l’effondrement. Le syndicalisme comme prisme de la crise politique (1999-2021) (Presses universitaires du Midi, 2023).
Une déflagration militaire entre les États-Unis et le Venezuela vous semble-t-elle aujourd’hui possible ?
Je pense que oui, même si j’étais plutôt sceptique il y a encore peu de temps. Aujourd’hui, un tel développement est envisageable, mais sous quelle forme ? Une guerre ouverte entre les deux États et une intervention terrestre comparable à celles qu’on a connues en Irak ou en Afghanistan me semble hautement improbable. Ne serait-ce que parce que, pour envahir le Venezuela, il faudrait mobiliser au moins 100 000 hommes et il y aurait sans doute des pertes assez importantes du côté de l’US Army, ce qui ne serait pas bien pris par l’opinion publique états-unienne et, spécialement, par une bonne partie de la base trumpiste.
Les dernières interventions militaires de Washington sur le continent, c’était unilatéralement au Panama en 1989 et de manière multilatérale en Haïti en 1994. Deux petits pays de moins de 80 000 kilomètres carrés, alors que le Venezuela, c’est deux fois la France en superficie. Trump voudra sans doute éviter de plonger le pays dans un nouveau Vietnam ou un nouvel Afghanistan.
En revanche, des frappes ciblées ou des interventions terrestres extrêmement localisées — sur une raffinerie pétrolière par exemple — apparaissent comme des mesures crédibles au vu du déploiement militaire des États-Unis en mer des Caraïbes, et au vu de certaines actions que leurs forces armées ont conduites ces derniers mois — je pense notamment à leurs frappes contre l’Iran l’été dernier.
Trump a annoncé qu’il avait donné son feu vert à des actions clandestines de la CIA sur le territoire vénézuélien. De quoi pourrait-il s’agir, concrètement ?
Le fait même qu’on sache publiquement que Trump autorise des opérations secrètes de la CIA montre qu’il s’agit d’une manœuvre de communication. Le principe même des opérations secrètes est qu’elles ne sont pas claironnées à l’avance ! Il faut donc voir dans la déclaration de Trump avant tout un élément de pression psychologique sur l’adversaire.
Il n’empêche que cette annonce peut aussi avoir une traduction concrète. L’assassinat de certains hauts dirigeants vénézuéliens, voire de Maduro lui-même, est difficile à écarter. On sait en tout état de cause que ce n’est pas le respect du droit international qui bloquerait Donald Trump en la matière. Il a déjà ordonné ce type d’élimination de dignitaires étrangers — par exemple, pendant son premier mandat, celle du général iranien Ghassem Soleimani. L’assassinat extrajudiciaire est une mesure qui est présente dans le répertoire d’actions des États-Unis.
Autre possibilité : endommager gravement l’économie vénézuélienne en sabotant des infrastructures pétrolières. Une grande partie de l’électricité au Venezuela vient du barrage hydroélectrique de Guri, situé dans le sud du pays. Si vous touchez ce point, vous pouvez durablement impacter le réseau électrique du pays.
Vous avez dit que le droit international importait peu à Trump. Mais il doit tout de même composer avec la législation de son propre pays, s’il entend s’en prendre avec force à un État étranger…
Il y a une dizaine de jours, Trump aurait eu une conversation téléphonique avec Maduro durant laquelle il aurait exigé que ce dernier démissionne et quitte le pays…
Il faut se méfier des déclarations des uns et des autres, mais apparemment, Trump aurait proposé à Maduro de s’exiler en Russie sous peine de représailles militaires et Maduro lui aurait répondu qu’il serait prêt à quitter le pouvoir, mais à condition que les sanctions soient levées ; qu’une centaine de dirigeants vénézuéliens soient amnistiés des accusation états-uniennes d’atteinte aux droits humains, de trafic de drogue ou de corruption ; qu’il continue à contrôler l’armée depuis son lieu d’exil ; et que sa vice-présidente, Delcy Rodriguez, assure un gouvernement par intérim. Conditions rejetées par Trump.
Du côté du pouvoir de Caracas, on a aussi laissé entendre que la discussion a été très cordiale et que Trump aurait invité Maduro à Washington — ce qui me semble peu crédible au vu des menaces qui pèsent sur le président vénézuélien, les États-Unis ayant promis 50 millions de dollars à quiconque faciliterait sa capture ! Je vois donc mal un sommet international entre les deux hommes ; mais ce qui est sûr, c’est qu’il y a des manœuvres de communication de part et d’autre.
Trump veut un changement de régime, idéalement sans intervention militaire : cela représenterait une vraie victoire diplomatique pour lui. Maduro, lui, semble éventuellement disposé à accepter de quitter le pouvoir, mais à condition que la personne qui lui succédera maintienne la continuité — pour reprendre une expression classique, il est prêt à tout changer pour que rien ne change.
Qu’est-ce que Maduro peut céder pour obtenir un tel développement ?
Voilà des semaines que le camp Maduro tente de négocier pour faire baisser la pression. L’un des moyens d’y parvenir est de passer des accords préférentiels avec les entreprises états-uniennes, quitte à desserrer les liens commerciaux avec la Russie et la Chine, lesquels se sont développés ces dernières années.
L’administration Trump semble toutefois ne pas vouloir céder sur le changement de régime. Dans ce contexte, l’administration Maduro a tout intérêt à afficher sa combativité dans sa communication destinée au peuple vénézuélien : cela permet de remobiliser sa base sociale et de transformer le président impopulaire et autoritaire qu’il est en défenseur de la souveraineté vénézuélienne contre l’impérialisme états-unien. Mais on a bien conscience, à Caracas, de l’immense asymétrie des forces militaires. En cas de guerre, le premier budget militaire mondial affronterait le 57ᵉ.
À quel point Maduro est-il impopulaire ?
Selon les procès-verbaux de l’opposition vénézuélienne, lors de l’élection présidentielle de 2024, officiellement remportée par Maduro, il aurait en réalité recueilli 30 % des suffrages. C’est minoritaire, mais ce n’est pas rien ! Pour autant, cela ne signifie pas que 30 % des Vénézuéliens seraient prêts à se battre pour lui, mais il y a sans doute un noyau dur qui adhère vraiment à son discours et pourrait prendre les armes le cas échéant. Nicolas Maduro parle aussi volontiers des « milices bolivariennes » qui regrouperaient selon lui 2 millions, voire 4 millions de personnes. Ces chiffres sont sans doute exagérés mais, je le répète, une intervention au sol tournerait probablement au bourbier.
Pourquoi cette montée des tensions intervient-elle maintenant et pas il y a six mois, ou dans six mois, par exemple ?
Les explications sont sans doute multiples. D’une part, on peut y voir le poids croissant du secrétaire d’État Marco Rubio qui, à la différence de la partie isolationniste de l’administration Trump et du mouvement MAGA au sens large, est sur une ligne plutôt interventionniste, spécialement à l’encontre des gouvernements cubain et vénézuélien. En cela, il s’oppose à Richard Grenell, conseiller de Trump qui, quelques jours après l’entrée en fonctions de l’administration actuelle, s’était rendu à Caracas pour y négocier avec le régime de Maduro le renouvellement de l’allègement des sanctions promis par Joe Biden pour que Chevron puisse importer du pétrole vénézuélien aux États-Unis, en contrepartie de l’accord de Caracas de recevoir des vols de migrants vénézuéliens expulsés des États-Unis. Rubio semble avoir le dessus en ce moment, et il joue sans doute une partie importante de sa carrière politique sur ce dossier. Un changement de régime au Venezuela serait un succès dont il pourrait s’enorgueillir, ce qui pourrait le propulser à la vice-présidence, voire à la présidence, dès 2028.
D’autre part, cette focalisation sur le Venezuela peut aussi répondre à la nécessité, pour Trump, de faire diversion de son incapacité à obtenir la paix en Ukraine. Enfin, il n’est pas impossible qu’il y ait aussi chez lui le calcul de détourner l’attention du grand public vers le cas vénézuélien à un moment où les révélations embarrassantes pour sa personne se multiplient dans l’affaire Epstein…
Qui sont ces Vénézuéliens que Trump expulse déjà et veut continuer d’expulser vers Caracas ? Ne s’agit-il pas, en partie au moins, de gens ayant quitté leur pays par hostilité envers Maduro ?
C’est tout le paradoxe ! Cela dit, les immigrés politiques sont minoritaires même si l’immense majorité des migrants vénézuéliens sont hostiles à Maduro. Majoritairement, cette immigration est de nature économique. La plupart de ces gens sont partis à cause des conditions dramatiques dans lesquelles ils vivaient chez eux.
Qui sont les principaux leaders de l’opposition vénézuélienne à Maduro ?
La tête de gondole de l’opposition, c’est Maria Corina Machado, la récente prix Nobel de la paix, qui est une dirigeante politique reconnue dans tout le pays. Elle se trouve probablement au Venezuela, mais dans la clandestinité. Edmundo Gonzalez, le candidat de l’opposition unie qui a affronté Maduro à la présidentielle de 2024, est une personne relativement âgée, relativement inconnue de la population jusqu’au scrutin de l’année dernière, qui a servi de prête-nom à l’opposition dans cette élection face aux obstacles institutionnels que le gouvernement Maduro opposait à d’autres candidats. Juan Guaido, qui s’était autoproclamé président après la présidentielle de 2018, est aujourd’hui hors jeu. Il est exilé aux États-Unis et ne semble plus en mesure de jouer un rôle majeur. Il pourrait redevenir ministre en cas de changement de régime, mais il n’est plus une figure de premier plan.
Si changement de régime il y a, Machado et ses alliés pourraient-ils rapidement le remplacer et mettre le pays sur une nouvelle voie ?
Il n’est pas facile de passer de leaders dans la clandestinité à dirigeants d’un pays en proie à de très graves difficultés économiques. Il faut rappeler à cet égard que, entre 2014 et 2020, le pays a perdu 74 % de son PIB, une crise sans précédent pour un pays qui n’est pas en guerre. Depuis 2020, on a assisté à un certain redémarrage de l’économie, du fait de l’assouplissement des sanctions promues par Joe Biden. Ce redémarrage s’est fait aussi au prix d’une dollarisation de l’économie, c’est-à-dire que l’on a essayé de redynamiser l’économie en attirant des capitaux en dollars, ce qui a d’ailleurs accru les inégalités. De fait, la situation du Venezuela reste terrible. Les salaires sont très bas, les conditions de vie sont extrêmement difficiles, avec des pénuries d’électricité, des pénuries d’eau, des pénuries d’essence… d’où d’ailleurs une émigration colossale. Près d’un quart des habitants auraient quitté le pays, essentiellement pour des États voisins, mais aussi pour les États-Unis et pour l’Espagne.
En cas de changement de régime, l’opposition arriverait avec un leadership national, oui ; mais il lui faudrait aussi tout un réseau de cadres, ce qui serait difficile à rebâtir, parce que cela fait plus de 25 ans que le chavisme est au pouvoir.
Mais de toute façon, tout cela, c’est dans le scénario rêvé où il n’y aurait pas de résistance et où le chavisme s’effacerait sans résistance. Machado exige un changement de régime total. Dans sa vision, le régime serait balayé, il y aurait une liesse populaire, les militaires fuiraient ou se convertirait en alliés du nouveau régime.
Cette vision peut sembler trop optimiste pour certains dans l’opposition, dont certains leaders, comme Henrique Capriles (candidat aux présidentielles de 2012 et de 2013), estiment qu’il faudra passer par une transition pacifique et donc par des négociations avec le camp chaviste afin d’aboutir à une réconciliation. L’opposition vénézuélienne n’est pas unie et alignée sur une seule posture.
Est-il encore possible que tout cela s’apaise dans les prochains jours ou dans les prochaines semaines ?
Trump a besoin d’un changement notable à Caracas pour pouvoir se vanter d’une victoire. Maduro pourrait partir et établir à sa place un régime de transition piloté par Delcy Rodriguez, mais Rubio et l’opposition vénézuélienne veulent plus que cela. En réalité, il est très compliqué d’imaginer une option qui arrive à satisfaire à peu près toutes les parties prenantes.
Il reste qu’un deal « à la Trump » n’est pas impossible : il a déjà surpris son monde par le passé en menaçant un pays avant de s’afficher avec son leader — je pense à son rapprochement avec la Corée du Nord durant son premier mandat. Mais le Venezuela, pour la classe politique des États-Unis, pour une bonne partie de leurs électeurs latinos, notamment, revêt une importance bien plus grande que la Corée du Nord. La voie d’un règlement pacifique paraît donc à ce stade difficile à envisager…
Propos recueillis par Grégory Rayko
Thomas Posado ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Le temps en soi n’est pas complexe à saisir : nous le comprenons, malgré notre difficulté à le décrire. Le problème réside dans la formulation : nous n’arrivons pas à définir précisément les limites de la nature du temps, tant sur le plan conceptuel que linguistique.(Donald Wu/Unsplash), CC BY
La nature du temps tourmente les penseurs depuis que les humains essaient de comprendre le monde. Intuitivement, nous savons ce qu’est le temps, mais quand nous souhaitons l’expliquer, notre esprit s’embrouille.
Le théologien saint Augustin d’Hippone, dont les écrits ont influencé la philosophie occidentale, a exposé un paradoxe en tentant de définir le temps il y a plus de 1 600 ans :
« Qu’est-ce donc que le temps ? Si personne ne m’interroge, je le sais ; si je veux répondre à cette demande, je l’ignore. »
Près de mille ans plus tôt, Héraclite d’Éphèse avait proposé une vision pénétrante de ce sujet. Voici ce qu’écrit le philosophe grec classique Platon dans son dialogue intitulé Cratyle :
« Héraclite dit que tout passe, que rien ne subsiste ; et comparant au cours d’un fleuve les choses de ce monde : Jamais, dit-il, vous ne pourrez entrer deux fois dans le même fleuve. »
À première vue, cela peut sembler constituer un autre paradoxe : comment un fleuve peut-il être à la fois le même et un autre ? Mais Héraclite éclaire son affirmation : le fleuve est une chose qui existe et qui change continuellement. Bien qu’il s’agisse du même fleuve, ce sont des eaux différentes qui s’écoulent à chaque instant.
Si le flux constant du fleuve rend la notion claire, cette vision s’applique à tout ce qui existe, y compris la personne qui entre dans le fleuve. Elle reste la même, mais chaque instant où son pied est dans le fleuve est différent.
La question clé n’est pas considérée comme pertinente par la plupart des physiciens. Et ce n’est pas non plus un défi que les philosophes ont réussi à relever.
Le temps en soi n’est pas complexe à saisir : nous le comprenons tous, malgré notre difficulté à le décrire. Comme l’a perçu saint Augustin, le problème réside dans la formulation : nous sommes incapables de définir exactement les limites de la nature du temps, tant sur le plan conceptuel que linguistique.
Plus précisément, les physiciens et les philosophes ont tendance à confondre ce que signifie « exister » et ce que signifie « se produire », traitant les événements comme s’ils existaient. Une fois cette distinction reconnue, le brouillard se dissipe et le paradoxe d’Augustin s’évanouit.
En logique fondamentale, il n’existe pas de véritables paradoxes, mais seulement des déductions qui reposent sur des prémisses pas très bien interprétées.
Peu après qu’Héraclite a tenté de clarifier la notion de temps, Parménide d’Élée est allé dans une tout autre direction. Son raisonnement part d’une prémisse apparemment valable : « Ce qui est, est ; ce qui n’est pas, n’est pas » –, puis introduit subrepticement une hypothèse cruciale. Il affirme que le passé fait partie de la réalité parce qu’il a été vécu, et que l’avenir doit également en faire partie parce que nous l’anticipons.
Parménide en déduit que le passé et l’avenir font partie de « ce qui est » et que toute l’éternité forme un tout continu dans lequel le temps n’est qu’une illusion.
Zénon, disciple de Parménide, a imaginé plusieurs paradoxes pour étayer cette théorie. En termes modernes, il affirmerait que si vous essayiez de marcher d’un bout à l’autre d’un pâté de maisons, vous n’y arriveriez jamais. Pour parcourir un pâté de maisons, il faut d’abord en franchir la moitié, puis la moitié de ce qu’il reste, et ainsi de suite, en divisant toujours par deux la distance restante, sans jamais atteindre la fin.
Le philosophe grec Zénon d’Élée montrant à ses disciples les portes de la vérité et de la fausseté dans une fresque du XVIᵉ siècle à l’Escurial, à Madrid. (El Escorial, Madrid)
On peut évidemment marcher jusqu’au bout du pâté de maisons, et même au-delà, ce qui rend la proposition de Zénon absurde. Son erreur réside dans le fait qu’il élimine le temps de son raisonnement, ne considérant que des configurations spatiales successives. Or, la réduction des distances s’accompagne d’une réduction des intervalles de temps, les deux devenant parallèlement plus courts.
Zénon fixe implicitement le temps total disponible pour le mouvement – tout comme il fixe la distance –, et le paradoxe n’apparaît que parce que le temps a été supprimé. Rétablissons le temps, et la contradiction disparaît.
Parménide commet une erreur similaire lorsqu’il déclare que les événements passés et futurs, c’est-à-dire les choses qui se sont produites ou qui se produiront, existent. Cette hypothèse pose problème, car elle équivaut à la conclusion à laquelle il souhaite parvenir. Son raisonnement est circulaire et aboutit à réaffirmer son hypothèse, mais d’une manière qui semble différente et profonde.
Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.
Modèles d’espace-temps
Un événement est quelque chose qui se produit à un endroit et à un moment précis. Selon la théorie de la relativité d’Albert Einstein, l’espace-temps est un modèle à quatre dimensions qui décrit toutes les occurrences : chaque point est un événement particulier et la séquence continue d’événements associés à un objet forme sa ligne d’univers, c’est-à-dire son trajet dans l’espace et le temps.
Cependant, les événements n’existent pas, ils se produisent. Quand les physiciens et les philosophes parlent de l’espace-temps comme d’une chose qui existe, ils traitent les événements comme des éléments qui existent – la même erreur subtile qui est à l’origine de 25 siècles de confusion.
Cette science décrit un univers tridimensionnel rempli d’étoiles, de planètes et de galaxies qui existent. Au cours de cette existence, l’emplacement de chaque particule à chaque instant constitue un événement spatio-temporel individuel. Depuis la création de l’univers, les événements qui se produisent à chaque instant tracent des lignes d’univers dans un espace-temps à quatre dimensions, une représentation géométrique de tout ce qui se passe au cours de son existence. Ce modèle est utile, mais il ne représente pas une chose qui existe.
Résoudre le paradoxe d’Augustin – le temps est une chose que l’on comprend intuitivement, mais que l’on ne peut décrire – est simple une fois qu’on a identifié la source de la confusion.
Les événements, c’est-à-dire ce qui se produit ou survient, ne sont pas des choses qui existent. Chaque fois que vous entrez dans le fleuve, cela constitue un événement unique. Cela se produit au cours de votre existence et de celle de la rivière. Vous et la rivière existez ; le moment où vous entrez dans la rivière se produit.
Les philosophes se penchent sur le paradoxe du voyage dans le temps depuis plus d’un siècle, mais le concept de base repose sur la même erreur subtile. L’auteur de science-fiction H. G. Wells aborde cette notion au début de son roman La Machine à explorer le temps.
En présentant son idée, le voyageur temporel passe de la description d’objets tridimensionnels, à des objets qui existent, puis à des moments sur une ligne d’univers, pour finalement considérer cette ligne comme quelque chose qui existe.
Cette dernière étape correspond précisément au moment où l’on prend la carte pour le territoire. Une fois qu’on a imaginé l’existence d’une ligne d’univers, ou même l’espace-temps, qu’est-ce qui nous empêche d’imaginer qu’un voyageur puisse s’y déplacer ?
L’occurrence et l’existence sont deux aspects fondamentalement distincts du temps : chacun est essentiel pour le comprendre pleinement, mais ils ne doivent jamais être confondus.
Pendant des millénaires, le fait de percevoir les événements comme des choses qui existent a engendré la confusion qui règne autour du temps. Considérons maintenant le temps à la lumière de cette distinction. Pensons aux choses qui nous entourent, aux diverses histoires de voyage dans le temps et à la physique de l’espace-temps.
Une fois que l’on a reconnu que nous nous trouvons dans univers tridimensionnel existant, rempli d’éléments existants, et que des événements se produisent à chaque instant au cours de cette existence cosmique – cartographiant l’espace-temps sans pour autant être la réalité –, tout s’aligne. Le paradoxe d’Augustin se dissout : le temps n’est plus mystérieux si on arrive à distinguer occurrence et existence.
Daryl Janzen ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.