Paracétamol pendant la grossesse : que sait-on d’un éventuel lien avec l’autisme ?

Source: The Conversation – France in French (3) – By Séverine Mazaud-Guittot, Chargée de recherches Inserm, Biologie du développement, Toxicologie, Université de Rennes 1 – Université de Rennes

Donald Trump, président des États-Unis, a déclaré que l’utilisation de paracétamol par les femmes enceintes faisait courir un risque d’autisme aux enfants à naître. Il leur a vivement déconseillé d’en prendre. Sur quelle base s’appuie cette recommandation ? Que disent réellement les études scientifiques ? Pourquoi est-il si difficile d’établir un tel lien ?


C’est une annonce qui a fait couler beaucoup d’encre. Le 22 septembre 2025, le président des États-Unis Donald Trump a déconseillé la prise de paracétamol
aux femmes enceintes
, assurant que l’absorption de ce médicament pendant la grossesse était associée à une augmentation du risque d’autisme chez les nouveau-nés.

Formulée en présence de Robert F. Kennedy Jr., secrétaire à la santé et aux services sociaux, et Marty Makary, commissaire aux aliments et aux drogues à la Food and Drug Administration, cette assertion repose notamment sur les conclusions d’une méta-analyse récemment publiée. Pourtant, ces travaux, comme d’autres avant eux, n’ont pas permis d’établir de consensus scientifique clair.

Pourquoi est-il si difficile de vérifier l’existence d’une association entre la prise de paracétamol pendant la grossesse et la survenue de troubles du neurodéveloppement chez l’enfant ? Et qu’en pense, à l’heure actuelle, la communauté scientifique ?

Des interrogations légitimes ?

On sait aujourd’hui que certaines des molécules chimiques produites par l’industrie peuvent se retrouver dans l’environnement et exercer une influence sur notre santé. L’exposition à ces composés chimiques est particulièrement préoccupante pendant la grossesse, car elle peut avoir des conséquences pour la santé du futur nouveau-né.

Depuis cette prise de conscience, les scientifiques ont redoublé d’efforts pour analyser les effets de milliers de composés chimiques auxquels nous pouvons être exposés involontairement. Au début des années 2010, cette mobilisation a permis de mettre en évidence que l’usage de certains médicaments, qui s’est accru au fil des dernières décennies, constitue lui aussi une source d’exposition à divers composés chimiques potentiellement toxiques pour les femmes enceintes.

Or, l’un des médicaments les plus prescrits et consommés est le paracétamol, présent dans presque toutes les armoires à pharmacie et autres sacs à main. Ce constat a conduit les chercheurs à s’interroger : le paracétamol peut-il engendrer des effets à long terme sur les individus exposés in utero ? Si tel est le cas, doit-il être considéré comme un perturbateur endocrinien ? Parmi les conséquences suspectées, un lien avec la survenue de troubles du développement neuronal a été évoqué.

Pas de consensus clair

Depuis une dizaine d’années, de nombreuses études épidémiologiques ont été menées pour évaluer si une exposition au paracétamol pendant la vie intra-utérine pouvait avoir un effet sur la santé de l’enfant.

Ces études, dites « de population », portent sur des cohortes, autrement dit des groupes de personnes. Dans le cas présent, elles impliquent d’une part de caractériser l’exposition des femmes au paracétamol (par exemple via des questionnaires qu’elles remplissent, ou par l’interrogation des bases de données des prescriptions de l’assurance maladie) et, d’autre part, d’évaluer les effets sur l’enfant (grâce à des examens cliniques spécifiques ou l’analyse des registres de malformations).




À lire aussi :
Comprendre l’épidémiologie


Pour tenter de mettre en évidence de potentiels effets du paracétamol sur le développement, les chercheurs qui ont mené ces différents travaux se sont focalisés sur trois niveaux : le système nerveux (en analysant par exemple les troubles du comportement et de l’attention), le système respiratoire (en évaluant l’existence d’asthme ou de sifflement respiratoire) ou le système reproducteur (en effectuant le suivi d’éventuelles malformations congénitales).

Globalement, quel que soit le critère considéré, aucun consensus n’a émergé sur une éventuelle association entre l’exposition au paracétamol et un effet donné. Les études mises en place ont parfois même abouti à des conclusions apparemment contradictoires. Certains experts ont par ailleurs exprimé des réticences vis-à-vis des études de populations en elles-mêmes. Plusieurs paramètres compliquent en effet l’interprétation des résultats de telles études.

Les limites des études de population

Au nombre des critiques formulées vis-à-vis des études épidémiologiques mises en place figure le recueil des données d’exposition. En effet, si ces dernières permettent de connaître le pourcentage de femmes ayant pris au moins une fois du paracétamol durant leur grossesse, la plupart du temps la durée des prises, la dose administrée ou le trimestre durant lequel le médicament a été consommé ne sont pas indiqués.

De ce fait, il n’est pas possible de distinguer les expositions ponctuelles (par exemple dans le cas du traitement d’une migraine) d’expositions plus longues, d’une à deux semaines ou davantage. Ce qui peut bien évidemment affecter l’évaluation des risques.

Par ailleurs, les méthodes utilisées (questionnaires, critères cliniques d’évaluation…) peuvent différer d’une étude à l’autre, ce qui ne facilite pas leur comparaison dans les méta-analyses (des approches statistiques visant à synthétiser les résultats d’études indépendantes menées sur un sujet de recherche donné). En conséquence, lesdites méta-analyses n’ont pas toujours permis d’aboutir à une conclusion tranchée.

Qu’en est-il de la méta-analyse sur laquelle s’appuie l’administration Trump ? Ses auteurs se sont penchés sur 46 études précédemment réalisées dans le but de mettre en évidence d’éventuels liens entre prise de paracétamol pendant la grossesse et troubles neurodéveloppementaux.

Selon Andrea Bacarelli, doyen de l’école de santé publique de Harvard et coauteur de cette méta-analyse, les résultats montrent des « preuves d’association » entre l’exposition prénatale au paracétamol et le risque de troubles neurodéveloppementaux. Cette association serait « plus forte lorsque le paracétamol est pris pendant quatre semaines ou plus ».

Cependant, comme le soulignent les auteurs eux-mêmes, cette association n’est pas une preuve de causalité, en raison notamment des limites mentionnées précédemment, qui concernent bien entendu également les études observationnelles analysées ici.

Un diagnostic de l’autisme qui a évolué

Le fait de s’intéresser à l’autisme complique lui aussi les analyses. En effet, le diagnostic de ce trouble, qui ne repose pas sur des analyses biologiques ou anatomiques quantifiables, a beaucoup évolué au cours des dernières décennies.

Aujourd’hui, le spectre des formes d’autisme couvert par les diagnostics est plus large que par le passé. En outre, les professionnels sont davantage sensibilisés à cette question. Par conséquent, les études de populations les plus anciennes ont certainement sous-estimé le nombre de personnes considérées aujourd’hui comme atteintes d’autisme. Ce biais pourrait avoir faussé leurs conclusions.

Davantage de recherches sont donc nécessaires pour éclaircir la question des liens entre troubles neurodéveloppementaux (en particulier l’autisme) et la prise de paracétamol par les femmes enceintes. Il faudra notamment mettre en place des études plus fines et détaillées, faisant appel à des questionnaires ciblés plutôt que généraux. Elles devront prendre en considération à la fois la prescription et l’automédication, les doses, la durée et la période d’exposition.

À ce sujet, soulignons un point important. Afin que les analyses statistiques mises en œuvre pour exploiter les données recueillies au cours des études épidémiologiques soient solides, il est nécessaire de collecter de grandes quantités d’informations provenant de nombreuses femmes et enfants. Il faut donc disposer de cohortes de grande taille.

Une récente étude suédoise s’est justement penchée sur l’analyse des données issues d’une très grande cohorte, comptant près de 2,5 millions d’enfants. Si l’étude a révélé une faible association positive entre l’exposition au paracétamol durant la grossesse et l’incidence de l’autisme ou du trouble de l’hyperactivité avec déficit de l’attention (TDAH), ce lien a disparu après une analyse complémentaire comparant les membres de fratries nés de la même mère. Selon les auteurs, la véritable cause de cette association pourrait être la génétique maternelle, et non le paracétamol.




À lire aussi :
Paracétamol et autisme : notre étude portant sur 2,5 millions d’enfants n’a révélé aucun lien


Ces travaux répondent à l’une des critiques formulées à l’encontre des études de population. Pour que leurs résultats soient fiables, il faut veiller à ce que d’autres paramètres que les seuls facteurs environnementaux soient pris en compte. C’est par exemple le cas du bagage génétique, en particulier dans le cas de l’autisme (ce trouble peut en effet dans une large mesure résulter de causes génétiques). Or, les études réalisées jusqu’ici n’utilisaient pas systématiquement ce paramètre comme facteur de correction.

Dernier point qui complique les interprétations : le fait que les répercussions directes d’une exposition au paracétamol in utero sont difficiles à évaluer sur le long terme. En effet, le fœtus, puis l’enfant sont exposés à bien d’autres produits chimiques durant leur existence. En outre, l’autisme peut n’être détecté que tardivement, ce qui allonge le délai entre l’exposition et le diagnostic, démultipliant les expositions à d’autres molécules.

Pour circonvenir aux limites des études épidémiologiques, les chercheurs peuvent se tourner vers des études complémentaires, réalisées grâce à des modèles expérimentaux. Que nous apprennent-ils sur ce cas précis ?

Que disent les modèles expérimentaux ?

Ce type d’étude vise à évaluer non seulement les effets directs du paracétamol, son mode d’action, mais aussi ses effets à long terme. Les scientifiques recourent pour cela à divers modèles, tels que des cultures de cellules ou des animaux de laboratoire. Il n’est en effet pas envisageable, d’un point de vue éthique, d’obtenir des informations directes sur les expositions chez l’être humain. On ne peut pas prendre le risque de rendre sciemment malades des participants à une étude !

Le problème de cette approche est que, là encore, les pièces du puzzle ne s’assemblent pas vraiment pour le moment. En effet, il n’existe pas de modèle de laboratoire unique et parfait, notamment pour le cerveau. En outre, les lignées de cellules dont les scientifiques auraient besoin n’existent pas forcément (notamment dans le cas des cellules fœtales).

Résultat : les nombreuses études existantes, parfois anciennes, menées sur de nombreux modèles différents, n’ont pas forcément permis de dégager des données cohérentes et reproductibles.

Pour cette raison, des laboratoires développent de nouvelles méthodologies in vitro efficaces et pertinentes pour l’être humain, afin de dépister et d’évaluer le potentiel neurotoxique des produits chimiques. À ce jour, les tests utilisant ces nouveaux outils ont échoué à démontrer une toxicité du paracétamol. Il faut cependant souligner que si de tels outils permettent d’étudier la toxicité aiguë du paracétamol, ils ne permettent pas d’évaluer ses effets sur le fonctionnement à long terme d’un réseau de neurones.

Les modèles animaux – des rongeurs – permettent quant à eux des études sur les effets à long terme. Cependant, l’extrapolation des données de l’animal à l’humain reste délicate. C’est particulièrement le cas en ce qui concerne le paracétamol, puisque la capacité de détoxification de ce médicament par l’organisme varie beaucoup d’une espèce à l’autre.

Par ailleurs, dans la plupart des études faites chez le rat, les doses utilisées pour montrer une neurotoxicité sont celles mimant une intoxication aiguë au paracétamol. Autrement dit, des doses massives, très éloignées des doses thérapeutiques.

Enfin, d’une manière générale, si des tests chez la souris peuvent révéler une altération du comportement après une exposition (postnatale), ces tests ne permettent pas d’évaluer de manière fiable leur similitude avec un trouble du spectre autistique, même s’il existe des exceptions.

Une analyse globale des données portant sur les rongeurs a conclu qu’il n’existait aucune preuve cohérente d’effets indésirables sur le système nerveux après une exposition au paracétamol à des doses thérapeutiques et/ou non toxiques.

Il reste encore de nombreuses parts d’ombre concernant les mécanismes moléculaires d’action du paracétamol sur les différents types de cellules qui composent l’organisme. En effet, il n’existe pas pour l’instant de modèle expérimental parfait, capable de faire le lien entre les effets moléculaires immédiats, cellulaires, du paracétamol, et ses effets à long terme sur des organes ou fonctions humains.

En attendant, débanaliser sans alarmer

Les présomptions actuelles concernant les conséquences de l’exposition au paracétamol durant la grossesse reposent sur un faisceau d’indices issus d’approches scientifiques complémentaires qui doivent encore être consolidées.

À ce titre, invoquer le principe de précaution n’est pas dénué de fondement. Il est important d’informer et de sensibiliser les populations à risque. Il faut débanaliser la consommation de paracétamol (agences réglementaires et ONG s’y emploient), notamment par les femmes enceintes.

Cependant, l’existence de recherches toujours en cours ne doit pas faire naître un sentiment d’incertitude anxiogène, ou une culpabilité injustifiée chez les femmes enceintes. Les risques pourraient être qu’elles se tournent vers des alternatives thérapeutiques moins sûres, telles que les anti-inflammatoires non stéroïdiens. Dès le 6e mois de grossesse, ces médicaments peuvent en effet entraîner des problèmes graves chez le bébé (insuffisance cardiaque, rénale, et dans les cas extrêmes, la mort in utero).

Les experts ne disent pas autre chose, y compris ceux qui ont produit la méta-analyse sur laquelle se base l’administration Trump. Dans le communiqué diffusé par leur université à propos de leurs travaux, ils précisent que selon eux :

« même s’il convient de prendre des mesures pour limiter l’utilisation du paracétamol, ce médicament est important pour traiter la douleur et la fièvre pendant la grossesse, lesquels peuvent également nuire au développement du fœtus. Une forte fièvre peut augmenter le risque de malformations du tube neural et de naissance prématurée. »

Remettre en question la balance-bénéfice/risque d’un antalgique et antipyrétique aussi courant que le paracétamol s’avère être un exercice d’équilibriste compliqué, les autorités étant suspendues entre alarmisme et pragmatisme.

Finalement, la règle d’or doit rester l’adage : « la dose efficace la plus faible, pendant la durée la plus courte nécessaire au soulagement des symptômes ». Et en cas de questions, médecins et pharmaciens restent les personnes de référence.

The Conversation

Séverine Mazaud-Guittot a reçu des financements de l’ANR et l’ANSM pour réaliser ses travaux de recherche.

ref. Paracétamol pendant la grossesse : que sait-on d’un éventuel lien avec l’autisme ? – https://theconversation.com/paracetamol-pendant-la-grossesse-que-sait-on-dun-eventuel-lien-avec-lautisme-266122

FMI : pourquoi, quand et comment le Fonds monétaire international intervient dans un pays

Source: The Conversation – France in French (3) – By Wissem Ajili Ben Youssef, Professeur associé en Finance, EM Normandie

En 2018, le FMI intervient en Argentine avec un prêt record de 57 milliards de dollars. Il s’accompagne de mesures d’austérité, contestées par les Argentins. Maxx-Studio/Shutterstock

La Grèce au bord de la faillite (2008-2010), la Tunisie post-Ben Ali (2013) ou l’Argentine contrainte de dévaluer sa monnaie (2023)… dans chaque crise économique majeure, une institution revient sur le devant de la scène : le Fonds monétaire international (FMI). Mais quel est le rôle exact de cette institution fondée en 1944 ?


Institution créée en vertu des accords de Bretton Woods, à la fin de la Deuxième Guerre mondiale, le Fonds monétaire international (FMI) a pour mission de préserver la stabilité du système monétaire international. Comment ? À travers son triple mandat : la surveillance économique de ses 191 pays membres, l’expertise en matière de politique économique et le déploiement de ses instruments financiers en cas de déséquilibres macro-économiques.

Le FMI n’impose jamais ses interventions. Les pays en butte à des crises économiques spécifiques sollicitent eux-mêmes son aide. Ces programmes soulèvent un dilemme entre efficacité macro-économique et coûts sociaux. Au fil des décennies, son rôle n’a cessé d’évoluer, tout en conservant les fondements de son mandat d’origine.

Dans quelles circonstances le FMI intervient-il dans un pays ?

Prêteur de dernier ressort

L’intervention du FMI constitue une mesure d’exception, lorsque plusieurs indicateurs macro-économiques se détériorent simultanément.

L’histoire des crises financières révèle des dynamiques similaires : déséquilibre aigu de la balance des paiements, chute des réserves de change, accélération de l’inflation, dette publique dépassant des seuils soutenables (60-90 % du PIB), ou encore fuite de capitaux étrangers.

Dans ces situations critiques, le pays concerné ne parvient plus à se financer sur les marchés internationaux à des taux acceptables. Le FMI assure alors le rôle d’un prêteur de dernier ressort. L’institution intervient pour garantir le financement de l’économie et pour éviter un effondrement brutal. Son action vise à restaurer la confiance des marchés et à limiter les risques de contagion à d’autres pays.

Les interventions du FMI sont soumises à une conditionnalité, souvent critiquée, visant à garantir le remboursement du prêt et la stabilisation macro-économique.

Boîte à outils du FMI

Le FMI propose une gamme d’instruments financiers, adaptés aux besoins spécifiques des pays.

Les accords de confirmation sont les plus connus. Le FMI met à disposition d’un pays membre une ligne de crédit sur une période déterminée, généralement un à deux ans. En contrepartie, le pays s’engage à mettre en œuvre un programme de réformes économiques défini, comme la réduction des déficits publics, des réformes fiscales ou la libéralisation de certains secteurs. Les décaissements sont effectués par tranches, à mesure que le pays respecte les conditions convenues.

À l’autre extrémité du spectre, les lignes de crédit modulables s’adressent aux pays dont les fondamentaux économiques sont solides. Elles agissent comme une assurance contre les chocs externes imprévus, sans imposer de programme d’ajustement structurel au pays bénéficiaire. Ces instruments offrent un accès immédiat et sans conditionnalité ex post à des ressources importantes.

Les facilités concessionnelles, telles que la facilité élargie de crédit, ciblent les pays à faible revenu. Ces instruments intègrent désormais les Objectifs de développement durable (ODD). Ce mécanisme de prêt offre des conditions particulièrement avantageuses : des taux d’intérêt très bas, voire nuls, et des périodes de remboursement longues généralement avec un différé de remboursement de cinq ans et demi, et une échéance à dix ans. L’accès à ces ressources est conditionné à des réformes adaptées aux besoins spécifiques du pays bénéficiaire : transparence budgétaire, amélioration de la gouvernance, ou encore développement de filets de sécurité sociale.

Illustrations en Argentine, en Grèce et en Tunisie

L’Argentine face au FMI

L’Argentine incarne les difficultés persistantes que rencontrent certains pays dans leur relation avec le FMI. Après l’effondrement économique de 2001, causé par un régime de change rigide et une dette externe insoutenable, le pays reçoit plus de 20 milliards de dollars d’aide. Les mesures d’austérité imposées exacerbent la crise sociale, nourrissant une méfiance durable envers le FMI.




À lire aussi :
Argentine : le risque d’une nouvelle crise monétaire


En 2018, l’institution aux 191 membres intervient de nouveau avec un prêt record de 57 milliards de dollars, soit le prêt le plus important de son histoire. Les résultats restent mitigés. Le FMI assumant :

« Le programme n’a pas atteint les objectifs de rétablissement de la confiance dans la viabilité budgétaire et extérieure, tout en favorisant la croissance économique. L’accord a été annulé le 24 juillet 2020. »

En 2018, de nombreuses manifestations sont organisées en Argentine contre la politique du FMI.
Matias Lynch/Shutterstock

La Grèce : quand l’austérité devient la seule voie de sortie

La crise grecque entre 2010 et 2015 reste l’un des épisodes les plus scrutés de l’histoire récente de la zone euro. Tout commence lorsque le gouvernement hellène révèle un déficit budgétaire bien supérieur aux chiffres officiels. En réponse, le FMI et l’Union européenne mettent en place un plan de sauvetage de 110 milliards d’euros.

Les réformes exigées – baisse des retraites, privatisations massives, hausses d’impôts – plongent le pays dans une récession profonde. Le chômage explose, la pauvreté s’installe, et la colère sociale augmente. Si la stabilité budgétaire est progressivement restaurée, le coût humain et politique reste lourd. La Grèce devient le symbole d’une austérité imposée, alimentant un euroscepticisme durable.

La Tunisie : une transition démocratique qui freine les réformes économiques

Depuis 2013, la Tunisie, engagée dans une transition démocratique post-révolution, bénéficie de plusieurs programmes du FMI totalisant plus de 3 milliards de dollars. Ces interventions visent à réformer le système de subventions, à moderniser la fiscalité et à renforcer la gouvernance publique.

Si certaines avancées techniques sont réalisées, les résultats macroéconomiques déçoivent : une croissance stagnante à 1 %, un chômage des diplômés dépassant 35 %, une augmentation de la dette publique et des inégalités croissantes.

Ce cas illustre les limites de l’action du FMI dans des contextes de transition, où les équilibres économiques sont étroitement liés à des dynamiques sociales et institutionnelles encore fragiles.

Approche plus souple

Depuis la crise financière mondiale de 2008, le FMI a engagé une réflexion profonde sur ses méthodes d’intervention.

L’évolution institutionnelle du fonds est marquée par plusieurs inflexions majeures, en développant de nouveaux mécanismes, comme les lignes de crédit modulable. Elle offre un accès rapide à des financements importants, sans conditionnalité ex post : seuls des critères stricts d’admissibilité sont exigés en amont. Son accès reste limité à un petit nombre de pays jugés exemplaires par le FMI.

L’institution internationale met l’accent sur la protection sociale, en imposant par exemple des planchers de dépenses sociales dans certains programmes. Elle adapte également ses recommandations aux contextes nationaux, avec des calendriers de réformes plus souples.

Lors de la pandémie du Covid-19, le FMI ajuste ses exigences pour permettre aux pays de soutenir leurs économies avant d’engager des réformes structurelles. Le dialogue avec les autorités et la société civile est renforcé par des consultations régulières, comme les forums avec les ONG lors de ses Assemblées annuelles, permettant de mieux intégrer les attentes locales et d’accroître l’appropriation des politiques recommandées.

Deux dilemmes persistent : comment concilier discipline budgétaire et justice sociale ? Comment éviter que les interventions du FMI ne deviennent elles-mêmes des facteurs de déstabilisation dans des sociétés déjà fragilisées ?

The Conversation

Wissem Ajili Ben Youssef ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. FMI : pourquoi, quand et comment le Fonds monétaire international intervient dans un pays – https://theconversation.com/fmi-pourquoi-quand-et-comment-le-fonds-monetaire-international-intervient-dans-un-pays-265034

Les prémices de l’État de droit au Moyen Âge : quand la loi s’impose au roi

Source: The Conversation – in French – By Yves Sassier, professeur émérite, Sorbonne Université

L’histoire intellectuelle et politique du XIIᵉ au XIVᵉ siècle est essentielle pour comprendre la transformation des royautés féodales européennes en États modernes et les prémices des idéaux démocratiques. À cette époque, la redécouverte du droit romain et de la philosophie d’Aristote produisent de passionnants débats sur les rapports du pouvoir et de la loi.


Après l’effacement de l’unité impériale romaine au profit de royautés plurielles (Ve siècle), les penseurs (presque tous membres du clergé) intègrent certaines réflexions des antiques sur les finalités de la loi. Il s’agit d’œuvrer en vue de l’utilité commune et d’éviter tout abus de pouvoir du prince. Ils héritent également de la pensée juridique du Bas Empire chrétien, selon laquelle la loi doit s’efforcer d’orienter l’action des princes vers une réalisation spirituelle. Le bon prince doit légiférer pour Dieu et se soumettre lui-même aux lois qu’il impose à ses sujets. Pourtant, la persistance des vieilles pratiques germaniques – vengeance privée et autorégulation sociale des conflits – débouche, vers la fin du IXe siècle carolingien, sur un profond affaiblissement des royautés comme de leur capacité à « faire loi ».

Mettre en œuvre ce qui est utile à tous

Le XIIe siècle marque un renversement de tendance. La conjoncture économique, démographique et sociale est très favorable aux détenteurs des plus florissantes cités, aux premiers rangs desquels figurent les rois. L’essor de la production et du commerce à distance profite aux princes. Il profite aussi à ceux qui, appartenant au monde clérical des cités, traversent l’Europe pour s’instruire, puis entrent au service des souverains comme conseillers. La démarche intellectuelle de cette élite pensante témoigne d’une lente prise de conscience de la complexité croissante du corps social. Et de la naissance, en son sein d’une forte exigence de sûreté juridique, de liberté et d’identité communautaire.

La réflexion sur le pouvoir, s’inspirant notamment des œuvres de Cicéron, s’oriente ainsi progressivement vers l’idée d’une nature sociale de l’être humain. On réfléchit aussi sur la justice et sur la règle de droit et l’on insiste sur le but ultime de cette justice : mettre en œuvre ce qui est utile à tous et, par-delà, assurer le bien-être matériel et spirituel de la communauté en son entier.

Absolutisme princier versus « certaine science » de la communauté politique

Cette époque est également marquée par la redécouverte de l’immense œuvre juridique de l’empereur romain d’Orient Justinien (VIe siècle). Cet événement considérable suscite la naissance d’une étude textuelle, très tôt mise à profit par les entourages princiers à travers toute la chrétienté occidentale. Dans ce cercle étroit, le débat est lancé entre tenants d’un « absolutisme » princier et partisans d’une capacité propre de toute communauté à émettre ses propres règles.

Les premiers s’appuient sur certains passages de l’œuvre justinienne qui mettent l’accent sur la relation du prince à la loi, notamment deux aphorismes en provenance d’un jurisconsulte romain du IIIe siècle, Ulpien. « Ce qui a plu au prince à la vigueur de la loi ». Ce passage est suivi d’une explication affirmant que par la « lex regia » (loi d’investiture de l’empereur), le peuple romain transmet au prince tout son imperium (pouvoir de commandement) et toute sa potestas (puissance). Et puis :« Le prince est délié des lois », une sentence contraire au modèle du gouvernant soumis à la loi diffusé par la pensée chrétienne du haut Moyen Âge. Tout prince peut alors se prévaloir de ces textes pour affirmer sa pleine capacité à émettre la règle de droit ou à s’affranchir de celle-ci. De telles thèses circulent dès le XIIe siècle dans les entourages royaux.

Cependant, les savants qui glosent le droit romain ont aussi trouvé chez Justinien tel texte par lequel le prince déclare soumettre son autorité à celle du droit et sa propre personne aux lois. Ou tel autre plaidant en faveur d’une fonction législative revenant au peuple, voire d’un droit du peuple d’abroger la loi ou d’y déroger.


CC BY

La théorie de la supériorité de la coutume générale d’un peuple sur la loi du prince, comme celle de la « certaine science » d’une communauté locale la rendant apte à déroger, en pleine conscience, à la règle générale, est un autre apport de ce XIIe siècle. Tout comme la réflexion, plus mesurée, de certains romanistes sur la nécessité, pour une communauté locale s’affranchissant d’une règle, d’agir avec sagesse et de se donner de nouvelles règles conformes à la raison. Ces exigences correctrices de la théorie première ouvrent la voie à la confirmation d’une capacité de suppression de la « mauvaise » coutume par le prince agissant lui aussi en vertu de sa propre « certaine science »

Aristote redécouvert

Jusqu’aux années 1250, c’est principalement dans le sillage de ces acquis que se situe la pensée juridico-politique. La réflexion très neuve sur le pouvoir normatif du prince est désormais un élément essentiel. Le XIIIe siècle est bien celui d’une montée en puissance des législations royales dans nombre de pays européens où semblent dans un premier temps prévaloir les aphorismes d’Ulpien.

La redécouverte, autour des années 1240-1260, de l’_Éthique à Nicomaque et de la Politique_ d’Aristote accélère l’évolution de la réflexion sur l’instrument du pouvoir que redevient la loi. La doctrine naturaliste d’Aristote (l’homme, voué à s’intégrer à une communauté, est par nature un « animal politique ») n’a pas pour conséquence immédiate une complète autonomie du politique vis-à-vis du théologique. Aux yeux des plus aristotéliciens des penseurs du temps, l’homme demeure un être voué à l’obéissance aux commandements divins. La vertu de charité qui lui est assignée implique cet amour du bien commun, vertu première du citoyen.

Il reste cependant que découvrir Aristote permet un remarquable enrichissement de la réflexion sur la communauté. Ici aussi le débat est vif entre juristes et théologiens-philosophes et débouche sur des visions contradictoires des droits de la multitude. Certains considèrent cette dernière comme ayant pleine capacité juridique à consentir aux actes du prince. D’autres persistent à la présenter comme l’équivalent juridique d’un mineur sous protection, son tuteur qu’est le prince disposant d’une plénitude de puissance.

Partager la confection de la loi avec le peuple ?

Si l’exigence du bien commun devient plus que jamais l’objet d’un discours rationnel, sa mise en œuvre, néanmoins, peut adopter deux voies bien différentes. La première s’appuie sur la lecture absolutiste de Justinien : elle insiste sur l’idéal du prince vertueux œuvrant au service de son peuple, apte à légiférer seul, mais en s’appuyant sur de sages conseillers ; apte aussi à ne jamais abuser d’une puissance qui ne connaît cependant d’autre frein que sa propre conscience.

La seconde est assurément nouvelle dans le contexte médiéval de cette fin du XIIIe siècle : mettre en œuvre les possibles alternatives qu’offrent deux éléments essentiels de la réflexion d’Aristote. L’un concerne les variantes qui peuvent modifier en profondeur chacun des trois régimes purs) que sont la monarchie, l’aristocratie et la démocratie ; l’autre porte sur sa préférence pour un régime privilégiant un droit de participation active aux affaires publiques accordé à une partie de la population, représentative d’un « juste milieu » social et garante d’un « juste milieu » éthique. Il s’agit ici d’empêcher toute dérive tyrannique provenant tant d’un monarque ou d’une oligarchie que d’un peuple sans vertu.

Le XIVe siècle verra ainsi croître les théories prônant le recours, par le monarque, au dialogue voire au partage de la confection de la loi avec son peuple. Certaines de ces théories iront même jusqu’à afficher l’idée d’une sorte de souveraineté de principe du peuple en matière législative (Marsile de Padoue, Nicole Oresme).

En cette fin de Moyen Âge, la pensée politique, progressivement mise à portée d’une élite plus large, s’est ainsi orientée vers certaines thèses qui préfigurent le « constitutionnalisme » moderne et aussi, à certains égards, vers ce que la doctrine politique occidentale appelle de nos jours « l’État de droit ». Il est cependant vrai que certaines conditions de cet État de droit (séparation des pouvoirs législatif, exécutif et judiciaire, pleine souveraineté de tout un peuple liée à une pleine égalité de droit de ses membres) ne seront guère acquises à la fin du XVe siècle.

La réflexion sur le politique, on le sait, s’orientera aussi vers l’autre thèse développée dès le XIIe siècle, celle de la toute-puissance d’un prince « absous des lois ». Elle débouchera au tournant des XVIe et XVIIe siècles sur des parenthèses absolutistes parfois courtes et vouées à l’échec comme dans l’Angleterre des Stuarts, parfois plus longues comme dans la France des Bourbons.


Yves Sassier est l’auteur du Prince et la loi en Occident. VIe siècle av. J.-C.-début XVe siècle, Presses universitaires de France, juin 2025.

The Conversation

Yves Sassier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les prémices de l’État de droit au Moyen Âge : quand la loi s’impose au roi – https://theconversation.com/les-premices-de-letat-de-droit-au-moyen-age-quand-la-loi-simpose-au-roi-261976

La Finlande, nouveau poste avancé de l’Otan face à la Russie

Source: The Conversation – in French – By Victoria Bruné, PhD Student in Politics and International Relations, University of Aberdeen

Après des décennies de neutralité, d’abord contrainte puis fièrement affichée, la Finlande s’est résolue à rejoindre l’Otan il y a deux ans et demi. Elle est désormais le sixième pays de l’Otan – après la Norvège, la Pologne et les trois États baltes – à disposer d’une frontière avec la Russie, mais celle-ci est de loin la plus longue des six. Le scénario d’une attaque venant de Moscou – qui ne cesse de répéter qu’elle considère l’Otan comme son ennemi existentiel – est considéré comme crédible à Helsinki, qui développe son industrie de défense et cherche à s’assurer d’un soutien total de ses alliés européens, étant donné que celui de Washington semble faillible au vu de certaines des déclarations de Donald Trump et de ses ministres.


Tandis que la guerre en Ukraine s’enlise et que les atermoiements de l’administration Trump n’ont de cesse d’amplifier un climat d’incertitude en Europe, le ministre finlandais de la défense, Antti Häkkänen, a annoncé le 1er septembre dernier le lancement des activités du Commandement de la composante terrestre Nord de l’Otan (Multi Corps Land Component Command Concept, MCLCC) au sein de la ville de Mikkeli, siège du commandement de l’armée finlandaise, située à environ 100 km de la frontière russe à vol d’oiseau.

Le MCLCC supervisera la planification, la préparation, le commandement et le contrôle des exercices conjoints des armées otaniennes en Europe du Nord. La valeur tactique de l’Europe du Nord, bien comprise aussi bien par l’Occident que par la Russie, fait de Mikkeli une zone soumise à une exposition stratégique.

L’installation du MCLCC intervient deux ans et demi après l’entrée de la Finlande dans l’Otan, le 23 avril 2023, actant la fin d’un non-alignement qui avait pris naissance dans le Traité d’Amitié, d’Assistance et de Coopération mutuelle signé en 1948 avec l’URSS.

Une tradition de neutralité (forcée) remontant à la guerre froide

Du fait de son alliance avec l’Allemagne nazie pendant la Seconde Guerre mondiale pour combattre les Soviétiques afin de récupérer les territoires perdus lors de la guerre d’hiver (1939-1940), la Finlande a dû, après la fin du conflit, conclure avec l’URSS ce traité qui engendra la neutralité forcée d’Helsinki, connue sous le nom de « finlandisation ».

La finlandisation prend mécaniquement fin avec la chute du bloc soviétique en 1991. Dès 1995, quand elle adhère à l’Union européenne, la Finlande cesse de se définir comme neutre, adoptant en lieu et place la terminologie de non-alignement vis-à-vis de toute alliance militaire.

Cette posture ne résistera pas à l’intensification de la menace russe, particulièrement sensible à partir de l’invasion à grande échelle de l’Ukraine.

La guerre en Ukraine ou l’onde de choc qui a mis fin au non-alignement

L’invasion de l’Ukraine par la Russie le 24 février 2022 propage en Finlande une onde de choc qui ébranle les fondements du non-alignement, ravivant les traumas mémoriels liés à l’impérialisme de l’URSS.

Dans ce contexte, l’opinion publique finlandaise, qui s’était jusqu’alors montrée rétive à l’idée d’une entrée dans l’Otan, se met à soutenir massivement l’adhésion à l’Alliance. Dès le début de l’invasion russe, une enquête d’opinion indique que 53 % de la population souhaite une intégration dans l’Otan, contre 30 % un mois plus tôt et 26 % à l’automne 2021.

Au printemps 2022, une nouvelle enquête montre que 60 % des Finlandais souhaitent cette intégration.

Le 18 mai 2022, la Finlande dépose avec la Suède, sa candidature à l’Alliance. Leur adhésion devient effective, respectivement le 4 avril 2023 pour la Finlande et le 7 mars 2024 pour la Suède, après avoir été confrontées aux vetos turc et hongrois. La Turquie accusait en effet les « pays scandinaves » d’être des « refuges pour les organisations terroristes ». La Hongrie, quant à elle, s’y opposait notamment en raison des critiques de Stockholm et d’Helsinki à son égard s’agissant du respect de l’État de droit.

Une opinion publique toujours favorable à l’Otan

Depuis l’adhésion, la population finlandaise n’a pas changé d’avis sur le caractère indispensable de cette décision historique. Les sondages d’opinion effectués au cours de ces deux dernières années traduisent la persistance d’un fort soutien à l’appartenance à l’Otan. Une étude conduite en décembre 2023 par cinq institutions académiques souligne que 82 % des Finlandais auraient voté en faveur d’une adhésion à l’Otan en cas de référendum, le taux de soutien étant plus élevé chez les électeurs conservateurs et sociaux-démocrates (le pays est gouverné depuis juin 2023 par une coalition entre conservateurs et droite radicale, qui a pris la suite d’un gouvernement social-démocrate), et plus faible chez ceux de la gauche radicale – dont le principal parti, l’Alliance de gauche, qui a obtenu 7 % des suffrages aux dernières législatives, tenues en avril 2023, appuie également l’appartenance du pays à l’Otan après des années marquées par une opposition traditionnelle, le parti ayant été le plus hostile à l’adhésion à l’Otan sur le spectre politique national.

L’aspect nucléaire de l’Alliance constitue néanmoins un sujet de discorde dans un pays traditionnellement favorable au désarmement nucléaire. L’étude des cinq institutions souligne en effet qu’un cinquième de la population seulement soutient un déploiement des armes nucléaires sur le territoire finlandais. Une autre étude du think tank EVA, effectuée en avril 2025, met en évidence une baisse du soutien à l’adhésion à l’Otan par rapport à l’automne 2022 (de 78 % à 66 %) ; en outre, 53 % des sondés estiment que l’appartenance à l’Otan est loin d’être une garantie d’assistance de la part des autres pays de l’Alliance en cas de crise.

Ce relatif déclin de la confiance dans l’Otan s’inscrit dans un contexte marqué par les gestes de conciliation envoyés par l’administration Trump à Vladimir Poutine, qui inquiètent la Finlande à un tel point qu’elle songerait à se tourner vers ses alliés scandinaves, britanniques et français en cas d’échec de recours à l’Article 5 de l’Otan.

Il n’en demeure pas moins que l’adhésion à l’Alliance aura constitué un processus historique qui a conduit à une reformulation de l’identité politique finlandaise, tout en maintenant une certaine continuité.

La continuité de la tradition de médiation internationale

Durant la guerre froide et dans les décennies suivantes, l’image de neutralité, puis de non-alignement, attachée à Helsinki a offert un terreau fertile au développement d’une tradition de médiation et de maintien de la paix, incarnée par des figures majeures telles que le président Martti Ahtisaari (1994-2000), récipiendaire du prix Nobel de la paix en 2008 pour sa contribution à la résolution de plusieurs conflits (Kosovo, Aceh, Namibie).

Tout au long de la guerre froide, la Finlande s’est ainsi imposée comme un « pont » entre l’Est et l’Ouest, comme en atteste l’organisation de la Conférence sur la sécurité et la coopération en Europe entre les deux blocs à Helsinki en 1973.

Malgré le virage atlantiste que constituent l’adhésion à l’Otan, mais aussi la signature en 2023 d’un accord de coopération de défense (DCA) qui garantit aux États-Unis l’accès à quinze zones et infrastructures militaires sur son territoire, la Finlande continue de s’affirmer comme un médiateur clé sur l’échiquier géopolitique. La présence du président finlandais, Alexander Stubb au sein de la délégation européenne à la Maison Blanche dont le dessein consistait à obtenir des garanties sécuritaires pour l’Ukraine en date du 18 août dernier l’atteste particulièrement.

Alexander Stubb, troisième en partant de la gauche, en compagnie d’Ursula von der Leyen, Keir Starmer, Volodymyr Zelensky, Donald Trump, Emmanuel Macron, Giorgia Meloni, Friedrich Merz et Mark Rutte (secrétaire général de l’Otan), à la Maison Blanche, le 18 août 2025.
Riikka Hietajärvi/Embassy of Finland in Washington

L’émergence d’un « réalisme fondé sur des valeurs »

Au vu des eaux troubles où navigue la Finlande, le gouvernement a défini dans son rapport de politique étrangère et de sécurité paru en 2024 un nouveau principe de politique étrangère, à savoir le « value-based realism ».

Ce « réalisme » implique des compromis avec des États dont le système de valeurs diffère de celui de la Finlande, comme mis en exergue par Alexander Stubb dans un discours prononcé devant le Parlement le 5 février 2025 :

« À long terme, il est dans l’intérêt de la Finlande que le système multilatéral reste aussi solide que possible. Mais nous ne pouvons pas nous exclure des prises de décision qui se déroulent en partie en dehors de ce système. Nous ne pouvons pas non plus nous isoler des pays qui ne soutiennent pas pleinement le multilatéralisme. Nous défendrons nos intérêts dans toutes les situations, en nous appuyant sur nos propres valeurs. »

Un tel « réalisme » peut faire écho aux tractations menées avec la Hongrie et la Turquie pour mettre fin au véto que celles-ci opposaient à l’entrée de la Finlande dans l’Alliance. Il en est de même pour le retrait du traité d’Ottawa (1997) sur l’interdiction des mines antipersonnel, voté par le Parlement le 19 juin 2025, afin d’assurer la défense de la Finlande face au géant russe.

Un rôle crucial au sein de l’appareil otanien, dans l’ombre de la Russie

La position stratégique de la Finlande en fait un avant-poste pour l’Otan, comme en atteste la mise en place du MLCCC. Le pays, peuplé de quelque 5,6 millions de personnes, partage une frontière de 1340 km avec la Russie et dispose d’effectifs qui, la conscription masculine étant obligatoire, peuvent s’élever en temps de guerre à 280 000 soldats et environ 900 000 personnes disposant d’une expérience militaire (l’un des plus élevés de l’Otan).

Ses atouts de défense technologiques, tels que le navire Turva, paré contre toute menace hybride en mer Baltique, notamment en provenance de la « flotte fantôme » de la Russie, accusée d’être à l’origine de sabotages de câbles sous-marins, font de la Finlande une pièce maîtresse.

Dans un contexte d’escalade de la guerre hybride orchestrée par la Russie, la Finlande constitue une cible de choix pour Moscou. Helsinki accuse notamment la Russie d’acheminer des migrants près de sa frontière.

Le texte publié le 8 septembre dernier par l’ancien président (2008-2012) Dmitri Medvedev, aujourd’hui numéro deux du Conseil de Sécurité de la Russie, accusant la Finlande d’ourdir une attaque contre la Russie, pourrait être le signe avant-coureur d’une opération russe de grande ampleur, qui irait bien au-delà de la récente incursion de drones dans les espaces aériens polonais et roumain respectivement dans la nuit du 9 au 10 septembre et le 13 septembre et de trois avions militaires russes dans l’espace aérien estonien le 19 septembre. Le soupçon plane là également sur la Russie quant aux survols de drones au-dessus des aéroports de Copenhague et d’Oslo dans la nuit du 22 septembre.

Au lendemain de l’intrusion des drones en Pologne et du discours d’Ursula von der Leyen sur l’état de l’Union où elle prône la construction d’un « mur de drones », le premier ministre finlandais Petteri Orpo a défendu un investissement européen dans la défense aérienne de la Finlande – mais aussi dans celle des États baltes et de la Pologne. Seuls des investissements massifs dans la défense européenne (notamment aérienne) pourront augmenter le seuil de dissuasion face à une menace russe dont le spectre devient de plus en plus manifeste, en Finlande et ailleurs sur le continent.

The Conversation

Victoria Bruné ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La Finlande, nouveau poste avancé de l’Otan face à la Russie – https://theconversation.com/la-finlande-nouveau-poste-avance-de-lotan-face-a-la-russie-265300

Why a study claiming vaccines cause chronic illness is severely flawed – a biostatistician explains the biases and unsupported conclusions

Source: The Conversation – USA (3) – By Jeffrey Morris, Professor of Public Health and Preventive Medicine, University of Pennsylvania

Biases in designing a study can weaken how well the evidence supports the conclusion. FatCamera/E+ via Getty Images

At a Senate hearing on Sept. 9, 2025, on the corruption of science, witnesses presented an unpublished study that made a big assertion.

They claimed that the study, soon to be featured in a highly publicized film called “An Inconvenient Study,” expected out in early October 2025, provides landmark evidence that vaccines raise the risk of chronic diseases in childhood.

The study was conducted in 2020 by researchers at Henry Ford Health, a health care network in Detroit and southeast Michigan. Before the Sept. 9 hearing the study was not publicly available, but it became part of the public record after the hearing and is now posted on the Senate committee website.

At the hearing, Aaron Siri, a lawyer who specializes in vaccine lawsuits and acts as a legal adviser to Secretary of Health and Human Services Robert F. Kennedy Jr., said the study was never published because the authors feared being fired for finding evidence supporting the health risks of vaccines. His rhetoric made the study sound definitive.

As the head of biostatistics at the University of Pennsylvania’s Perelman School of Medicine, when I encounter new scientific claims, I always start with the question “Could this be true?” Then, I evaluate the evidence.

I can say definitively that the study by Henry Ford Health researchers has serious design problems that keep it from revealing much about whether vaccines affect children’s long-term health. In fact, a spokesperson at Henry Ford Health told journalists seeking comment on the study that it “was not published because it did not meet the rigorous scientific standards we demand as a premier medical research institution.”

The study’s weaknesses illustrate several key principles of biostatistics.

Study participants and conclusions

The researchers examined the medical records of about 18,500 children born between 2000 and 2016 within the Henry Ford Health network. According to the records, roughly 16,500 children had received at least one vaccine and about 2,000 were completely unvaccinated.

The authors compared the two groups on a wide set of outcomes. These included conditions that affect the immune system, such as asthma, allergies and autoimmune disorders. They also included neurodevelopmental outcomes such as attention-deficit/hyperactivity disorder, or ADHD, autism and speech and seizure disorders, as well as learning, intellectual, behavioral and motor disabilities.

A group of kindergarten-age kids in a classroom
Many diagnoses of common childhood conditions like asthma and ADHD occur after children start school.
Ariel Skelley/DigitalVision via Getty Images

Their headline result was that vaccinated children had 2.5 times the rate of “any selected chronic disease,” with 3 to 6 times higher rates for some specific conditions. They did not find that vaccinated children had higher rates of autism.

The study’s summary states it found that “vaccine exposure in children was associated with increased risk of developing a chronic health disorder.” That wording is strong, but it is not well supported given the weaknesses of the paper.

Timeline logic

To study long-term diseases in children, it’s crucial to track their health until the ages when these problems usually show up. Many conditions in the study, like asthma, ADHD, learning problems and behavior issues, are mostly diagnosed after age 5, once kids are in school. If kids are not followed that long, many cases will be missed.

However, that’s what happened here, especially for children in the unvaccinated group.

About 25% of unvaccinated children in the study were tracked until they were less than 6 months old, 50% until they were less than 15 months old, and only 25% were tracked past age 3. That’s too short to catch most of these conditions. Vaccinated kids, however, were followed much longer, with 75% followed past 15 months of age, 50% past 2.7 years of age and 25% past 5.7 years of age.

The longer timeline gave the vaccinated kids many more chances to have diagnoses recorded in their Henry Ford medical records compared with the nonvaccinated group. The study includes no explanation for this difference.

When one group is watched longer and into the ages when problems are usually found, they will almost always look sicker on paper, even if the real risks are the same. In statistics, this is called surveillance bias.

The primary methods used in the paper were not sufficient to adjust for this surveillance bias. The authors tried new analyses using only kids followed beyond age 1, 3 or 5. But vaccinated kids were still tracked longer, with more reaching the ages when diagnoses are made, so those efforts did not fix this bias.

More opportunities to be diagnosed

Not all cases of chronic disease are written down in the Henry Ford records. Kids who go to a Henry Ford doctor more often get more checkups, more tests and more chances for their diseases to be found and recorded in the Henry Ford system. Increased doctor visits has been shown to increase the chance of diagnosing chronic conditions, including autism, ADHD, asthma, developmental disorders and learning disabilities.

If people in one group see doctors more often than people in another, those people may look like they have higher disease rates even if their true health is the same across both groups. In statistics, this is called detection bias.

In the Henry Ford system, vaccinated kids averaged about seven visits per year, while unvaccinated kids had only about two. That gave the vaccinated kids many more chances to be diagnosed. The authors tried leaving out kids with zero visits, but this did not fix the detection bias, since vaccinated kids still had far more visits.

Another issue is that the study doesn’t show which kids actually used Henry Ford for their main care. Many babies are seen at the hospital for birth and early visits, but then go elsewhere for routine care. If that happens, later diagnoses would not appear in the Henry Ford records. The short follow-up for many children suggests a lot may have left the system after infancy, hiding diagnoses made outside Henry Ford.

Apples and oranges

Big differences between the groups of vaccinated and unvaccinated children can make it hard to know if vaccines really caused any differences in chronic disease. This is because of a statistical concept called confounding.

The two groups were not alike from birth. They differed in characteristics like sex, race, birth weight, being born early and the mother experiencing birth complications – all factors linked to later effects on health. The study made some adjustments for these, but left out many other important risks, such as:

• Whether families live in urban, suburban or rural areas.

• Family income, health insurance and resources.

• Environmental exposures such as air and water pollution, which were concerns in Detroit at that time.

Many factors can affect how often a child visits a health care provider.

These factors can affect both the chance of getting vaccinated and the chance of having health problems. They also change how often families visit Henry Ford clinics, which affects what shows up in the records.

When too many measured and unmeasured differences line up, as they do here, the study is unable to fully separate cause from effect.

Bottom line

The Henry Ford data could be helpful if the study followed both groups of kids to the same ages and took into account differences in health care use and background risks.

But as written, the study’s main comparisons are tilted. The follow-up time was short and uneven, kids had unequal chances for diagnosis, and the two groups were very different in ways that matter. The methods used did not adequately fix these problems. Because of this, the differences reported in the study do not show that vaccines cause chronic disease.

Good science asks tough questions and uses methods strong enough to answer them. This study falls short, and it is being presented as stronger evidence than its design really allows.

The Conversation

Jeffrey Morris receives funding from the National Institute of Health and the Annenberg Public Policy Center

ref. Why a study claiming vaccines cause chronic illness is severely flawed – a biostatistician explains the biases and unsupported conclusions – https://theconversation.com/why-a-study-claiming-vaccines-cause-chronic-illness-is-severely-flawed-a-biostatistician-explains-the-biases-and-unsupported-conclusions-265470

Trump’s targeting of ‘enemies’ like James Comey echoes FBI’s dark history of mass surveillance, dirty tricks and perversion of justice under J. Edgar Hoover

Source: The Conversation – USA – By Betty Medsger, Professor Emeritus of Journalism, San Francisco State University

The building in Media, Penn. where burglars in 1971 found evidence of decades of FBI abuses against citizens. Betty Medsger

As a candidate last year, Donald Trump promised retribution against his perceived enemies. As president, he is doing that.

At the Department of Justice, a “Weaponization Working Group” has a long list of Trump’s perceived enemies to investigate. And on the evening of Sept. 25, 2025, former FBI Director – and one of Trump’s prime targets – James Comey was indicted by a grand jury at the behest of a Trump loyalist, his former personal lawyer who was appointed a prosecutor less than a week before and who pushed for the charges against the advice of career prosecutors who said there was no basis for bringing them. The charges came after Trump publicly urged the Department of Justice to indict his adversaries, saying, “We can’t delay any longer, it’s killing our reputation and credibility.”

At the FBI, director Kash Patel has conducted a political purge, firing the highest officials at the bureau and thousands of FBI agents who investigated alleged crimes by Trump as well as investigated participants in the Jan. 6, 2021, U.S. Capitol riots.

It marks the first time since J. Edgar Hoover’s 48-year reign as FBI director that the FBI has targeted massive numbers of people perceived to be political enemies.

Trump’s recent fury showed how much he expects top officials in federal law enforcement to carry out his retribution.

He was enraged when Erik S. Siebert, the U.S. attorney for the Eastern District of Virginia, decided there was insufficient evidence to charge two people Trump regards as enemies: Comey and New York Attorney General Letitia James.

I want him out,” Trump angrily told reporters on Sept. 19, 2025. Siebert resigned, although Trump claimed he had fired him.

Trump’s most recent demands for retribution came soon after top adviser Stephen Miller’s vow to prosecute leftists in the “vast domestic terror movement” – that the administration blames, without evidence, for Charlie Kirk’s assassination – using “every resource we have.”

As the director of the FBI, Patel will likely be in charge of the investigations of perceived enemies generated by the Department of Justice and the White House. He already has sacrificed the bureau’s independence, making it essentially an arm of the White House.

This isn’t the first time an FBI director has been driven by a desire to suppress the rights of people perceived to be political enemies. Hoover, director until his death in 1972, operated a secret FBI within the FBI that he used to destroy people and organizations whose political opinions he opposed.

A man with a beard and glasses and dark hair standing and appearing to almost be praying.
FBI Director Kash Patel reacts to Donald Trump’s address to a joint session of Congress at the U.S. Capitol on March 4, 2025.
AP Photo/Ben Curtis

A burglary’s revelations

Hoover’s secret FBI was revealed, beginning in 1971, when a group of people called the Citizens Commission to Investigate the FBI broke into an FBI office and removed files.

This group suspected Hoover’s FBI was illegally suppressing dissent. Given Hoover’s enormous power, they thought it was unlikely any government agency would investigate the FBI. They decided documentary evidence was needed to convince the public that suppression of dissent – what they considered a crime against democracy – was taking place.

A blue historical marker on a pole outside of a building, that commemorates 'FBI OFFICE BURGLARY.'
A historical marker commemorates the site of the burglary that exposed COINTELPRO.
Betty Medsger

In my book “The Burglary: The Discovery of J. Edgar Hoover’s Secret FBI,” I describe how these eight people decided to risk imprisonment and break into the FBI’s office in Media, Pennsylvania.

The files they stole and made public confirmed the FBI was suppressing dissent. But they revealed much more: Hoover’s secret FBI and the startling crimes he had committed. These secret operations had become so extensive that they eventually diminished the bureau’s capacity to carry out its core mission: law enforcement.

Hoover, one of the most admired and powerful officials in the country, had secretly conducted a wide array of operations directed against people whose political opinions he opposed.

The files revealed that agents were instructed to “enhance paranoia” and make activists think there was an FBI agent “behind every mailbox.” Questioning Vietnam war policy could cause anyone, even a U.S. senator, Democrat J. William Fulbright of Arkansas, to be placed under FBI surveillance.

It was the revelation of Hoover’s worst operations, COINTELPRO – what Hoover called The Counter Intelligence Program – that made Americans demand investigation and reform of the FBI. Until the mid-1970s, there had never been oversight of the FBI and little coverage of the FBI by journalists, except for laudatory stories.

A video chronicle about the 1971 break-in at an FBI office in Media, Pa., that uncovered vast FBI abuses.

‘Almost beyond belief’

The COINTELPRO operations ranged from crude to cruel to murderous.

Antiwar activists were given oranges injected with powerful laxatives. Agents hired prostitutes known to have venereal disease to infect campus antiwar leaders.

Many of the COINTELPRO operations were almost beyond belief:

· The project conducted against the entire University of California system lasted more than 30 years. Hundreds of agents and informants were assigned in 1960 to spy on each of Berkeley’s 5,365 faculty members by reading their mail, observing them and searching for derogatory information – “illicit love affairs, homosexuality, sexual perversion, excessive drinking, other instances of conduct reflecting mental instability.”

· An informant trained to give perjured testimony led to the murder conviction of Black Panther Geronimo Pratt, a decorated Vietnam War veteran. He served 27 years in prison for a murder he did not commit. He was exonerated in 1997 when a judge found that the FBI concealed evidence that would have proved Pratt’s innocence.

· The bureau spied for years on Martin Luther King Jr. After it was announced King would receive the 1964 Nobel Peace Prize, Hoover approved a particularly sinister plan that was designed to cause King to commit suicide.

A letter to 'KING' urging him to commit suicide, calling him 'filthy, abnormal, fraudulent.'
A letter sent anonymously by the FBI to Martin Luther King Jr. in 1964 urging him to commit suicide.
Wikipedia

· What one historian called Hoover’s “savage hatred” of Black people led to the FBI’s worst operation, a collaboration with the Chicago police that resulted in the killing of Chicago Black Panther Fred Hampton, shot dead by police as he slept. An FBI informant had been hired to ingratiate himself with Hampton. He came to know Hampton and the apartment very well. He drew a map of the apartment for the police on which he located “Fred’s bed.” After the killing, Hoover thanked the informant for his role in this successful operation. Enclosed in his letter was a cash bonus.

· Actress Jean Seberg was the victim of a 1970 COINTELPRO operation. In a memo, Hoover wrote that she had donated to the Panthers and “should be neutralized.” Seberg was pregnant, and the plot, approved personally by Hoover – as many COINTELPRO plots were – called for the FBI to tell a gossip columnist that a Black Panther was the father. Agents gave the false rumor to a Los Angeles Times gossip columnist. Without using Seberg’s name, the columnist’s story made it unmistakable that she was writing about Seberg. Three days later, Seberg gave birth prematurely to a stillborn white baby girl. Every year on the anniversary of her dead baby’s birth, Seberg attempted suicide. She succeeded in August 1979.

There was wide public interest in these revelations about COINTELPRO, many of which emerged in 1975 during hearings conducted by the Church Committee, the Senate committee chaired by Sen. Frank Church, an Idaho Democrat.

At this first-ever congressional investigation of the FBI and other intelligence agencies, former FBI officials testified under oath about bureau policies under Hoover.

One of them, William Sullivan, who had helped carry out the plots against King, was asked whether officials considered the legal and ethical issues involved in their operations. He responded:

“Never once did I hear anybody, including myself, raise the questions: ‘Is this course of action which we have agreed upon lawful? Is it legal? Is it ethical or moral?’ We never gave any thought to that line of questioning because we were just pragmatic. The one thing we were concerned about: will this course of action work, will it get us what we want.”

Ethical? Legal?

The future of the new FBI under Patel and Trump is unclear, especially in light of the president’s known tolerance for lawlessness, even violence. His gifts of clemency and pardons to Jan. 6 rioters are evidence of that.

As for Patel, fired FBI Officials stated in their recent lawsuit over those dismissals that Patel had told one of them it was “likely illegal” to fire agents because of the cases they had worked on, but that he was powerless to resist Trump’s demands.

The recent statements from both Trump and top aide Miller suggest the FBI’s independence, and broader constitutional requirements that the administration remain faithful to the law, are meaningless to them. They suggest that, like Hoover, they would criminalize dissent.

What will happen at the FBI after the internal purge ends? Will retribution fever wane? Will Patel refocus on the bureau’s chief mission, law enforcement? And will the questions asked in Congress in 1975, as the bureau was being forced to reject Hoover’s worst practices, be asked now: Is what we are doing ethical? Is it legal?

This story has been updated to include the indictment of James Comey, former head of the FBI.

The Conversation

Betty Medsger does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Trump’s targeting of ‘enemies’ like James Comey echoes FBI’s dark history of mass surveillance, dirty tricks and perversion of justice under J. Edgar Hoover – https://theconversation.com/trumps-targeting-of-enemies-like-james-comey-echoes-fbis-dark-history-of-mass-surveillance-dirty-tricks-and-perversion-of-justice-under-j-edgar-hoover-265364

Voici pourquoi la poutine est devenue le nouveau plat national québécois

Source: The Conversation – in French – By Geneviève Sicotte, Professeure, Études françaises, Concordia University

En quelques décennies, la poutine a acquis le statut de nouveau plat identitaire québécois.

On connaît sa composition : frites, fromage en grains et sauce, le tout parfois surmonté de diverses garnitures. C’est un mets qu’on peut trouver simpliste, un fast-food qui assemble sans grande imagination des aliments ultra-transformés et pas très sains.

Pourquoi s’impose-t-il aujourd’hui avec tant de force ?

Dans La poutine. Culture et identité d’un pays incertain publié cette semaine aux PUM, j’explore cette question. J’essaie de comprendre ce qui fait qu’un aliment devient un repère et même un emblème pour une collectivité. Mon hypothèse est que la poutine doit sa popularité au fait qu’elle mobilise de manière dynamique des enjeux sensibles de l’identité québécoise actuelle.

Pour analyser l’imaginaire qui s’élabore autour du plat, j’approfondis ici quelques pistes : ses liens avec la tradition culinaire québécoise et la convivialité particulière qui la caractérise.




À lire aussi :
Mangerez-vous de la tourtine à Noël ?


Un plat pour repenser le passé

La poutine est relativement récente : elle apparaît dans les années cinquante et ne devient populaire que dans les dernières décennies du XXe siècle. Mais en fait, malgré cette modernité, elle touche à des enjeux liés au passé et permet de les repenser. C’est un premier facteur qui explique son nouveau statut de plat emblématique.

La cuisine traditionnelle du Québec était d’abord associée à la subsistance. Fondée surtout sur les ressources agricoles, modeste, simple et parfois rudimentaire, elle devait emplir l’estomac. Pour cette raison, elle a longtemps été dénigrée, comme en témoignent les connotations négatives attachées à la soupe aux pois ou aux fèves au lard.

Des valorisations sont bien survenues au fil du XXe siècle. Mais même si on trouve aujourd’hui des mets traditionnels dans certains restaurants ou qu’on les consomme ponctuellement lors de fêtes, on ne saurait parler de revitalisation. Peu cuisinés, ces mets sont surtout les témoins d’une histoire, d’une identité et de formes sociales dans lesquelles une bonne partie de la population ne se reconnaît pas.

Or dans l’imaginaire social, la poutine semble apte à repositiver cette tradition. D’emblée, elle permet que des traits culinaires longtemps critiqués — simplicité, économie, rusticité et abondance — soient transformés en qualités. Elle procède ainsi à un retournement du stigmate : le caractère populaire de la cuisine, qui a pu susciter une forme de honte, est revendiqué et célébré.

Par ailleurs, la poutine se compose d’ingrédients qui agissent comme les marqueurs discrets des influences britanniques, américaines ou plus récemment du monde entier qui constituent la cuisine québécoise. Mais l’identité qu’évoquent ces ingrédients semble peu caractérisée et fortement modulée par le statut de fast-food déterritorialisé du plat. Le plébiscite de la poutine s’arrime ainsi à une situation politique contemporaine où le patriotisme québécois n’est plus un objet de ralliement dans l’espace public. Le plat devient un repère identitaire faible et, dès lors, consensuel.

Un plat convivial

Les manières de manger révèlent toujours des préférences culturelles, mais c’est d’autant plus le cas quand la nourriture consommée est ressentie comme emblématique. C’est pourquoi il faut également traiter de l’expérience concrète de la consommation de poutine et de la convivialité qu’elle suppose, qui portent elles aussi des dimensions expliquant son essor.

Le casseau abondant de frites bien saucées révèle une prédilection pour un certain type de climat et de liens sociaux. Il est posé sans façon au centre de la table et souvent partagé entre les convives qui y puisent directement. Les relations entre les corps et avec l’espace qui se dévoilent par ces usages, ce qu’on appelle la proxémie, prennent ici une dimension personnelle et même intime.

La convivialité associée à la poutine rejette ainsi les codes sociaux contraignants et valorise un registre libre et familier, où la communauté emprunte ses formes au modèle familial restreint plutôt qu’au social élargi.

Une nourriture de réconfort

Une fois consommé, le mets emplit l’estomac et rend somnolent. Ce ressenti physiologique fait peut-être écho à l’ancienne cuisine domestique qui visait la satiété. Toutefois, il trouve aussi des résonances contemporaines.

La poutine appartient en effet à la catégorie très prisée des nourritures de réconfort, ce phénomène typique d’une époque hédoniste. Mais la poutine n’est pas seulement un petit plaisir du samedi soir. Elle devient le signe de préférences culturelles collectives : les corps se rassemblent dans une sociabilité de proximité qui vise le plaisir et qui permet de mettre à distance des enjeux sociaux et politiques potentiellement conflictuels.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


En outre, le plat fait l’objet de consommations festives qui accentuent sa portée identitaire. Dans ces occasions, la convivialité devient codifiée et parfois ritualisée. La poutine des vacances marque la fin des obligations, le moment où s’ouvre un été de liberté ; la première poutine des immigrants signe leur intégration à la société québécoise ; la poutine nocturne permet d’éponger les excès avant de réintégrer le monde des obligations ; les festivals de la poutine constituent des moments de rassemblement joyeux de la collectivité.

Ces fêtes sont de véritables performances de l’identité, des moments où s’inventent des modalités renouvelées du vivre-ensemble qui valorisent le plaisir, l’humour, la modestie et les liens de proximité. Elles offrent une image qui, malgré qu’elle puisse être idéalisée, joue un rôle actif dans la représentation que la collectivité se fait d’elle-même. Et cela se manifeste même dans le domaine politique, notamment lors des campagnes électorales !

La poutine, passage obligé des campagnes électorales


Un plat emblématique pour célébrer une identité complexe

Loin d’être un signe fixe, un plat identitaire est dynamique et polyphonique. Quand nous le mangeons, nous mobilisons tout un imaginaire pour penser ce que nous sommes, ce que nous avons été et ce que nous voulons être.

La poutine illustre clairement cela. Elle réfère au passé, mais le reformule et l’inscrit dans le présent. Elle valorise une certaine forme de collectivité, mais il s’agit d’une collectivité plutôt dépolitisée et non conflictuelle, rassemblée autour de valeurs familiales et familières.

Privilégiant l’humour et la fête, elle évite le patriotisme sérieux et affirme son existence avec modestie. La poutine devient ainsi un support permettant de manifester l’identité québécoise actuelle dans toute sa complexité. C’est ce qui explique qu’elle s’impose comme nouveau plat emblématique.

La Conversation Canada

Geneviève Sicotte a reçu des financements de l’Université Concordia, du Conseil de recherches en sciences humaines du Canada (CRSH) et du Fonds de recherche du Québec, Société et culture (FRQSC).

ref. Voici pourquoi la poutine est devenue le nouveau plat national québécois – https://theconversation.com/voici-pourquoi-la-poutine-est-devenue-le-nouveau-plat-national-quebecois-263977

Développement personnel : pourquoi faudrait-il « se ressourcer » ?

Source: The Conversation – in French – By Yael Dansac, Anthropologue et collaboratrice scientifique, Université Libre de Bruxelles (ULB)

« Se ressourcer », un leitmotiv des pratiques spirituelles contemporaines. Pexels, CC BY

Séjour de yoga restauratif à Saint-Malo, bain de forêt rééquilibrant à Rambouillet, retraite de méditation harmonisante à Chamonix… le marché des spiritualités contemporaines regorge d’options pour retrouver sa maîtrise de soi, amplifier sa productivité ou cultiver son bien-être. Ces vingt dernières années, le terme « se ressourcer » est devenu un verbe fourre-tout très présent sur le marché du développement personnel, dans la sphère des thérapies alternatives et dans le monde du travail. Mais qu’est-ce que cette expression désigne précisément, et à quels besoins répond-elle ?


La forme pronominale « se ressourcer » a une résonance francophone qui ne correspond pas tout à fait au sens des expressions, comme replenishing, (réapprovisionnement) ou recharging (rechargement), elles aussi très répandues sur le marché des spiritualités contemporaines des sociétés anglophones.

Dans le dictionnaire, « se ressourcer » signale l’action de « revenir à ses sources ». Cette expression porte l’idée d’un retour à un espace-temps où, selon l’anthropologue Stéphanie Chanvallon, l’être humain serait capable de rencontrer une partie perdue de son essence ou de son énergie.

« Se ressourcer » semble correspondre à une tâche perpétuelle ou sisyphéenne : celle de réacquérir de manière répétitive des potentialités perdues au cours d’une trajectoire personnelle, mais qui demeurent à l’intérieur de chacun. De même, il s’agirait d’un moyen privilégié pour surmonter l’épuisement physique et mental que nous subissons depuis notre passage à une société d’accélération, telle que théorisée par le philosophe allemand Hartmut Rosa.




À lire aussi :
La pédagogie de la résonance selon Hartmut Rosa : comment l’école connecte les élèves au monde


La source en question

Les adeptes des spiritualités contemporaines s’approprient ce terme pour évoquer l’existence d’une « source », comme l’illustre le témoignage d’une psychothérapeute, recueilli au cours de l’une de nos enquêtes sur les pratiques holistiques dans le Morbihan (Bretagne), en 2018 :

« La source, pour moi, est une borne d’énergie, sur laquelle je dois me connecter de temps en temps afin de recharger mes batteries. Il n’y en a pas qu’une. Votre source peut également se trouver dans la méditation, le yoga ou la marche dans la forêt. Votre bien-être intérieur est le premier indice qui vous indique que vous avez trouvé le bon moyen pour vous ressourcer. »

Localiser la « source » est une tâche dirigée par les émotions et par les subjectivités. Cela lui permet d’adopter les formes les plus variées, dans le temps et dans l’espace. Elle peut se matérialiser dans des milieux naturels tels que la forêt ou les bords de mer, dans des contextes urbains comme les cabinets de médecine alternative ou les parcs, à des dates précises telles que les solstices ou les équinoxes, ou encore à travers des activités diverses comme les retraites méditatives, les pratiques psychocorporelles ou les stages de découverte du néo-chamanisme.

Le choix de « retourner à la source » passe avant tout par une décision personnelle d’accorder une importance non négociable au maintien de son propre bien-être, comme l’exprime cet autre témoignage recueilli, en 2023, auprès d’un spécialiste en pratiques holistiques :

« Le jour où vous décide[re]z que le retour à la source fait partie essentielle de votre vie, vous réaliserez à quel point le fait de vous arrêter par moments et de vous retrouver ici avec vous-même vous rend beaucoup plus efficace dans tous les aspects de votre vie. »

D’après les témoignages recueillis, « se ressourcer » n’est pas envisagé comme une activité isolée ou une pratique précise, mais plutôt comme la quête d’un état émotionnel souvent exprimé par les formules « centré », « ancré » ou « équilibré ».

Cette quête, étroitement liée à la consommation de produits pour travailler sur soi-même, s’inscrit dans une modernité tardive marquée par l’individualisme et la culture de consommation. Dans un monde où la quête de sens est devenue le leitmotiv, le fait de « se ressourcer » a évolué en outil formateur de notre identité.

Entre quête de soi et dynamique d’auto-engendrement

L’essor de pratiques spirituelles séculières est emblématique de cette fascination pour des expériences valorisées pour leurs vertus « ressourçantes ». Ces activités permettent aux participants de se livrer à une quête de soi susceptible d’être éprouvée comme une expérience intense et inattendue. Cette quête peut être désirée comme une rencontre avec ses racines, un retour sans limites à une essence « pure », ou un processus continu de réactualisation des connaissances sur soi-même et sur autrui.

La dimension cyclique est au centre des activités qui supposent un retour aux sources. Ce caractère répétitif est constitutif des pratiques rituelles occidentales où l’injonction de « renaître à soi-même » façonne les expériences des participants. Plutôt que d’être vécue comme la quête d’un « soi véritable » une fois pour toutes, cette prescription est éprouvée comme une dynamique d’auto-engendrement, qui n’a pas une durée déterminée et qui inclut la consommation régulière des produits et des formations ressourçantes.

Entre quête d’un état affectif et expérience métaphysique

Si l’acte de « se ressourcer » est tellement estimé au sein de nos sociétés, c’est notamment à cause de son potentiel eudémonique  : c’est-à-dire qu’il est associé aux expériences d’épanouissement personnel, d’acceptation de soi, d’établissement de relations positives avec les autres, et d’identification du sens de la vie.

Les pratiques ressourçantes sont également vues comme propices au développement des émotions positives, telles que la compassion, la gratitude et la reconnexion à une nature envisagée comme « vivante ». Le passage d’un état affectif négatif (marqué par l’angoisse, le stress ou la colère) à un état affectif positif est un des principaux bénéfices recherchés par les participants, comme l’exprime ce témoignage d’un enseignant recueilli, en 2024, lors d’une enquête sur les pratiques spirituelles fondées sur la nature, en Wallonie (Belgique) :

« Ce stage m’a permis de réaliser un véritable tournant dans ma vie et de cultiver l’humilité et la compassion. Je me sens infiniment chanceux d’avoir fait cette expérience qui favorise l’ancrage et la gratitude. »

Le ressourcement peut également être apprécié comme un processus qui s’exprime mieux dans un langage « énergétique », caractéristique des religions métaphysiques étudiées par la spécialiste en sciences des religions Catherine L. Albanese. Il s’agit de systèmes de croyances qui empruntent au langage du monde scientifique. C’est pourquoi l’acte de se ressourcer se traduit parfois par des expressions comme « faire le plein d’énergie » ou « réaligner nos énergies », qui désignent un processus de synchronisation et reconditionnement des couches d’énergies subtiles, censées entourer toute matière. Ceci est exposé de la manière suivante par un ingénieur qui a fait l’expérience d’un stage de guérison énergétique en Bretagne :

« La visite de ces hauts lieux permet notamment de ressentir diverses énergies au niveau physique, psychique ou spirituel, sur des sites particuliers. Ainsi, j’ai pu décharger une grande partie des énergies qui me dérangent habituellement, et me ressourcer de bonnes énergies qui m’ont apporté de l’équilibre. »

En somme, l’expression « se ressourcer » et les pratiques qu’elle recouvre sont devenues des outils formateurs des dynamiques relationnelles entre nous, nous-mêmes et autrui. Elles ouvrent la voie à l’engendrement d’un « soi-même » susceptible d’être renouvelé sans limite.

Dans une ère marquée par des crises multiformes, « se ressourcer » est également valorisé par un discours dominant qui exhorte les individus à devenir « la meilleure version d’eux-mêmes ».

The Conversation

Yael Dansac ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Développement personnel : pourquoi faudrait-il « se ressourcer » ? – https://theconversation.com/developpement-personnel-pourquoi-faudrait-il-se-ressourcer-263739

La très longue feuille de route pour être un « bon patron »

Source: The Conversation – in French – By Michel Offerlé, Sociologie du politique, École normale supérieure (ENS) – PSL

« Patron », un terme qui a le plus souvent une charge péjorative. Que peut être alors un « bon patron » ? Les demandes adressées à celui qui préfère aujourd’hui être appelé « chef d’entreprise » ou « entrepreneur » sont multiples. Revue des principales qualités qui leur sont demandées.


Être patron, cela a-t-il à voir avec le ou la politique ? Jusqu’où la revendication de l’entreprise au « service du bien commun » (entre entreprise providence et « Laissez-nous faire nous-mêmes ») peut-elle impacter le métier ?

En France, le terme « patron » est plus souvent associé à des désinences fortement péjoratives : pas seulement mauvais (du point de vue gestionnaire) mais plutôt « salaud de », « pourri », « con », « voyou » ; quant aux adjectifs : « autoritaire » et « tyrannique » se le disputent à « hautain », « caractériel » ou « inabordable ».

Dans tous les cas, être patron suppose de se placer dans une relation de domination à l’égard de ses salariés qui sont, eux, dans un état de subordination économique et juridique à l’égard de leur employeur. L’employeur est le chef de l’entreprise et, comme tel, c’est lui qui peut se réserver les tâches les plus gratifiantes, et déléguer le travail, et notamment « le sale boulot » à ses « collaborateurs ».

Indispensables patrons

Cette présentation négative a été contrée depuis longtemps par un ensemble de dénégations argumentatives et de pratiques qui entendent montrer que le patron est indispensable dans une économie de marché, soit le système économique le plus efficace dans lequel se crée de la richesse et des emplois.

Et le mot « patron » tend à être refoulé dans des siècles antérieurs (le patron « à la Zola »). Le terme est entré en déshérence au profit de ceux de « chef d’entreprise », d’« entrepreneur » ou, dans un langage international, de « manager » voire de CEO (pour chief executive officer, dans la langue de Steve Jobs). En 1995, le changement du nom de l’organisation interprofessionnelle du Conseil national du patronat français (CNPF) en Mouvement des entreprises de France (Medef) marque aussi cet objectif de modifier et de moderniser les représentations patronales.




À lire aussi :
« Patron incognito », ou quand la télé-réalité façonne une vision morale de l’entreprise


Par ailleurs, des techniques très différentes de mise au travail et d’acceptation ou d’assentiment de la subordination s’inventent tous les jours, de manière parfois cosmétique, pour établir ou rétablir un management qui peut être alors :

Paternalisme de proximité ?

Cela peut aller du réinvestissement du paternalisme de proximité (il vient dire bonjour tous les matins, il connaît les problèmes de ses salariés) à des expérimentations, comme l’entreprise libérée, en passant par des pratiques vertueuses que peuvent mettre en œuvre des patrons de l’économie sociale et solidaire ou certains innovateurs patronaux.

La question du ratio d’équité, soit le rapport entre le salaire médian ou moyen des salariés et celui des plus hauts dirigeants, reste un sujet relativement confidentiel. Certains rares patrons pratiquent le 1 à 4 quand d’autres acceptent un salaire mensuel à 7 chiffres, ce qui peut amener le ratio à plus de 200.

HEC Paris, 2016.

Un bon patron serait celui qui paye bien, qui embauche des CDI, comme, par exemple Axyntis qui assure des conditions de travail optimales à ses salariés, hommes et femmes, qui a de la considération pour eux et pour leur travail, qui les traite comme des co-équipiers, qui les associe à la réflexion voire à la décision, et, au-delà de toutes ces contraintes, qui sait assurer la rentabilité financière de l’entreprise, sa viabilité et sa pérennité.

Des marges de manœuvre vertueuses

En poussant au maximum les rapports sociaux dans un cadre de capitalisme de marché, les marges de manœuvre vertueuses sont possibles et encore à inventer. Quelques entreprises, mais beaucoup moins qu’aux États-Unis avant la nouvelle présidence de Trump, ont pris l’initiative de politiques de diversité (égalité entre femmes et hommes, diversité d’origine des salariés).

La taille de l’entreprise est parfois discriminante, mais pas toujours. Un grand patron pourrait arriver à une forme d’harmonie conjuguée aux pièces du puzzle d’une multinationale et un petit patron peut aussi se révéler tout à fait tyrannique, qu’il s’agisse d’une entreprise conventionnelle ou d’une start-up, une catégorie d’une fluidité exemplaire où le up or out ainsi que l’agilité et la flexibilité maximales peuvent mener à l’arbitraire et à la précarité.

Jugé par ses pairs… et par la société

Être un bon patron, c’est l’être aussi à l’égard de ses pairs, qui se jaugent et se reconnaissent entre eux, et qui peuvent à tous les gradins des patronats entrer en concurrence pour obtenir des prix et des trophées sur certaines scènes et défendre des causes communes sur d’autres. Mais être « un bon patron » ne s’arrête pas à la porte de l’entreprise ou des clubs de sociabilité patronale.

Depuis plusieurs années, la thématique de l’entreprise a resurgi dans les débats socioéconomiques et politiques. Pour autant, on ne va plus jusqu’à prôner, comme cela a précédemment été fait, une « réforme de l’entreprise » ou encore la nécessité d’avoir un permis de diriger une entreprise (comme il existe un permis de conduire), ni même une nationalisation des moyens de production et d’échange qui serait couronnée par une autogestion.

Les propositions les plus audacieuses, en matière de transformation des directions d’entreprises, vont à l’instauration de conseils des parties prenantes et à l’introduction (partielle) de la Mitbesttimung (ou, cogestion paritaire) allemande, soit la présence des salariés dans les organes de direction des entreprises à quasi parité avec les porteurs de capitaux.

Loi Pacte

À la suite du rapport Notat-Senard (2018), la loi Pacte a entériné certaines modifications et a amendé l’article 1833 du Code civil en y définissant de manière dynamique le but d’une société commerciale étant gérée « dans son intérêt social, en prenant en considération les enjeux sociaux et environnementaux de son activité ». Ainsi, le but n’est pas, comme l’écrivait Milton Friedman, de faire uniquement du profit.

Désormais il ne s’agit pas de satisfaire seulement les actionnaires (sans qui rien n’existerait, estiment les libéraux) en matière de rentabilité économique, mais aussi de tenir compte des parties prenantes que sont les salariés et, plus largement, la collectivité. Les entreprises sont désormais responsables des conséquences que leur activité produit sur la société et sur son environnement.

Exercices domestiques

Cette loi a donné lieu à des débats nombreux, dans le pas assez ou le beaucoup trop, et l’on a vu fleurir des raisons d’être entrepreneuriales qui sont allées des exercices purement cosmétiques jusqu’à une réflexion orchestrée sur les finalités de telle entreprise. De ce fait, les entreprises à mission, pour lesquelles des contraintes diverses de résultats selon l’exigence de certification ne sont pas très nombreuses, et encore moins parmi les très grandes entreprises.

Pourtant, certaines organisations, le Crédit mutuel Alliance fédérale et la Maif ont, par exemple, mis en place, en 2023, le dividende écologique et le dividende sociétal, qui ne sont pas suivis par d’autres grandes entreprises. Ces dividendes consistent à reverser une partie de leurs résultats à des projets écologiques ou sociaux.

Fondation nationale pour l’enseignement de la gestion des entreprises (Fnege) médias, 2022.

S’arrêter là serait négliger une large partie du problème, car la responsabilité sociale et environnementale (RSE) des entreprises est loin de ne renvoyer qu’à des initiatives isolées. Elle est désormais mesurée par un ensemble d’indicateurs (obligatoires ou facultatifs) parfois très sophistiqués et en concurrence, et doit aussi se conjuguer avec d’autres types d’implication.

Un « bon patron » est celui qui, idéalement, ne s’intéresse pas seulement à ses éventuels actionnaires, à ses salariés, à ses consommateurs (qualité/prix/utilité sociale et environnementale), mais aussi à ses fournisseurs et à ses sous-traitants pour lesquels il doit appliquer les mêmes règles et, pour les grandes entreprises, qu’il ne doit pas pressurer en matière de coûts (qui se répercutent obligatoirement sur la qualité du produit et sur les conditions de travail des salariés) ni jouer sur la trésorerie et les délais de paiement.

Un « bon patron » est aussi celui qui « tient » au travail dans des dimensions pratiques. Autrement formulé, il participe directement aux activités de l’entreprise qu’il s’agisse de la gérer quotidiennement, de créer des emplois, d’étendre son activité ou même de contribuer parfois directement à des activités de production.

Reste à ajouter la dernière responsabilité, à l’égard de l’État qui apparaît chez beaucoup d’entre eux comme un prédateur inefficace. Un « bon patron » devrait aussi avoir une politique fiscale transparente et éthique, mais elle est bien souvent en concurrence avec une saine gestion des utilités qui impliquent optimisations, voire exils fiscaux. Quant aux patrons catégorisés comme « exilés fiscaux » ou encore « surexploiteurs » des ressources de la planète, on retrouve là notre oxymore initial faisant d’eux des « mauvais » patrons plutôt que des « bons ».

On n’oubliera pas dans cette énumération à 360 degrés du métier patronal, le rôle que peut jouer « la femme du patron » dans la maisonnée économique que constitue l’aventure entrepreneuriale (héritée, achetée, créée ou assumée temporairement pour les patrons de grandes entreprises). On pourrait parler aussi du mari de la patronne car, si le métier de patron, bon ou mauvais, est encore masculin principalement, la féminisation très différentielle selon les secteurs est en marche.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. La très longue feuille de route pour être un « bon patron » – https://theconversation.com/la-tres-longue-feuille-de-route-pour-etre-un-bon-patron-263560

Calling in the animal drug detectives − helping veterinarians help beluga whales, goats and all creatures big and small

Source: The Conversation – USA – By Sherry Cox, Clinical Professor of Biomedical and Diagnostic Sciences, University of Tennessee

How do you measure the concentration of a drug in a tortoise shell? Thirawatana Phaisalratana/iStock via Getty Images Plus

In my work as a veterinary pharmacologist, I never know exactly what I’m going to get when I open my email. It could be a request from a veterinarian asking my team to determine the concentration of a drug to treat the shell of a turtle infected with fungal disease. Or it could be an inquiry from a researcher wondering whether we can help them figure out the dose of antacid they should give goats and sheep with ulcers.

In one email, a veterinarian wanted to know whether we could determine the concentration of an extended-release antibiotic in tigers to determine how to best treat them. Figuring this out would make the difference between trying to give a sick tiger a pill every 12 hours – a difficult task – or a shot once a month.

At our veterinary pharmacology lab, my colleagues and I analyze drug levels in animals from zoos and aquariums nationwide, from tiny mice to majestic elephants and from penguins to farm animals. Whether it’s a dolphin with an infection or a tiger in pain, we help veterinarians determine the right treatment, including how much medicine is best for each animal.

Here’s a peek behind the scenes to experience a day in the life of a veterinary pharmacologist, and what it takes to ensure these creatures get the care they need to thrive.

Beluga milk and antibiotics

One day, I received an email from an aquarium asking whether my team and I could determine the concentration of an antibiotic in milk – specifically beluga whale milk.

Beluga whales live in cold waters throughout the Arctic and are extremely sociable mammals that hunt and migrate together in pods. They are recognized for their distinctive white color and are known as the “canaries of the sea” for the wide variety of sounds they make. Whales like the beluga are at the top of the food chain and play an important role in the overall health of the marine environment. However, these animals are threatened by extinction. There are roughly 150,000 beluga whales left in the world today, and certain populations are considered endangered.

Close-up of a person cupping the open mouth of a beluga whale calf
Beluga whales are threatened by extinction.
Erin Hooley/AP Photo

The aquarium reached out to us as part of their research on the factors threatening the sustainability of belugas in the wild and what steps can be taken to protect them. The team there works with animals both in human care and in their natural habitats to improve husbandry methods, understanding of the underwater world and the conservation of aquatic life.

We agreed to try to extract the drug from the milk. However, we first needed a sample of whale’s milk. So, the first question: How do you get milk from a whale? Through my decades of working in this field, my team has studied samples from a wide range of species, but this was the first time someone asked us to analyze whale’s milk.

Unfortunately, I never did find out how they actually got the sample. But I cannot imagine it was easy. The sample we received reminded us of a thick buttermilk, very clumpy with a little bit of a blue tint.

The milk sample they gave us came from a whale with an infection who was also nursing a calf. The veterinarians wanted to know whether the antibiotic was crossing into the milk, indicating that the calf may have been exposed to the drug.

Each chemical compound requires its own unique process to extract from a particular sample type. This extraction can range from one to 15 steps and can take from one to six hours to perform. After we devised a method and procedure to extract the antibiotic from milk, we set to analyzing the sample.

We found the presence of drug in the sample, which meant the nursing calf was getting exposed to antibiotic from its mother’s milk. This posed health risks to the calf, including disruption to its gut microbiome that could lead to a weakened immune system, increased susceptibility to infections and antibiotic resistance.

Making a treatment plan

Now that the aquarium knew the beluga milk contained the antibiotic, it could devise a treatment plan. Beluga calves are dependent on nursing for the first year of life until their teeth emerge. So stopping the calf from drinking its mother’s milk wasn’t an option.

When prescribing antibiotics, a veterinarian needs to carefully consider the potential risks and benefits to both the nursing mother and her offspring. The goal is to provide effective treatment for the parent while minimizing the risk of harm to the offspring.

Person wearing white lab coat and nitrile gloves handling lab equipment.
A member of the team at the veterinary pharmacology lab at the University of Tennessee analyzes samples.
Sherry Cox, CC BY-NC-SA

In order to determine whether the nursing calf was at risk, the veterinarian wanted to determine the concentration of antibiotic in the calf.

To measure how much antibiotic the calf was ingesting from the milk, the aquarium sent us a plasma sample from the calf to analyze. While we did find measurable amounts of the drug in the sample, there was not enough to cause harm to the calf.

With this information, the veterinarian decided to continue to give the mother the antibiotic. The veterinarian gave our team samples from both the mother and the calf to continue monitoring the drug concentrations.

Effectively treating animals

For many animals, there is limited information available to guide clinicians when deciding treatment plans. Many dosage regimens are extrapolated from animals with different physiologies and metabolisms compared to the animal receiving the drug. What might cure one species might kill another.

Evaluating how safe and effective a drug is for a particular species is essential to not only properly treat and prevent disease but also to relieve pain. The research we do provides needed information on appropriate doses in vulnerable species for which there is no scientific data available.

I find the work we do rewarding because we provide information to so many veterinarians to help them take care of remarkable creatures great and small.

The Conversation

Sherry Cox does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Calling in the animal drug detectives − helping veterinarians help beluga whales, goats and all creatures big and small – https://theconversation.com/calling-in-the-animal-drug-detectives-helping-veterinarians-help-beluga-whales-goats-and-all-creatures-big-and-small-265430