Source: The Conversation – in French – By Auguste Gires, Ingénieur en chef des Eaux, Ponts et Forêts, chercheur au laboratoire Hydrology, Meteorology and Complexity (HM&Co), École Nationale des Ponts et Chaussées (ENPC)
Dans leur ouvrage Balade sous la pluie, paru en 2025 aux Presses des Ponts, Auguste Gires, ingénieur en chef du corps des Ponts, eaux et forêts, et chercheur au laboratoire Hydrologie, météorologie et complexité de l’École nationale des ponts et chaussées, et Eleonora Dallan, ingénieure en environnement et chercheuse au département Terre, environnement, agriculture et forêts, de l’Université de Padoue en Italie, nous emmènent en promenade pour découvrir un phénomène très courant, mais finalement peu connu : la pluie.
Pour la quatrième « escale » de ce livre-promenade, ils nous expliquent comment se forment physiquement les gouttes de pluie dans les nuages. Extrait.
N’est-il pas surprenant que tous ces cumulus (nuages cotonneux de basse altitude) semblent se former à la même altitude ? En réalité, cela est lié à la façon dont les nuages, et plus largement les précipitations, sont générés. Sur Terre, les conditions de température et de pression permettent à l’eau d’exister naturellement dans trois états : liquide (comme dans les océans, les rivières, ou l’eau du robinet), solide (tel que la glace, la neige, la grêle, la pluie verglaçante), et gazeuse, dans l’air sous forme de vapeur invisible. Les interactions entre ces trois états sont, entre autres, à l’origine de la pluie.
Les noms des nuages
La plupart des noms de nuages comportent des racines et qualificatifs latins,
dont l’association donne une indication sur le type de nuage désigné, notamment :
STRATUS/STRATO : étendu, couche, continu ;
CUMULUS/CUMULO : amas, moutonneux ;
CIRRUS/CIRRO : filament, fin ;
NIMBUS/NIMBO : porteur de pluie.
ALTO : moyen (même si altus en latin signifie « haut ») Par exemple, un altocumulus, est un nuage moutonneux de moyenne altitude.
Tout commence par l’évaporation, c’est-à-dire qu’une partie de l’eau liquide présente à la surface de la Terre s’évapore sous l’action du soleil. La vapeur d’eau se mélange à l’air ambiant près de la surface. Cet air, réchauffé par le soleil, devient plus chaud que celui du dessus. Sa masse volumique devient plus faible que celle de l’air qui l’entoure (on dit qu’il est plus léger dans le langage courant), ce qui facilite sa montée. En effet, les molécules qu’il contient bougent plus vite sous l’effet de la chaleur et occupent alors plus de place, tout en gardant la même masse.
En raison de la baisse de la température avec l’altitude, généralement d’environ 6,5 °C tous les 1 000 mètres, l’air initialement chaud se refroidit progressivement en montant. Il s’avère que la quantité de vapeur d’eau que l’air peut contenir diminue avec sa température (environ 7 % par degré). Dans un air plus froid, les molécules sont plus proches les unes des autres, ce qui réduit l’espace disponible pour d’autres molécules de gaz comme la vapeur d’eau. C’est la relation de Clausius-Clapeyron.
Ainsi, à une altitude donnée, qui dépend de la température et de la quantité initiale de vapeur d’eau, l’air devient saturé et ne peut plus contenir autant de vapeur d’eau qu’au moment de l’évaporation, quand l’air était encore proche de la surface. Les spécialistes appellent cela le point de rosée. Une partie de l’eau se condense et retrouve sa forme liquide d’origine. La formation de ces gouttelettes de nuages se fait généralement autour de noyaux de condensation, comme une poussière, de la glace ou du sel. Elles sont beaucoup plus petites que les gouttes de pluie dont nous avons parlé précédemment, avec une taille proche de 0,02 millimètre. Ces gouttelettes sont si petites que les turbulences de l’air ambiant sont suffisamment fortes pour les maintenir en suspension dans l’air, les empêchant de tomber au sol. Cette concentration de gouttelettes dans l’air forme un nuage. Le processus peut également se produire à température négative, et dans ce cas, le nuage est constitué de petits cristaux de glace.
D’une certaine manière, vous êtes tous témoins de la formation de nuages au quotidien. Profitons justement des températures hivernales. Inspirez, expirez… Vous remarquerez qu’une sorte de petit nuage se forme en expirant. Oui, il s’agit bien d’un petit nuage ! L’air qui sort de vos poumons, chaud et humide, rencontre de l’air plus frais dans l’atmosphère extérieure. Une partie de la vapeur d’eau qu’il contient se condense et forme des gouttelettes.
Le même phénomène est à l’œuvre lorsque vous faites bouillir de l’eau. Juste au-dessus de l’eau chaude dans la casserole, l’air est très chaud et contient beaucoup de vapeur d’eau. En remontant, il rencontre de l’air plus frais et une partie de l’eau se condense en gouttelettes. Ce que vous voyez n’est donc certainement pas de la vapeur d’eau, qui est invisible, mais bien un petit nuage.
La quantité d’eau liquide contenue dans les nuages, soit la teneur en eau liquide, varie fortement en fonction du type de nuages. Elle est exprimée en masse d’eau liquide par unité de volume d’air, en gramme par mètre cube (g/m3). Elle présente une très grande variabilité d’un nuage à l’autre, voire au sein d’un même nuage. Les ordres de grandeur peuvent aller de 0,06 g/m3 pour des nuages non précipitants comme les cirrus, des nuages de haute altitude, à 0,4 g/m3 pour des nuages engendrant des pluies, tels que les stratocumulus,** **qui sont à plus basse altitude. Les valeurs sont plus élevées pour les cumulonimbus, dont il sera question lors de la prochaine escale.
Qu’en est-il de la pluie ? Pour qu’elle se forme, il faut que les gouttelettes contenues dans les nuages grossissent de façon à être suffisamment lourdes pour tomber. Cela se produit principalement grâce à deux processus.
Le premier, le processus Wegener-Bergeron-Findeisen, implique la croissance de cristaux de glace dans des nuages en phase mixte. Ces nuages, caractérisés par des températures négatives, contiennent simultanément de l’eau dans ses trois états : de la glace, de l’eau surfondue (de l’eau en dessous de 0 °C, mais pas encore solidifiée) et de la vapeur d’eau. Dans cet environnement sous-saturé en eau liquide, celle-ci s’évapore rapidement, tandis que la vapeur d’eau se dépose tout aussi vite dans les cristaux de glace, entraînant une croissance soudaine de ces derniers. Le deuxième est la coalescence. Dans les nuages contenant assez de gouttelettes, certaines d’entre elles entrent en collision au cours de leur mouvement, fusionnent et grossissent progressivement.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.
Source: The Conversation – in French – By Julia Le Noë, Chargé de recherches en Sciences de l’Environnement, Institut de recherche pour le développement (IRD)
Peut-on généraliser l’agroécologie sans perdre en productivité ? Des travaux menés depuis plus de dix ans permettent de répondre par l’affirmative. Ils identifient trois leviers garantissant des rendements suffisants sans engrais chimiques.
L’agriculture biologique est souvent critiquée pour ses rendements plus faibles que ceux de l’agriculture dite conventionnelle. Un irréductible écart de rendement d’environ 30 % en moyenne la condamnerait à n’être qu’une solution de niche pour classes aisées. Nos travaux depuis dix ans montrent que non. Pour comprendre pourquoi, un petit détour par le cycle de l’azote et son histoire s’impose.
Le cycle de l’azote en bref
L’azote est un élément indispensable à toute vie sur terre : il est, après l’eau et le carbone, l’élément le plus abondant dans les organismes vivants, particulièrement dans les protéines et le matériel génétique. Mais dans les sols et les environnements aquatiques (hors organismes vivants), on le trouve en beaucoup plus petites quantités, essentiellement sous forme de nitrate et d’ammonium, les deux formes directement utilisables par les plantes. La rareté de l’azote dans les sols explique que cet élément a longtemps été le principal facteur limitant de la croissance des plantes en agriculture.
Pourtant l’azote constitue 78 % de l’atmosphère, mais il s’y trouve sous forme de diazote, un gaz inerte et pratiquement inutilisable par les plantes à une exception notable : celles des légumineuses (lentilles, haricots, pois, luzerne, trèfle…) qui sont capables d’assimiler ce diazote atmosphérique et de le rendre ainsi disponible dans les sols pour les autres plantes qui leur succèdent.
Un détour historique : de la rareté structurante à l’abondance destructrice de l’azote
La limitation en azote a longtemps été contenue par un couplage étroit entre production et consommation. Ainsi, les urines et les excréments riches en azote du bétail et, dans une moindre mesure, des populations humaines ont permis d’apporter des engrais organiques aux sols sous forme de fumier et de lisier. En Europe, tout au long des 18e, 19e et début du XXe siècle, l’introduction des légumineuses dans les rotations de cultures a également permis une double intensification organique : ces plantes enrichissaient les sols en azote et produisait également du fourrage permettant ainsi une hausse de la densité de cheptel, et partant, des apports de fumier.
Au début du XXe siècle et plus encore après la Seconde Guerre mondiale, une invention vient révolutionner tout cela. C’est l’invention du procédé Haber-Bosch (1909/1913), qui permet de synthétiser des engrais minéraux (nitrate et ammonium) à partir du diazote de l’air. Ce procédé sert d’abord pour la fabrication d’explosifs pendant les deux guerres mondiales, puis pour faire des engrais industriels qui permettent de s’affranchir de la complémentarité entre élevage et culture. C’est ce qui advient dans les pays industriels du Nord et, plus récemment dans une partie des pays des Suds ayant connu la « révolution verte », qui ont ainsi pu massivement augmenter leur production alimentaire avec la généralisation des engrais chimiques.
Cette évolution a cependant plusieurs revers. Elle entraîne une perte d’efficience d’utilisation de l’azote car plus on apporte de l’azote, moins la fraction utilisée par les plantes est importante et plus les pertes vers l’environnement sont grandes. La production d’engrais est par ailleurs très gourmande en énergie et s’accompagne d’émissions de gaz à effet de serre.
Enfin, l’utilisation d’engrais permet le développement de systèmes d’élevage intensifs et de cultures découplés et spécialisés. À l’échelle globale, il en résulte que 40 % des terres arables cultivées (à l’exclusion des prairies naturelles, savanes, steppes et autres espaces agricoles semi-naturelles) sont consacrées à l’alimentation du bétail. De plus, les territoires ultraspécialisés dans l’élevage ou les grandes cultures engendrent des excédents structurels d’azote. Ces excédents de fumier et lisier contaminent les systèmes aquatiques en nitrate (problèmes de potabilisation de l’eau, de biodiversité, d’eutrophisation) et augmentent les émissions d’ammoniac (avec des effets néfastes sur le système respiratoire) et de protoxyde d’azote (puissant gaz à effet de serre, environ 300 fois plus actif que le dioxyde de carbone). L’agriculture à l’échelle globale est ainsi aujourd’hui à l’origine d’environ un tiers des émissions de gaz à effet de serre et constitue le premier facteur de perturbation des cycles biogéochimiques de l’azote et du phosphore.
L’agriculture biologique : retour vers le futur ?
C’est dans ce contexte que, depuis les années 1970, et plus encore depuis le début des années 2000, l’agriculture biologique est apparue comme contre-modèle à cette agriculture chimique, basée sur les énergies fossiles et l’industrialisation de l’agriculture.
Dans son cahier des charges, l’agriculture biologique bannit les fertilisants chimiques et les pesticides. Baisse des rendements et retour vers le passé donc ?
Loin s’en faut. Car l’agriculture biologique s’appuie sur une connaissance approfondie du fonctionnement des écosystèmes. Elle repose sur des rotations longues (en Europe elles durent en moyenne de cinq à huit ans pour un cycle complet), intégrant plusieurs légumineuses dans le cycle de culture. Plus encore, nos travaux ont montré que, pour des apports totaux d’azote équivalents, les systèmes agricoles biologiques produisent autant, à l’échelle de la rotation de culture, que les systèmes conventionnels. Cela montre donc que l’agriculture biologique peut être intensifiée écologiquement. Mais comment et dans quel contexte ?
Observations empiriques de la relation fertilisation-rendement sur un cycle de rotation. En abscisse, la fertilisation totale en azote sur le cycle de rotation complet (fertilisant minéraux, fixation symbiotique, dépôts atmosphériques, fumier et autres matières organiques exogènes) ; en ordonnée, le rendement à l’hectare sur l’ensemble du cycle de rotation exprimé en kgN-exporté/ha/an. Les données montrent que, pour un même contexte pédoclimatique, les fermes en agriculture biologique et en agriculture conventionnelle se positionnent sur une même courbe caractérisée par un certain potentiel de fertilité, noté ici Ymax. La figure est adaptée de la publication de Billen, Le Noë, Garnier, (2018) dans la revue Science of the Total Environment. Fourni par l’auteur
Quels leviers pour une transition agro-écologique ?
Nos travaux de recherches ont identifié, testé et validé trois leviers principaux pour nourrir la population en 2050 à différentes échelles, sans augmenter la surface des terres cultivées. Tous sont liés de près ou de loin au cycle de l’azote. C’est là que la vision systémique de l’agroécologie peut être salutaire, en élargissant la réflexion à l’ensemble du système agro-alimentaire (Figure 2).
Le premier levier consiste en une diminution de 16 % des apports protéiques journaliers, en accord avec les recommandations de santé. Selon ces mêmes recommandations, une réduction de 50 % de la consommation de viande et de produits laitiers est explorée avec une augmentation de la part des produits végétaux. Nous avons parfois testé des options plus radicales, végan ou végétarienne à titre exploratoire.
Le deuxième levier réside dans la reconnexion des systèmes d’élevage et de culture, s’affranchissant de l’importation d’aliments pour animaux. Cette reconnexion facilite le recyclage des fumiers et effluents d’élevage vers les terres cultivées réduisant ainsi la dépendance aux engrais azotés de synthèse. Une option supplémentaire, explorée dans certains scénarios, concerne le recyclage des urines humaines, renforçant encore la circularité des flux de nutriments.
Enfin, le troisième levier implique des rotations longues intégrant des légumineuses fixatrices d’azote et l’absence de recours aux engrais azotés et des fertilisants phosphorés minéraux.
Une vision systémique des systèmes de culture insérés dans le système agro-alimentaire. Les trois leviers de changement permettant une transition agroécologique. Fourni par l’auteur
L’exploration de différentes combinaisons possibles des trois principaux leviers de changement que nous avons envisagés, met en évidence le rôle prépondérant du régime alimentaire comme condition de mise en œuvre et de succès des deux autres leviers.
Des bénéfices environnementaux immédiats, et partout
Dans tous les contextes où ces scénarios ont été développés, à l’échelle globale en Europe, en France, en Autriche, ou en Chine, nos résultats montrent une réduction de moitié des pollutions aquatiques et atmosphériques par l’azote, ainsi que des émissions de gaz à effet de serre.
Les effets de la généralisation de l’agroécologie seraient donc bénéfiques pour l’environnement. La diminution de la fertilisation azotée s’accompagne aussi d’une hausse marquée de l’efficience d’utilisation de l’azote, c’est-à-dire de la fraction des apports effectivement utile à la production, qui passe de 59 à 76 % dans le cas européen.
À l’échelle globale, nos scénarios montrent que ces leviers sont efficaces partout et que ces changement ne mettent pas en danger la sécurité alimentaire mondiale. Avec un régime alimentaire équitable, sans inégalités alimentaires entre pays du monde, l’introduction des légumineuses et la reconnexion de l’élevage et des cultures, la plupart des régions du monde resteraient excédentaires sans engrais chimiques et pourraient largement subvenir aux besoins des régions déficitaires comme le Maghreb, le Japon, et le Moyen-Orient.
Une autre interrogation concerne une possible carence en phosphore, s’il l’on se passe d’engrais phosphoré et s’il est apporté seulement via le recyclage des fumiers ? A minima pour le cas de la France à l’échelle de ses territoires, il existe des stocks de phosphore dans les sols qui permettrait de se passer de tout apport d’engrais phosphoré industriel pendant au moins 50 ans. En effet, l’agriculture française a fait un usage disproportionné des fertilisants minéraux en phosphore (essentiellement importé du Maghreb – Maroc et Tunisie en tête) entre les années 1960 et 1990 conduisant à un enrichissement considérable des sols en phosphore. Cet héritage colonial offre donc des réserves utilisables le temps de mettre en œuvre les changements.
a. Bilan des apports et des pertes de phosphore (P) des sols arables du bassin de la Seine depuis 1950 jusqu’à 2015, puis simulation d’un scénario de transition vers un système agroécologique sans apports de P industriel jusqu’en 2075. b. Évolution du stock de P inerte et de P labile (P Olsen) dans les sols arables. c. Évolution du P labile par rapport à la limite de teneur en P au-dessus de laquelle il n’est plus recommandé d’apporter des engrais phosphorés. Cette figure est construite à partir des données de la publication de Le Noë et al. (2020) dans Env. Res. Letters. Fourni par l’auteur
Pessimisme de l’intelligence, optimisme de la volonté
Nos travaux montrent ainsi que les systèmes agro-écologiques ont le potentiel technique pour concilier production alimentaire et forte amélioration des performances environnementales dans des contextes très variés. Alors pourquoi la transition agroécologique n’a-t-elle pas déjà eu lieu ?
Sans doute le problème se trouve-t-il ailleurs, notamment dans la logique socioéconomique des chaînes amont-aval dans lesquelles l’agriculture se trouve insérée, dans les conditions de travail et la rémunération des agriculteurs et dans le poids politique sur l’action publique qu’ont acquis les acteurs qui contrôlent ces secteurs.
Toutefois, ce contexte socioéconomique est aussi une incitation supplémentaire à insuffler de nouveaux espoirs, a fortiori dans la situation actuelle de guerre énergétique et de flambée du prix des intrants. C’est tout le sens à donner à l’exploration des futurs possibles par des approches scientifiques, laissant à l’imagination toute la place qu’elle mérite d’avoir.
Julia Le Noë a reçu des financements des projets SLAM-B (ANR-22-PEXF-0003), PREFALIM (ANR-23-PEXF-0004) du PEPR exploratoire FairCarboN et a bénéficié d’une aide de l’État gérée par l’Agence Nationale de la Recherche au titre de France 2030 portant la référence ANR. Elle a également bénéficié des financements du projet MOBIDYC (ANR-23-ERCB-0006-0) gérée par l’Agence Nationale de la Recherche.
Gilles Billen a reçu des financements du programme PIREN-Seine, un programme public de recherche sur la qualité de l’eau et l’agriculture dans le Bassin de la Seine (https://www.piren-seine.fr/).
Josette Garnier a reçu des financements du programme interdisciplinaire PIREN-Seine (https://www.piren-seine.fr/)
Le 1er avril dernier, les députés ont voté un amendement visant à supprimer le régime des conventions judiciaires d’intérêt public, une procédure de justice négociée ouverte aux entreprises. Plutôt saluées à l’époque, elles sont davantage critiquées. N’eût-il pas mieux valu les amender plutôt que de les supprimer ? C’est peut-être à cette tâche que va se consacrer la commission mixte paritaire qui se réunit mardi 28 avril.
En 2016, la loi Sapin 2 instaure en France un système de justice négociée applicable aux personnes morales, inspiré du droit américain : la convention judiciaire d’intérêt public (CJIP). Il s’agit notamment de répondre au caractère relativement rare des enquêtes, poursuites et condamnations en matière de corruption et de criminalité financière. Le modèle traditionnel de justice pénale, fondé sur une enquête judiciaire puis un jugement, n’est pas jugé assez effectif.
« Deals de justice »
Un autre modèle de justice est alors envisagé, celui de la justice négociée, inspiré du droit américain et de ses « deals de justice ». Il a l’avantage de permettre d’éviter des enquêtes et procès longs et coûteux. Cette forme de justice a aussi pour intérêt d’inviter les entreprises à se dénoncer à et mettre en place des mécanismes internes visant à prévenir les activités criminelles. C’est ce qui explique que les CJIP, initialement pensées comme un moyen de répondre à la corruption dans les entreprises, aient été étendues à la lutte contre les infractions fiscales et la criminalité environnementale.
Alors que la loi Sapin 2 est sur le point de fêter son dixième anniversaire, l’Assemblée nationale a adopté, le 1er avril, un amendement visant à supprimer le régime des CJIP. Cela a entraîné de fortes réactions (presse généraliste, publications spécialisées, ou encore positionnements pour ou contre dans la société civile). C’est l’occasion de se pencher à nouveau sur les enjeux de cette forme particulière de justice
Des sanctions trop faibles ?
L’exposé sommaire de l’amendement voté par l’Assemblée nationale pour supprimer le régime des CJIP fait référence explicite aux Cumex Files, une affaire politiquement sensible, parfois présentée comme le « casse du siècle ». Le Parquet national financier, saisi dès 2018 sous l’angle de la fraude fiscale et du blanchiment de capitaux, a déjà signé deux CJIP dans cette affaire : la première avec le Crédit agricole fin 2025, et la deuxième avec HSBC tout début 2026. C’est cette deuxième convention qui est jugée excessivement favorable à la banque par les députés. Le montant de l’amende – environ 270 millions d’euros – est en effet relativement faible, si l’on considère que les amendes imposées peuvent être beaucoup plus lourdes lorsque la justice pénale traditionnelle s’intéresse à des banques dans des affaires de fraude fiscale.
Ce n’est pas la première fois qu’une telle critique est adressée aux CJIP. Cela avait déjà été le cas, suite à la fameuse affaire LVMH, critiquée notamment pour l’absence de prise en compte des intérêts des victimes. Cela avait aussi été le cas dans l’affaire Nestlé. Une commission d’enquête sénatoriale avait alors critiqué l’opportunité de la convention et surtout le faible montant de l’amende. Toutefois, cette commission n’avait préconisé que l’adoption de règles plus claires visant à encadrer les CJIP en matière environnementale, et non leur suppression.
Une faveur ou une incitation à coopérer ?
Le reproche adressé aux CJIP par les députés est implicitement fondé sur l’idée que les sanctions encourues auraient été plus importantes si une procédure normale avait été suivie. Il faut toutefois nuancer et rappeler la finalité de ces conventions. Le recours aux CJIP est bien une faveur vis-à-vis des entreprises, mais il s’agit de les inciter à coopérer avec la justice, notamment en se dénonçant, et en mettant en œuvre des procédures effectives visant à détecter et prévenir les actes criminels en leur sein.
Le recours aux CJIP est ainsi conditionné (via circulaires et lignes directrices). Le parquet doit en principe constater l’absence d’antécédents de la personne morale, un certain degré de coopération de la part de l’entreprise et de ses dirigeants, et enfin la remise de manière proactive d’informations permettant d’identifier les personnes physiques responsables des infractions pénales en cause.
Si les faits sont graves ou si les entreprises ne coopèrent pas, c’est une autre voie qui doit être suivie, et donc éventuellement le renvoi vers un tribunal correctionnel. Dans l’affaire des Cumex Files, le recours à des CJIP et la faiblesse des amendes s’agissant du Crédit Agricole et de HSBC s’expliquent ainsi probablement par la plus grande coopération de ces banques par rapport aux autres banques impliquées dans cette affaire, qui pourraient, quant à elles, faire l’objet de sanctions plus lourdes.
Malgré cela, le parquet dispose de marges de manœuvre significatives pour décider d’avoir recours à une CJIP. Le juge chargé de valider a posteriori l’accord passé entre le parquet et l’entreprise ne met pas en œuvre un contrôle approfondi de l’opportunité de cette procédure, même s’il peut notamment contrôler « la proportionnalité des mesures prévues aux avantages tirés des manquements ». L’étendue de ce contrôle semble moindre que celle qui s’applique pour d’autres formes de justice négociée, et notamment la comparution sur reconnaissance préalable de culpabilité (CRPC), qui peut être rejetée notamment si les intérêts de la société justifient une « audience correctionnelle normale ».
Euronews 2020.
Affaire franco-états-unienne ?
Les CJIP avaient pour principal objectif de répondre aux critiques adressées à la France s’agissant du faible nombre de poursuites et de condamnations d’entreprises françaises pour corruption. Une réponse fondée sur des mécanismes négociés devait permettre aux entreprises françaises de trouver une solution en France plutôt que d’être inquiétées seulement aux États-Unis.
La portée dite extraterritoriale du droit pénal américain, adossée à un activisme important des autorités américaines, avait en effet conduit de nombreuses entreprises françaises ayant commis des faits de corruption d’agent public étrangers à être sanctionnées aux États-Unis et non en France. De ce point de vue, les CJIP sont un succès.
Les CJIP ont permis de sanctionner davantage d’entreprises. La CJIP signée dans l’affaire Airbus a aussi montré que les États-Unis n’étaient plus les seuls gendarmes du monde : l’entreprise a certes payé des amendes aux États-Unis mais, bénéficiant aussi d’une CJIP, l’essentiel de l’amende a été payé en France.
Maxime Lassalle-Han ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Les personnes qui participent à UK Biobank, un vaste projet de recherche à long terme sur la santé mené auprès de centaines de milliers d’adultes britanniques, sont généralement en meilleure santé que la population moyenne.CandyRetriever/Shutterstock
Une étude qui a porté sur une importante cohorte britannique suggère que de légers changements dans les habitudes de sommeil, d’activité physique et d’alimentation sont associés à un vieillissement en meilleure santé. On fait le point sur ses principaux enseignements, mais aussi sur les limites des résultats qu’elle met en avant.
Selon une vaste étude menée au Royaume-Uni, il ne serait pas nécessaire de bouleverser complètement notre mode de vie pour vivre plus longtemps en meilleure santé. C’est une bonne nouvelle, d’autant plus que beaucoup de gens abandonnent vite les bonnes résolutions qu’ils prennent concernant leurs habitudes de vie.
Dans cette étude récente, ont été suivies environ 59 000 personnes au Royaume-Uni, dont l’âge moyen était de 64 ans, sur une période de huit ans. Les chercheurs ont confirmé ce qu’avaient montré des travaux antérieurs selon lesquels des modes de vie plus sains sont associés à un risque moindre de maladies, notamment de démence, ainsi qu’à une vie plus longue en bonne santé et plus autonome.
Les auteurs de l’étude rapportent que des changements même très modestes étaient associés à de tels bienfaits. Cela incluait notamment le fait de dormir environ cinq minutes de plus par nuit, de pratiquer deux minutes supplémentaires par jour d’activité physique d’intensité modérée à vigoureuse, et d’améliorer modestement son alimentation. L’ensemble de ces changements étaient associés à environ une année supplémentaire de vie en bonne santé. Le terme « vie en bonne santé » désigne ici les années vécues sans maladie grave ni handicap qui limitent les activités quotidiennes.
Des changements plus importants sont associés à des gains plus significatifs. Près d’une demi-heure de sommeil supplémentaire par nuit, combinée à quatre minutes d’exercice supplémentaires par jour (ce qui représente près d’une demi-heure d’activité physique en plus par semaine), et à d’autres améliorations en matière d’alimentation, permettent de gagner jusqu’à quatre années de vie en bonne santé.
Cela est important à noter car, bien que les femmes vivent en moyenne plus longtemps que les hommes, ces années supplémentaires sont souvent marquées chez elles par une moins bonne santé, ce qui entraîne des coûts personnels et économiques significatifs. Les femmes sont exposées à un risque plus élevé de démence, d’accident vasculaire cérébral et de maladies cardiaques à un âge avancé, ainsi qu’à des affections entraînant une perte de la vue et à des fractures osseuses. Ces maladies peuvent réduire la qualité de vie et menacer l’autonomie.
Changer son mode de vie peut également réduire le risque de décès prématuré. L’année dernière, les mêmes facteurs liés au mode de vie examinés dans cette cohorte ont fait l’objet d’une analyse dans une autre étude qui portait sur la mortalité (le risque de décès).
D’après cette analyse, les personnes ayant adopté un mode de vie plus sain sur une période de huit ans présentaient un risque de décès inférieur de 10 % au cours de cette période. La combinaison de 15 minutes de sommeil supplémentaires par nuit, de deux minutes supplémentaires d’activité physique modérée à intense par jour et d’une alimentation saine était associée à une légère réduction du risque de décès. Une réduction bien plus importante, de 64 %, a été observée chez les personnes qui dormaient entre sept et huit heures par nuit, suivaient une alimentation saine et pratiquaient entre 42 et 103 minutes supplémentaires d’activité physique modérée à intense par semaine.
Soulignons que cet effet bénéfique n’a été observé que lorsque ces comportements étaient combinés. L’alimentation seule n’avait par exemple aucun effet mesurable.
Atouts et limites de ces études
L’un des principaux atouts de ces études vient du fait qu’elles mettent en évidence des bienfaits pour la santé dès les premiers signes d’un changement de comportement. Cela réduit le risque que les résultats soient uniquement influencés par le fait qu’elles inclueraient des personnes déjà en meilleure santé ou plus motivées. Ces conclusions apparaissent ainsi plus pertinentes pour les personnes âgées et pour celles qui ont des capacités limitées pour modifier leurs habitudes.
Un autre de leurs points forts réside dans le recours à des mesures objectives plutôt qu’à des données déclarées par les personnes participantes elles-mêmes. L’activité physique et le sommeil ont été mesurés à l’aide d’appareils portables, plutôt qu’en se fiant aux estimations des participants concernant leur propre comportement. Les déclarations des participants peuvent en effet se révéler peu fiables, en particulier chez les personnes qui souffrent de troubles de la mémoire, comme chez celles qui se trouvent aux premiers stades de la démence.
Il existe toutefois des limites importantes à ces études. Les mesures objectives n’ont été recueillies que pendant trois à sept jours, ce qui ne reflète peut-être pas les habitudes à long terme des personnes concernées. Selon mon expérience, le fait de porter un bracelet connecté peut inciter les gens à faire davantage d’exercice pendant la période de suivi, mais ces changements sont souvent de courte durée.
De plus, les accéléromètres portés au poignet évaluent le sommeil et l’activité physique en se basant sur les mouvements. Pendant le sommeil profond, les personnes bougent très peu, mais l’absence de mouvement ne signifie pas toujours qu’une personne dort. Ces appareils peuvent donc ne pas refléter pleinement les véritables habitudes de sommeil ou les niveaux activité physique. D’autres méthodes, telles que les capteurs fixés sur la cuisse ou les capteurs intégrés au matelas qui détectent les mouvements pendant le sommeil, peuvent fournir des évaluations plus précises.
Malgré ces problèmes, les mesures objectives sont généralement plus fiables que les déclarations des personnes concernées. Toutefois, comme le comportement n’a été mesuré qu’une seule fois, il est difficile de déterminer si les changements de comportement observés au fil du temps ont influencé les résultats en matière de santé. Il est également difficile de savoir si l’activité enregistrée correspondait à de l’exercice pratiquée pendant les loisirs ou à une activité physique au travail, sachant que ces deux types d’activité peuvent avoir des effets différents sur la santé.
Les informations sur l’alimentation posent un autre défi. Les habitudes alimentaires ont été rapportées par les participants eux-mêmes et recueillies trois à neuf ans avant la collecte des données sur le sommeil et l’activité physique. Les habitudes alimentaires changent souvent avec le temps, en particulier après un diagnostic tel qu’une maladie cardiovasculaire, où il peut être conseillé aux personnes concernées de baisser leur cholestérol, ou dans des cas de démence, quand les personnes peuvent oublier de manger. Il est donc difficile de savoir si l’alimentation a influencé le risque de maladie, ou si c’est l’apparition de la maladie qui a modifié l’alimentation et contribué finalement à une mauvaise santé puis à un décès prématuré.
Il faut également tenir compte de facteurs sociaux plus généraux. Les comportements sains ont tendance à se regrouper ensemble et sont étroitement liés au niveau d’éducation et à la sécurité financière. Par exemple, le tabagisme et le fait d’être en surpoids ou obèse sont étroitement associés à la précarité et à la pauvreté.
Les participants à l’UK Biobank, un vaste projet de recherche à long terme sur la santé qui recueille des données génétiques, sur le mode de vie et sur la santé auprès de centaines de milliers d’adultes britanniques, sont généralement en meilleure santé que la population britannique moyenne.
La recherche en santé attire souvent des personnes en meilleure santé, plus instruites et jouissant d’une plus grande sécurité financière. Cela peut refléter à la fois un intérêt pour la recherche et le fait de disposer du temps et des ressources nécessaires pour participer à de telles études.
La richesse a également un impact sur l’exposition au risque. Les personnes qui disposent de revenus plus élevés sont moins susceptibles de vivre dans des zones où les niveaux de pollution sont élevés et ont davantage de chances de contrôler leurs conditions de travail et leurs finances. Le stress financier peut affecter la qualité du sommeil, entraîner de la fatigue et réduire la probabilité de faire de l’activité physique, d’acheter des aliments frais ou de préparer des repas sains. Au cours d’une vie, ces facteurs contribuent à une santé plus fragile et à un décès prématuré.
Bien que les chercheurs aient tenté de prendre en compte ces influences à l’aide de méthodes statistiques, celles-ci sont étroitement liées et difficiles à distinguer. Pour de nombreuses personnes qui vivent désormais dans une extrême pauvreté, l’aggravation du fossé entre problèmes de santé et richesse met en évidence les limites de la responsabilité individuelle. Ces problèmes structurels exigent une action de la part des décideurs politiques, plutôt que de faire porter le fardeau uniquement aux personnes qui n’ont peut-être que très peu de contrôle sur les conditions qui déterminent leur santé.
Eef Hogervorst a reçu des financements de plusieurs fondations gouvernementales et caritatives pour ses recherches sur le mode de vie et la santé, notamment, actuellement, de l’ISPF et d’Alzheimer’s Research UK. Elle est rattachée à l’université de Loughborough et a récemment intervenu en tant qu’experte en démence pour le NICE et la BBC. Par le passé, elle a été consultante en matière d’alimentation et de risques de démence pour Proctor.
La visite de James Marape, le premier ministre papouan-néo-guinéen, à Paris en mai 2026, marquée par la signature d’accords de sécurité et l’ouverture d’une ambassade, illustre le rapprochement stratégique, dans un contexte de recomposition géopolitique du Pacifique, de la France et de cet État océanien membre du Commonwealth et troisième territoire insulaire le plus grand du monde.
La visite du premier ministre papouan-néo-guinéen James Marape à Paris, prévue mi-mai 2026, pourrait passer inaperçue. Or, à Port Moresby comme à Paris, cet évènement n’a rien d’anodin : la signature attendue d’un accord de shipriding et l’officialisation de l’ouverture d’une ambassade papouane-néo-guinéenne à Paris comptent en témoigner. Cette visite s’inscrit plus largement dans un contexte de recomposition des équilibres géopolitiques dans le Pacifique insulaire, notamment marqué par la multiplication des accords de sécurité (en particulier avec l’Australie et les États-Unis, notamment face à l’influence chinoise dans le pays), et le renforcement des souverainismes.
À l’aune d’analyses des documents stratégiques et d’entretiens conduits à Port Moresby, plusieurs questions sous-tendent notre analyse : comment deux conceptions différenciées de la sécurité peuvent-elles produire une coopération mutuellement bénéfique ? Comment la France construit-elle une relation de sécurité différenciée avec un État mélanésien aux ambitions sécuritaires régionales ? Il s’agit ici d’appréhender la coopération de sécurité entre les deux États, tout en s’attachant à réinscrire les logiques insulaires au cœur des enjeux régionaux et internationaux qui les sous-tendent, afin que les dynamiques de compétition entre puissances n’occultent pas les voix et formes d’agentivité propres aux États du Pacifique insulaire.
La Papouasie-Nouvelle-Guinée, un géant du Pacifique insulaire
Longtemps reléguée aux marges des analyses en relations internationales, la Papouasie-Nouvelle-Guinée (PNG) est pourtant le premier État insulaire de la région par sa population (environ 80 % des habitants du Pacifique insulaire) et son territoire (462 840 km2), lui permettant ainsi de s’imposer comme un acteur incontournable en Océanie.
La PNG, anciennement sous administration coloniale germano-britannique, puis australienne et indépendante depuis 1975, s’inscrit aujourd’hui dans une dynamique de montée en puissance progressive dans les domaines de la sécurité et de la défense, cherchant à affirmer plus nettement son influence et ses ambitions sur la scène régionale. Si, dans la continuité de l’héritage de ses pères fondateurs, elle s’est longtemps définie comme « amie de tous, ennemie de personne » (doctrine de l’universalisme), cette posture tend désormais à évoluer vers une stratégie plus sélective, fondée sur la consolidation de « partenariats stratégiques ». Dans ce contexte, la stratégie de la PNG est fréquemment interprétée comme relevant d’une logique de hedging.
Parallèlement, Port Moresby exprime sa volonté de s’affirmer à l’échelle régionale ; elle aspire à jouer un rôle plus actif, parfois qualifié de « grand frère », au sein du Pacifique insulaire. Ces inflexions ont mené à une prise de conscience accrue des limites capacitaires nationales, notamment en matière de sécurité intérieure et de défense. Les effectifs des forces armées (Force de défense de Papouasie-Nouvelle-Guinée, ou PNGDF) et de la police (RPNGC) demeurent en effet inférieurs aux standards généralement recommandés à l’échelle internationale. Le paysage sécuritaire national, quant à lui, se caractérise par une forte hybridité : dans les espaces urbains par exemple, les entreprises de sécurité privée jouent un rôle central – l’État n’ayant pas le monopole effectif de la sécurité. La PNGDF fait aussi l’objet d’un processus de transformation visant à accroître ses effectifs (10 000 personnels à l’horizon 2030, contre près de 4 000 aujourd’hui) et à faire évoluer son modèle organisationnel. Il s’agit notamment de passer d’une force historiquement structurée autour d’un « modèle de brigade » – à dominante « cérémonielle » – à une organisation plus « fonctionnelle » articulée autour de trois composantes (aérienne, maritime et terrestre).
Or, si l’attention stratégique portée à la Papouasie-Nouvelle-Guinée s’est accrue ces dernières années, et que les jalons des ambitions ont été posés, les priorités sécuritaires du pays restent encore largement sous-analysées. En effet, la PNG se caractérise par une diversité géographique et culturelle exceptionnelle (plus de 1 000 tribus) et une mosaïque de structures sociales organisées autour de clans, dont une grande partie vit dans des régions isolées. Les violences intertribales – parfois qualifiées de « terrorisme local » – côtoient des phénomènes de criminalité (raskoll) plus classiques. La porosité des frontières, tant terrestres que maritimes, favorise les trafics d’armes (notamment via la frontière indonésienne) et de stupéfiants, tandis que la pêche illégale constitue une menace persistante pour les ressources et la souveraineté économique du pays. À ces enjeux s’ajoutent des problématiques structurelles telles que les inégalités de développement, les tensions liées aux industries extractives, ainsi qu’une forte exposition aux catastrophes naturelles. Dans un tel environnement, la sécurité ne saurait être réduite à sa seule dimension militaire : elle s’inscrit dans un ensemble plus large de dynamiques politiques, économiques et sociales, qui appellent des réponses à la fois multidimensionnelles et adaptées aux réalités locales. Les enjeux dits de sécurité non traditionnelle occupent une place centrale dans les priorités exprimées localement et conditionnent, en grande partie, la stabilité à long terme du pays.
Une relation bilatérale revitalisée dans le domaine de la sécurité, et la France comme puissance d’ajustement
Si la coopération de sécurité entre la PNG et la France s’inscrit dans une longue temporalité, elle connaît, depuis le début des années 2020, un regain de dynamisme significatif. La signature d’un accord relatif au statut des forces (SOFA) en 2022 en a constitué une étape structurante. L’année suivante, à la faveur de la visite du président Emmanuel Macron dans la région, la relation entre Port Moresby et Paris a été revitalisée grâce au lancement de l’Académie du Pacifique, une initiative portée par les forces armées en Nouvelle-Calédonie et en Polynésie française. Le livre blanc de politique étrangère de la PNG précité inscrit d’ailleurs la France dans son « voisinage ».
Avec l’aide de la stratégie indopacifique française – réactualisée en 2025 – et de la National Security Policy 2025-2029 de la PNG, la coopération franco-papouane-néo-guinéenne a particulièrement augmenté en l’espace de quelques mois. Les escales, les patrouilles maritimes, et les transferts de capacités ciblées à l’image du don de drones de surveillance maritime DELAIR UX-11, en sont des exemples manifestes. La PNG prend également part à des exercices multilatéraux français (Croix du Sud) qui favorisent l’interopérabilité. En parallèle, des formations sont dispensées – de l’entraînement des forces spéciales au perfectionnement tactique (parachutisme, par exemple) –, contribuant à l’élévation du niveau opérationnel de la PNGDF. Enfin, la coopération s’inscrit également dans des cadres multilatéraux régionaux, tels que le South Pacific Defence Ministers’ Meeting (SPDMM) ou le Pacific Response Group.
Ces éléments opérationnels mettent en lumière une dimension stratégique singulière : celle d’une France perçue et décrite par nos interlocuteurs comme un partenaire de sécurité certes discret, mais crédible et souvent « sous-estimé ». Dans un environnement partenarial dense, la France pourrait être qualifiée de « puissance d’ajustement » pour la PNG. À rebours des approches plus structurantes de l’Australie, des États-Unis ou de la Chine – néanmoins parfois considérées comme « intrusives » voire « condescendantes » –, cette discrétion constitue une ressource. En proposant une approche complémentaire de celles existantes pour ne pas saturer le partenaire, la France contribue à certaines fonctions sécuritaires clés, souvent qualifiées de « niches » par les interlocuteurs, mais dont la plus-value est reconnue.
« Yu harim tok blo mi, bai mi harim tok blo yu » ?**
Les perspectives d’approfondissement de la coopération sécuritaire entre la France et la Papouasie-Nouvelle-Guinée apparaissent nombreuses. La revitalisation en cours de la composante aérienne de la PNGDF, et la rénovation de la base navale de Lombrum en parallèle de l’accord de shipriding (patrouiller dans les eaux territoriales et les zones économiques exclusives d’un État tiers, en embarquant un officier du pays concerné), ouvrent de nouveaux champs de coopération, susceptibles d’élargir le spectre des interactions opérationnelles. Des soutiens dans des secteurs émergents (cybersécurité, renseignement, opérations de maintien de la paix des Nations unies) sont également appelés à occuper une place croissante.
Ces perspectives prometteuses ne sauraient toutefois occulter un certain nombre de contraintes et de points de vigilance, voire de friction. Les cycles électoraux à venir dans les deux pays en 2027 sont susceptibles d’introduire des incertitudes dans la continuité des engagements, et certaines évolutions politiques internes appellent également à la prudence : la question de l’indépendance de Bougainville pourrait redessiner les équilibres régionaux et ouvrir de nouvelles configurations partenariales, tout en ravivant des tensions héritées d’un passé conflictuel.
Fondamentalement, une connaissance fine des réalités locales demeure indispensable : la PNG, en raison de sa grande diversité, ne peut être appréhendée comme un bloc monolithique, et toute approche standardisée comporte des risques d’inadéquation. Il convient en outre de rappeler que la coopération s’inscrit dans un contexte fragile : budgets serrés, défis en matière de professionnalisation, corruption, fragilités voire scandales institutionnels, et décalages des élites urbaines, constituent autant de facteurs susceptibles d’affecter la mise en œuvre des projets de coopération.
Enfin, la question de la saturation partenariale doit être prise en compte. Dans un pays où les offres de coopération se multiplient et où les ressources – humaines comme financières – sont limitées, l’enjeu n’est pas tant d’accumuler les initiatives que de les rationaliser. Si elle constitue un partenaire utile et apprécié, la France demeure structurellement un acteur secondaire dans l’écosystème sécuritaire de la PNG.
En définitive, la consolidation d’un partenariat durable repose sur des principes fondamentaux de réciprocité, d’écoute et de respect des priorités locales, faisant échos au wantok local. À cet égard, un proverbe en Tok Pisin (pidgin local) résume avec justesse l’esprit dans lequel cette relation peut se déployer : « Yu harim tok blo mi, bai mi harim tok blo yu » (« Si tu m’écoutes, je t’écouterai. »).
Elise Barandon est officier de réserve (Marine nationale) à la Direction générale des relations internationales et de la stratégie (DGRIS) et doctorante associée à l’Institut de recherche stratégique de l’Ecole militaire (IRSEM).
Source: The Conversation – France in French (3) – By Mickael Naassila, Professeur de physiologie, Directeur du Groupe de Recherche sur l’Alcool & les Pharmacodépendances GRAP – INSERM UMR 1247, Université de Picardie Jules Verne (UPJV)
Anticoagulants, antihypertenseurs, diurétiques, anxiolytiques, antidépresseurs, antidiabétiques, anticancéreux… tous ces médicaments apparemment sans grand rapport les uns avec les autres ont pourtant un point commun : ils sont sensibles aux interactions avec l’alcool. Consommer une boisson alcoolisée alors que l’on est sous traitement entraîne potentiellement des effets variés, dont certains peuvent être graves.
Vous sortez de la pharmacie avec dans votre sac un traitement contre la douleur, l’anxiété, l’hypertension ou le diabète. Votre pharmacien vous a très certainement expliqué la dose de médicament à prendre, et sur quelle durée. Il s’est peut-être attardé sur les effets secondaires potentiels. Il est possible qu’il vous ait aussi demandé si vous fumiez. Mais souvent, une question reste absente de ce type d’échange : vous arrive-t-il de consommer de l’alcool ?
L’association entre consommation d’alcool et médicaments est pourtant l’une des situations les plus fréquentes du quotidien. Elle concerne des millions de personnes, souvent sans qu’elles en aient conscience. Or, l’alcool peut modifier l’efficacité d’un traitement, en augmenter la toxicité ou amplifier certains effets indésirables, parfois avec des médicaments très courants.
Derrière cette réalité se cachent des mécanismes biologiques complexes, mais dont les conséquences sont très concrètes : chute, malaise, saignement, hypoglycémie, surdosage, inefficacité du traitement, ou aggravation silencieuse d’une maladie chronique.
Et contrairement à une idée reçue, il ne s’agit pas seulement d’un problème lié aux somnifères ou aux « gros buveurs ».
Une problématique fréquente
L’association entre alcool et médicaments potentiellement susceptibles d’interagir avec cette substance est loin d’être marginale. Aux États-Unis, l’analyse de l’enquête nationale NHANES (1999–2010) a estimé que 42,8 % des adultes utilisaient au moins un médicament susceptible d’une telle interaction, une proportion qui dépasse 75 % après 65 ans. En Suisse, environ une personne de 55 ans ou plus sur cinq déclarait consommer souvent ou presque toujours de l’alcool en même temps que ses médicaments.
Chez les sujets les plus âgés qui prennent plusieurs sortes de médicaments, le risque devient encore plus marqué : certaines études rapportent que la grande majorité des patients sont exposés à au moins une interaction potentielle. Autrement dit, il ne s’agit pas d’une situation rare ou exceptionnelle, mais d’une réalité fréquente du quotidien, particulièrement chez les personnes âgées.
Alcool et médicaments : une relation qui n’est pas neutre
Lorsque l’on prend un médicament, celui-ci ne fait pas qu’« agir » dans notre organisme. Il est absorbé, distribué dans notre corps, transformé par le foie, puis éliminé. Toutes ces étapes constituent la pharmacocinétique du médicament. Et l’alcool peut interférer avec chacune d’elles.
Le foie joue ici un rôle central. En effet, c’est lui qui métabolise non seulement l’alcool, mais aussi une grande partie des médicaments. Or, lorsque deux substances empruntent les mêmes voies biologiques, elles peuvent se gêner mutuellement.
Mécanismes par lesquels l’alcool modifie l’efficacité des médicaments. Naouras Bouajila
Deux situations doivent être distinguées, la consommation ponctuelle et la consommation régulière, car leurs effets sur les traitements ne sont pas les mêmes.
Consommation ponctuelle : quand le médicament s’accumule
Lors d’une prise aiguë d’alcool, un apéritif, un dîner arrosé, une soirée, l’organisme mobilise en priorité ses systèmes de dégradation de l’éthanol, notamment au niveau hépatique. Pour cela, le foie utilise diverses enzymes. Or, certains médicaments sont métabolisés par ces mêmes enzymes. Résultat : ceux-ci sont éliminés plus lentement. Leur concentration dans le sang augmente, ce qui augmente le risque d’effets indésirables ou de toxicité.
Ce phénomène peut être particulièrement problématique avec les médicaments dits « à marge thérapeutique étroite », c’est-à-dire ceux pour lesquels un faible écart de dose ou de concentration peut suffire à provoquer un effet excessif ou dangereux.
Autrement dit, un verre peut parfois faire « trop agir » un médicament.
Consommation régulière : quand le traitement devient moins efficace, ou plus toxique
À l’inverse, une consommation chronique d’alcool modifie durablement le fonctionnement du foie. Celui-ci augmente la production de certaines enzymes de biotransformation (notamment le cytochrome P450 2E1 ou CYP2E1). Ce phénomène est appelé « induction enzymatique ». Conséquence : certains médicaments sont dégradés plus rapidement qu’attendu. Ils restent moins longtemps à des concentrations efficaces, ce qui peut réduire leur effet thérapeutique.
Par ailleurs, cette adaptation a un revers. Elle favorise aussi la formation de métabolites réactifs, parfois toxiques. L’exemple le plus connu est celui du paracétamol. Après avoir été absorbé, une partie de ce médicament est transformée en un composé toxique pour le foie, la N-acétyl-p-benzoquinone imine (NAPQI). Normalement, ce métabolite est neutralisé par un composé appelé glutathion.
En cas de consommation d’alcool, la toxicité du paracétamol peut être accrue. DR, Fourni par l’auteur
Cependant, chez les consommateurs chroniques d’alcool, la production de NAPQI peut augmenter, car le foie fabrique de plus grandes quantités de l’enzyme CYP2E1, qui transforme le paracétamol en métabolite toxique. Dans le même temps, les réserves de glutathion diminuent : elles sont davantage consommées pour neutraliser ce toxique, et souvent moins bien reconstituées en raison de l’alcool, de la dénutrition ou d’une maladie du foie. Cela majore le risque de lésions hépatiques, parfois même lorsque les médicaments sont pris à des doses usuelles.
Distribution, déshydratation, élimination : des effets moins visibles mais importants
La déshydratation qu’il favorise peut réduire le volume de distribution de certains médicaments hydrosolubles (solubles dans l’eau, ndlr) et augmenter leur concentration dans le plasma sanguin.
Les modifications de la composition corporelle observées chez certains consommateurs chroniques d’alcool, notamment une augmentation relative de la masse grasse, peuvent aussi favoriser l’accumulation de molécules lipophiles (qui présentent une « attirance » pour les tissus gras) et prolonger leur durée d’action.
Enfin, lorsqu’une consommation prolongée a altéré le foie ou les reins, les capacités d’élimination diminuent. Les médicaments s’accumulent alors plus facilement, exposant à un risque accru de surdosage ou d’effets indésirables prolongés.
Souvent invisibles pour le patient, ces mécanismes modifient profondément l’équilibre entre bénéfice et risque du traitement.
Soulignons que, lors du développement d’un médicament, certaines interactions pharmacocinétiques peuvent être étudiées, notamment si un risque est suspecté. Toutefois, les essais cliniques incluent souvent peu de buveurs importants. En outre, ils excluent les patients fragiles et évaluent mal les consommations réelles d’alcool (ponctuelles, chroniques ou variables).
Après la mise sur le marché, la pharmacovigilance peut détecter des signaux d’alerte, mais l’alcool est fréquemment sous-déclaré ou non recherché. Résultat : de nombreuses interactions avec l’alcool restent probablement sous-estimées et passent donc sous les radars.
Quand les effets s’additionnent : les interactions pharmacodynamiques
Dans ce cas, l’alcool ne change pas forcément la concentration ou la distribution du médicament, mais la manière dont le corps y répond.
L’alcool agit principalement comme un dépresseur du système nerveux central (cerveau et moelle épinière). Il en renforce le principal système inhibiteur (la transmission GABAergique), tout en freinant le fonctionnement de structures moléculaires impliquées dans l’excitation neuronale (les récepteurs glutamatergiques NMDA).
Ce double effet entraîne sédation, ralentissement psychomoteur, troubles de la vigilance, altération des réflexes et baisse des performances cognitives. En d’autres termes, l’alcool ralentit l’activité générale du cerveau ainsi que le fonctionnement du corps et diminue le niveau d’éveil.
Lorsque des médicaments agissant sur ces mêmes voies sont associés à l’alcool, leurs effets ne s’additionnent pas simplement : ils se potentialisent. C’est le cas notamment :
des benzodiazépines (par exemple, l’alprazolam – nom commercial Xanax – ou le bromazépam – nom commercial Lexomil) ;
des hypnotiques (par exemple, le zolpidem – nom commercial Stilnox – ou la zopiclone – nom commercial Imovane) ;
des opioïdes (par exemple, la morphine, que l’on trouve notamment dans le médicament commercialisé sous le nom de Tramadol) ;
de certains antihistaminiques sédatifs (par exemple, l’hydrozine – nom commercial Atarax ou la dexchlophéniramine – nom commercial Polaramine) ;
de plusieurs psychotropes (par exemple, Tercian pour la cyamémazine, Largactil pour la chlorpromazine).
Sur le plan clinique, cela peut se traduire par une somnolence majeure, une confusion, des troubles de la coordination, des chutes, des accidents domestiques ou de la route.
Dans les cas les plus graves, en particulier avec les opioïdes ou certains anxiolytiques, la dépression du système nerveux central peut atteindre les centres respiratoires et devenir potentiellement fatale, les patients n’étant plus capables de respirer.
Une réaction parfois brutale : l’effet « antabuse »
Certaines interactions sont plus spectaculaires encore. En temps normal, l’alcool est transformé en acétaldéhyde, puis rapidement converti en acétate grâce à une enzyme appelée aldéhyde déshydrogénase (ALDH).
Mais certains médicaments bloquent cette seconde étape. L’acétaldéhyde s’accumule alors dans l’organisme, provoquant une réaction dite de type « antabuse ».
Les symptômes peuvent apparaître rapidement : rougeur du visage, céphalées, nausées, vomissements, tachycardie, hypotension, malaise intense.
Ce mécanisme est utilisé volontairement avec le disulfirame dans la prise en charge de la dépendance à l’alcool. Le principe n’est pas de « guérir » directement l’addiction, mais de créer une forte dissuasion : si la personne boit, elle risque un malaise rapide et désagréable.
Si le disulfirame est bien un médicament (en médecine, un traitement peut agir soit en corrigeant un mécanisme biologique, soit en modifiant un comportement ou en prévenant une rechute), son utilisation soulève toutefois des questions éthiques : elle n’est acceptable que si le patient est clairement informé, volontaire et accompagné médicalement. Aujourd’hui, il est moins utilisé qu’autrefois, mais peut rester utile dans certaines situations bien encadrées.
Des réactions similaires peuvent aussi survenir avec d’autres médicaments, notamment certains antibiotiques, comme le métronidazole, ou certains antifongiques.
Il faut avoir à l’esprit que, parfois, de faibles quantités d’alcool suffisent, y compris celles contenues dans des sirops, des bains de bouche ou dans certaines préparations alimentaires…
Des interactions fréquentes avec des traitements très courants
Le sujet des interactions avec l’alcool dépasse largement les médicaments « à risque évident ». Certains médicaments utilisés couramment sont aussi concernés par cette problématique.
– Anticoagulants et antithrombotiques : la consommation chronique d’alcool peut augmenter le risque hémorragique. Elle favorise les lésions digestives (gastrites, ulcères, varices œsophagiennes), perturbe l’agrégation plaquettaire et peut altérer la coagulation via l’atteinte hépatique ;
– Antihypertenseurs : une consommation aiguë peut entraîner une vasodilatation (dilatation des vaisseaux sanguins), une chute tensionnelle, des vertiges ou une syncope. À l’inverse, une consommation chronique favorise l’hypertension et peut compliquer le contrôle du traitement ;
– Diurétiques et bêtabloquants : l’association peut majorer l’hypotension. Dans certains cas, l’alcool peut aussi aggraver bradycardie ou malaise ;
– Psychotropes, anxiolytiques, hypnotiques, antidépresseurs, antipsychotiques : l’alcool augmente souvent la sédation, la confusion, les troubles de la mémoire et le risque de chute ;
– Antidiabétiques : l’alcool inhibe la production de glucose (néoglucogenèse) au niveau du foie, ce qui peut favoriser des hypoglycémies parfois sévères, notamment chez les patients traités par insuline ou certains médicaments hypoglycémiants ;
– Traitements anticancéreux : l’alcool peut majorer la toxicité hépatique, aggraver fatigue, troubles digestifs ou atteintes cutanées et, parfois, interférer avec le métabolisme de certaines molécules.
Les classes de médicaments dont la pharmacodynamique est affectée par l’alcool. Naouras Bouajila, Fourni par l’auteur
Un risque qui explose chez les personnes âgées
Les personnes âgées constituent probablement la population la plus exposée aux interactions entre alcool et médicaments.
En effet, avec l’âge, la polymédication devient fréquente. Une part importante des plus de 75 ans prend plusieurs médicaments de façon concomitante, parfois jusqu’à cinq, voire davantage. Or, plus le nombre de traitements augmente, plus le risque d’interactions s’accroît.
S’ajoutent à cette situation des modifications physiologiques en lien avec la vieillesse, telle qu’une diminution de la masse hydrique (la quantité d’eau contenue dans le corps), qui favorise l’augmentation de la concentration sanguine d’alcool. L’augmentation relative de la masse grasse prolonge quant à elle l’action de certains médicaments lipophiles, tandis que la baisse des fonctions rénale et hépatique ralentit l’élimination des médicaments ainsi que, parfois, de leurs métabolites actifs ou toxiques, favorisant leur accumulation et augmentant le risque d’effets indésirables. Enfin, avec l’âge, le cerveau devient plus sensible aux substances sédatives.
Les interactions entre médicaments et alcool se traduisent souvent chez les personnes âgées par des chutes, des fractures, une confusion aiguë, des accidents médicamenteux qui entraînent hospitalisations et perte d’autonomie.
Soulignons que, dans ce contexte, même une consommation d’alcool jugée « modérée » peut produire des effets disproportionnés.
Pourquoi parle-t-on si peu de ce problème ?
Plusieurs raisons peuvent expliquer le fait que la question des interactions entre médicaments et alcool soit si peu abordée : parce que l’alcool est culturellement banalisé ; parce qu’évoquer sa consommation peut paraître intrusif ; parce que le temps manque souvent au comptoir ou en consultation ; parce que ces interactions semblent moins inquiétantes que celles qui peuvent se produire avec d’autres médicaments, etc.
Mais ignorer la question ne la fait pas disparaître. L’alcool est une substance biologiquement active, capable d’interagir avec de nombreux traitements. À ce titre, il devrait faire partie du dialogue thérapeutique, de la même façon que les allergies, le tabac ou les autres médicaments pris en parallèle en font partie. Aujourd’hui, demander à un patient s’il fume est devenu un réflexe de prévention. Demander s’il boit de l’alcool devrait l’être tout autant.
Alors, la prochaine fois que votre médecin rédigera votre ordonnance, ou que vous irez retirer vos médicaments à la pharmacie, demandez simplement : « Y a-t-il une interaction possible avec la consommation d’alcool, même occasionnelle ? »
Cette question, si elle était plus souvent posée de part et d’autre du comptoir, pourrait éviter bien des accidents silencieux…
– Sur le site de la SF2A, lapage AlcoolConsoSciencemet à la disposition des professionnels de santé des informations scientifiquement validées sur l’impact de la consommation d’alcool sur la santé.
Mickael Naassila est membre sénior de l’Institut Universitaire de France IUF. Il est Président de la Société Française d’Alcoologie et d’Addictologie (SF2A) et de la Société Européenne de Recherche Biomédicale sur l’Alcoolisme (ESBRA); Vice-président de la Fédération Française d’Addictologie (FFA) et vice-président sénior de la Société Internationale de recherche Biomédicale sur l”Alcool et les Addictions (ISBRA). Il est membre de l’institut de Psychiatrie, co-responsable du GDR de Psychiatrie-Addictions et responsable du Réseau National de Recherche en Alcoologie REUNIRA et du projet AlcoolConsoScience. Il a reçu des financements de l’ANR, de l’IReSP/INCa Fonds de lutte contre les addictions.
Camille André et Naouras Bouajila ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.
Ils veulent soutenir tous leurs élèves. Pourtant, plusieurs enseignants du secondaire doutent de la faisabilité de l’inclusion scolaire pour ceux qui présentent des difficultés d’adaptation. Notre étude, menée auprès de 458 enseignants de la région de Québec, met en évidence ce tiraillement entre idéaux et réalités du terrain.
Les écoles secondaires québécoises accueillent un nombre croissant d’élèves présentant des difficultés d’adaptation. Plus largement, les élèves identifiés comme ayant un handicap ou des difficultés d’adaptation ou d’apprentissage représentent aujourd’hui près d’un élève sur trois dans les classes ordinaires.
Ces jeunes peuvent faire face à un ensemble de défis sur les plans social, émotionnel et comportemental : difficulté à réguler leurs émotions, impulsivité, conflits avec les pairs, opposition aux consignes, difficulté à rester engagés dans les tâches scolaires ou à organiser leur travail. Pour ces élèves, la réussite scolaire dépend en grande partie de la capacité des enseignants à adopter des pratiques inclusives.
Réalisée par l’Unité mixte de recherche Synergia, notre étude visait à mieux comprendre comment les enseignants du secondaire se positionnent face à l’inclusion scolaire des élèves présentant des difficultés d’adaptation. Elle s’inscrit dans une enquête plus large visant à brosser un portrait exhaustif des besoins en matière de développement professionnel continu du personnel scolaire de trois centres de services scolaires de la région de Québec.
Pour examiner les attitudes envers l’inclusion scolaire de ces élèves, nous avons mesuré à l’aide d’une échelle adaptée au contexte québécois : ce que les enseignants croient (dimension cognitive), ce qu’ils ressentent (dimension affective) et ce qu’ils sont prêts à faire (dimension comportementale).
Des croyances mitigées, des émotions partagées
Sur le plan des croyances, certains enseignants expriment des réserves. Plusieurs estiment que certains élèves ayant des difficultés d’adaptation devraient plutôt être scolarisés en classe spécialisée.
Ces enseignants ne remettent pas en question le principe de l’inclusion scolaire, mais sa faisabilité concrète dans certaines situations. Comment adapter son enseignement lorsque les groupes sont nombreux, que l’accès aux professionnels est limité et que le temps pour planifier est restreint ?
Sur le plan émotionnel, le portrait est nuancé. Fait encourageant : la plupart des enseignants ne se sentent ni contrariés de devoir adapter leur enseignement ni agacés lorsqu’un élève éprouve des difficultés à suivre le programme.
En revanche, plusieurs rapportent un sentiment d’impuissance lorsqu’ils ne comprennent pas les comportements de leurs élèves. Par exemple, lorsqu’un élève refuse soudainement de participer, interrompt fréquemment le cours ou réagit de manière très intense à une consigne. Cette incompréhension peut mener à un cercle vicieux. L’enseignant, se sentant dépassé, adopte des stratégies moins efficaces, ce qui risque d’aggraver les comportements difficiles et de renforcer son sentiment d’impuissance.
C’est ici que le paradoxe apparaît. Malgré la présence de doutes ou de malaises chez certains, les enseignants expriment majoritairement une grande ouverture à adapter leurs stratégies pour soutenir les élèves présentant des difficultés d’adaptation.
Ils se disent prêts à encourager leur participation aux activités de la classe et de l’école, et à adapter leur enseignement pour répondre à leurs besoins.
Ce décalage entre ce que les enseignants pensent, ressentent et sont prêts à faire témoigne de leur professionnalisme. Malgré les obstacles, ils maintiennent leur engagement envers la réussite de tous les élèves.
Mais cette volonté d’agir, si elle n’est pas soutenue, risque de s’éroder avec le temps.
Des variations révélatrices
L’étude révèle également certaines différences selon les profils des enseignants.
Les enseignants moins expérimentés présentent des attitudes envers l’inclusion scolaire plus favorables que leurs collègues plus chevronnés. Plusieurs hypothèses peuvent expliquer ce résultat.
Le type de formation semble également influencer les attitudes. Les enseignants détenant un diplôme d’études supérieures spécialisées (DESS) rapportent des sentiments plus favorables que ceux possédant un baccalauréat, une maîtrise ou un doctorat.
Une explication possible est que ces formations, fortement orientées vers la pratique professionnelle, offrent un bon équilibre entre connaissances théoriques et stratégies d’intervention concrètes. Les formations axées sur des stratégies concrètes d’intervention peuvent aider les enseignants à mieux comprendre les comportements difficiles et à renforcer leur sentiment de compétence.
Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.
Comment mieux soutenir les enseignants ?
Ces résultats permettent de dégager plusieurs pistes d’action.
Parmi les enjeux prioritaires, le sentiment d’impuissance face aux comportements difficiles ressort clairement. Des formations portant sur l’analyse fonctionnelle, une approche qui aide à saisir pourquoi un élève agit d’une certaine façon, pourraient contribuer à y répondre.
L’accompagnement gagnerait également à être adapté selon l’expérience. Pour les nouveaux enseignants, un mentorat structuré pourrait aider à préserver leurs attitudes positives. Pour les enseignants plus expérimentés, des dispositifs qui reconnaissent leur expertise tout en les soutenant face aux nouveaux défis pourraient contribuer à prévenir l’usure professionnelle.
Au-delà des formations, les enseignants ont aussi besoin d’espaces pour partager leurs défis et leurs stratégies. Les communautés de pratique permettent de briser l’isolement et de normaliser les difficultés vécues.
Un engagement à soutenir
L’inclusion scolaire ne repose pas uniquement sur les ressources ou les politiques. Elle dépend des attitudes de celles et ceux qui la mettent en œuvre au quotidien.
Nos résultats montrent que les enseignants du secondaire sont engagés, malgré leurs doutes. Leur volonté existe, mais ce sont souvent les conditions nécessaires qui manquent pour transformer cette volonté en pratiques durables.
Soutenir cet engagement est essentiel pour que l’inclusion scolaire des élèves présentant des difficultés d’adaptation devienne une réalité durable dans les écoles.
Marie-Pier Duchaine est chercheure collaboratrice à l’Unité mixte de recherche Synergia.
Line Massé est membre de l’UMR synergia.
Nancy Gaudreau est directrice de l’Unité mixte de recherche Synergia, Université Laval
Bone-smashing, peptidemaxxing, Blackpill, PSL rating : ces termes, autrefois marginaux, sont maintenant présents sur des plates-formes comme Instagram ou TikTok. Derrière ces néologismes se cache un phénomène grandissant : le looksmaxxing, soit l’optimisation de l’apparence physique pour se rapprocher des standards de beauté masculine.
Optimiser son apparence n’a rien ce nouveau, même si certaines techniques en vogue dans le mouvement du looksmaxxing comportent des risques non négligeables. De façon plus inquiétante, le phénomène fait écho à la montée des discours masculinistes, surtout lorsqu’on considère d’où il vient.
Le looksmaxxing, un terme issu des communautés incels
Le looksmaxxing prend racine au début des années 2010, au sein des communautés incels, (involuntary celibates). Ce terme désigne les hommes hétérosexuels souhaitant avoir des relations romantiques ou sexuelles avec des femmes, sans y parvenir. Ils tiennent l’émancipation des femmes et le féminisme pour responsables de cette situation. Ils sont notamment connus pour leurs discours violents et radicaux.
À la base de la mouvance incel se trouve l’idéologie de la pilule noire (blackpill), selon laquelle l’entièreté de notre existence serait basée sur notre apparence physique. On retrouve dans cette idéologie un mythe abondamment véhiculé au sein des communautés antiféministes selon lesquelles 80 % des femmes seraient uniquement intéressées par 20 % des hommes. Les incels nomment ces derniers « des Chads », soit les hommes qui correspondent aux critères de beauté masculins. Ces statistiques ont depuis été démenties.
Malgré cela, certains adeptes du looksmaxxing sont prêts aux mesures les plus extrêmes pour « ascend », c’est-à-dire améliorer leur attractivité physique : coups de marteau sur le crâne, régimes draconiens, injections diverses, voire consommation de drogues dures. L’influenceur américain Clavicular, l’une des figures de proue du mouvement, a notamment mis en avant la consommation de crystal meth comme méthode d’optimisation physique.
Un cheval de Troie vers des idéologies radicales
Sous couvert de conseils esthétiques, le looksmaxxing peut aussi ouvrir la voie à des univers réactionnaires violents.
La littérature nous informe sur des ponts existants entre l’antiféminisme et des formes violentes d’extrême droite. Dans certains espaces en ligne, les discours sur la beauté masculine et la transformation du corps ne parlent pas seulement d’apparence : ils mettent en scène une vision hiérarchique du monde, où virilité, domination et antiféminisme vont de pair.
À force d’exposition, ils peuvent banaliser certains codes et rendre plus acceptables des représentations du monde plus radicales.
Le contrôle des corps, un outil connu du fascisme
Cette obsession du corps n’a rien d’anodin.
Historiquement, les imaginaires fascistes ont souvent valorisé le corps viril, jeune et discipliné comme image d’un ordre social supposément sain. Les scientifiques Catherine Tebaldi de l’Université du Luxembourg, et Scott Burnett, de Pennsylvania State University, spécialistes de l’extrême droite, montrent dans cette étude publiée dans Journal of Right-Wing Studies que dans certains univers d’extrême droite contemporains, cette logique prend une forme très concrète : mâchoire carrée, muscles secs, posture stoïque, maîtrise de soi, rejet des émotions, refus de tout ce qui est perçu comme mou ou féminin.
Pris séparément, ces éléments peuvent sembler banals, du moins dans une société déjà traversée par des normes patriarcales. Mais, assemblés, politisés et diffusés par des acteurs proches de l’extrême droite, ils renvoient à un idéal bien précis, que Tebaldi et Burnett rapprochent de la figure nazie du Männerbund (littéralement « troupe d’hommes ») : celui d’une fraternité virile, guerrière et hiérarchisée, où le corps masculin athlétique n’est pas seulement présenté comme beau, mais comme la preuve visible d’une supériorité morale et raciale.
De l’optimisation de soi à l’obsession de la performance
Le looksmaxxing réactive une partie de cette logique, mais dans un langage néolibéral contemporain : celui de l’optimisation de soi, de la performance et de la compétition.
Il ne s’agit pas seulement de « prendre soin de soi », mais d’apprendre à lire le corps comme un verdict. Une mâchoire saillante, une faible masse grasse, une discipline alimentaire stricte ou une capacité à tenir la douleur deviennent les signes d’une valeur supérieure.
À l’inverse, les corps perçus comme faibles, gras, efféminés ou indisciplinés sont associés à l’échec, à l’infériorité, voire à la décadence civilisationnelle. C’est là que l’esthétique déborde vers la politique : lorsqu’on s’habitue à naturaliser des normes sociales, à penser que la force physique révèle la valeur d’un individu, il devient plus facile d’accepter des visions du monde hiérarchiques, où certains seraient faits pour diriger et d’autres pour obéir.
Un phénomène global qui touche aussi les femmes
Bien qu’il visait initialement les hommes, le looksmaxxing a migré vers des plates-formes grand public, entraînant l’apparition d’une version féminine du phénomène qui renforce une rhétorique de contrôle du corps des femmes, vieille de plusieurs millénaires.
Des influenceurs proposant des « accompagnements personnalisés » ont étendu leur marché promouvant des régimes hypocaloriques extrêmes qui s’inscrivent dans la continuité de pratiques dangereuses bien documentées, qu’il s’agisse des mouvements pro-anorexie des années 2000 ou, plus récemment, de la tendance skinnytok sur TikTok.
Comme le montre la sociologue Caroline Désy, de l’UQAM, les fascismes historiques ont contribué, avec d’autres courants historiques, à faire de la santé, de la beauté et de la discipline corporelle des instruments d’assignation des femmes à des rôles précis, articulant apparence, féminité et maternité.
Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.
Le looksmaxxing féminin prolonge cette logique : il ne s’agit pas seulement d’être désirable, mais de correspondre à une féminité compatible avec un ordre patriarcal.
Déconstruire les mythes
Le looksmaxxing est le symptôme d’un phénomène plus large : la montée des discours antiféministes, en ligne comme hors ligne.
TikTok propose certes un encadré indiquant « ton poids ne te définit pas » lorsqu’on recherche du contenu de looksmaxxing. Cependant, les vidéos ne sont que très peu modérées par les plates-formes, et des méthodes de looksmaxxing souvent dangereuses continuent d’être proposées à une audience de plus en plus jeune.
Le fait que le looksmaxxing devienne populaire dans un contexte de montée des discours antiféministes n’est pas un hasard. L’idéologie derrière le looksmaxxing se base sur une prétendue superficialité innée des femmes, et c’est ce même déterminisme biologique qui sert de base aux idées masculinistes qui structurent à présent notre environnement numérique.
En plus d’individualiser le rapport au monde, l’hyperfocus sur l’apparence physique peut dépolitiser et détourner l’attention des individus d’enjeux sociaux majeurs. Déconstruire les mythes véhiculés par ce phénomène est donc une nécessité.
Océane Corbin a reçu des financements de fonds de recherche du Québec (FRQ)
Tristan Boursier a reçu des financements du Centre de recherche interdisciplinaire sur la diversité et la démocratie (CRIDAQ).
Chaque jour, les enseignants et les enseignantes du primaire et du secondaire doivent composer avec des défis variés, propres à leurs élèves et à leurs groupes. La recherche en éducation offre des pistes pour y répondre… encore faut-il y avoir accès et savoir les interpréter. Et surtout : ces approches, souvent développées ailleurs, sont-elles vraiment adaptées à la réalité de la classe ?
Le fossé entre le milieu universitaire et celui de la pratique enseignante reste ainsi bien réel. Les universitaires sont alors parfois accusés de concevoir, depuis leur « tour d’ivoire », des approches innovantes, mais mal connectées. À l’inverse, le personnel enseignant peut parfois paraître réticent aux propositions issues de la recherche.
Dans ce contexte, il n’est guère surprenant que le Conseil supérieur de l’Éducation (2013), dans un rapport sur l’enseignement des sciences au primaire et au secondaire, ait dressé un constat peu reluisant, en soulignant combien les pratiques avaient peu évolué en 30 ans. Dans beaucoup de classes, on continue surtout à transmettre des connaissances, avec peu de participation active des élèves.
Pour réduire cette distance persistante entre recherche et pratique, une avenue prometteuse consiste à amener les personnes enseignantes à mener leurs propres recherches en classe, sur leurs élèves et sur leurs interventions pédagogiques. Certes menées à plus petite échelle, ces recherches n’en offrent pas moins des résultats précieux, précisément parce qu’elles sont ancrées dans le contexte réel de leur classe, et leur paraissent donc plus naturellement utiles.
Permettre aux praticiens de s’approprier des outils et des méthodes d’enquête, de connaître ce que les recherches disponibles révèlent déjà, de mieux comprendre leurs propres élèves et de mettre à l’épreuve par eux-mêmes des interventions adaptées à leur réalité pourrait constituer un levier puissant de développement professionnel. Plusieurs études le montrent : les formations continues ponctuelles de type « top-down » peinent à produire des changements durables dans les pratiques.
À l’inverse, les projets de recherche menés par les personnes enseignantes ne se limitent pas à un simple transfert de connaissances scientifiques vers l’école ; elles reposent sur leur co-construction. En adoptant ponctuellement une posture d’enseignant-chercheur, les personnes enseignantes deviennent ainsi plus réceptives à la recherche, mieux outillées pour en juger la valeur et plus à même de transformer durablement leurs pratiques en s’en inspirant.
Financé par le Conseil de recherches en sciences humaines du Canada (CRSH) et ses partenaires, il bénéficie d’une enveloppe totale de plus de 3 millions de dollars sur sept ans. Le Partenariat repose sur une rencontre égalitaire des connaissances issues de la recherche en éducation et des savoirs d’expérience des personnes enseignantes de sciences et de technologie au secondaire. Chaque établissement scolaire partenaire s’engage à offrir aux personnes enseignantes participantes cinq jours par année dégagés de leurs tâches d’enseignement, ainsi qu’un accompagnement assuré par un conseiller pédagogique.
Concrètement, les personnes chercheuses et enseignantes se réunissent en groupes de travail, répartis dans la grande région de Montréal, dans des contextes favorisant la collégialité et les échanges.
Ces rencontres permettent aux personnes enseignantes de développer leur pratique, tout en rompant l’isolement souvent ressenti dans le métier. Dans ce cadre collaboratif, elles travaillent ensemble et de manière soutenue à trouver des solutions concrètes à des défis qu’elles partagent. Avec l’appui de l’équipe de recherche, elles formulent leurs propres questions, choisissent une façon d’y répondre, recueillent des données dans leur classe et en analysent les résultats.
Chaque année se conclut par la présentation de ces projets lors du colloque annuel du Partenariat durant lequel les collègues peuvent être mis au courant des découvertes effectuées, et en faire profiter ensuite leurs propres élèves. Comme ces gestes – questionner, analyser, communiquer – sont déjà au cœur du métier enseignant, l’objectif est qu’ils soient réinvestis dans leur développement professionnel, bien au-delà de la durée du projet, et à travers leurs collègues, qu’ils peuvent alors inspirer.
Lors des premières années, les travaux des communautés d’apprentissage ont porté leur attention sur les préconceptions qui se trouvent souvent à l’origine des erreurs des élèves, et que ces derniers mobilisent dans leurs tentatives de comprendre les phénomènes naturels, ainsi que sur les stratégies pédagogiques permettant de les faire évoluer.
La seconde phase du Partenariat s’intéressera à des enjeux plus larges liés à la science, comme le racisme biologique, la 5G, les changements climatiques, la vaccination, ainsi que d’autres questions scientifiques actuelles et controversées.
L’ensemble de ces thématiques, de même que les approches didactiques qu’elles mobilisent, constitue alors un apport majeur à la formation professionnelle des personnes enseignantes. Si l’investissement requis peut, à court terme, alourdir la charge de travail, il s’avère à long terme structurant, durable et bénéfique pour la pratique.
Dès lors, face à des défis éducatifs en constante évolution, les personnes enseignantes se dotent de repères solides pour questionner leurs pratiques, expérimenter des pistes de solution, les mettre en œuvre en classe et en évaluer les effets.
Cette expérience montre que ces personnes peuvent jouer un rôle actif dans le développement durable de la culture scientifique, tout en contribuant à la production et à la diffusion de connaissances sur l’efficacité d’interventions pédagogiques ciblées. Dans cette perspective, faire de la recherche dans sa classe devient un moyen concret de faire évoluer sa pratique.
Patrice Potvin a reçu du financement du Conseil de recherches en science humaines du Canada.
Manon Beaudoin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Le système éducatif est-il inévitablement dépendant des outils fournis par les Gafam ? Des plateformes de ressources fondées sur des solutions libres comme PeerTube ont été développées pour les enseignants. Quels en sont les atouts et la réception sur le terrain ?
Le 7 mars 2026, Médiapart publiait un article intitulé « L’éducation nationale prolonge son contrat avec Microsoft en dépit des risques, et de ses propres consignes ». La France a, en effet, instauré des directives claires en faveur de l’utilisation de logiciels libres et « souverains ». Un mois plus tard, le 8 avril, la direction interministérielle du numérique (Dinum) annonçait ainsi sa sortie de Windows au profit de Linux afin de se « désensibiliser des outils américains ».
Mais est-il réellement possible de mettre fin à la dépendance du système éducatif vis-à-vis des Big Tech (Microsoft, Google, Apple ou encore Open AI pour ce qui est de l’intelligence artificielle) ? Ou, pour reprendre le mot d’ordre de Framasoft, est-il possible de « dégoogliser » l’éducation ?
Depuis plus de dix ans, cette association française s’efforce de produire des solutions, notamment à des fins éducatives, alternatives à celles proposées par Google et les géants de la Silicon Valley. Sa première version a, d’ailleurs, été lancée par deux enseignants du secondaire (de français et de mathématiques), dans le cadre d’un projet initialement intitulé FraMaNet. Ces premières expérimentations se sont par la suite structurées sous la forme d’une association loi 1901, créée en 2004, prenant le nom de Framasoft.
Le lien initial avec le monde de l’éducation restera au cœur de l’association jusqu’à aujourd’hui, Framasoft continuant à se présenter de manière récurrente comme une association « d’éducation populaire ».
Retour sur la création de la communauté Framasoft (TEDx Talks, 2014).
À partir d’un projet initial plutôt tourné vers la curation de solutions existantes, Framasoft va progressivement orienter son action vers le développement d’alternatives concrètes aux Big Tech, et en particulier à Google. Cette dynamique est formalisée en 2014 avec la campagne « Dégooglisons Internet » qui amène Framasoft à proposer jusqu’à 37 applications en ligne, avant de décider un resserrement sur quelques projets phares, dont PeerTube, sur lequel nous avons choisi de mener un projet de recherche récemment publié.
Des plateformes indépendantes mais interconnectées
PeerTube s’inscrit directement au cœur du projet de « dégooglisation » de Framasoft, dans le sens où il s’agit là explicitement de développer une alternative à la plateforme YouTube, elle-même portée depuis 2006 par Google. Du point de vue de l’expérience utilisateur, PeerTube présente ainsi beaucoup de similitudes avec YouTube.
Lorsqu’on se connecte à la page d’accueil d’une instance PeerTube, on découvre un ensemble de vignettes renvoyant à des vidéos, classées par tendances et par thématiques. Si l’on clique sur une vidéo, celle-ci prend l’espace principal de la fenêtre et se lance. Elle est soulignée d’une barre de commandes similaire à celle de YouTube (lecture, pause, vitesse de défilement, activation des sous-titres). On peut commenter la vidéo et la partager par l’intermédiaire d’un lien.
Pour un utilisateur de YouTube, la prise en main de PeerTube est immédiate, puisque ses choix ergonomiques reprennent quasiment trait pour trait les codes de YouTube. L’alternative proposée par PeerTube consiste à rendre possible ce type de pratiques grâce à une application web libre, que l’on peut installer sur le serveur de son choix. Autrement dit, tout internaute (pour peu qu’il dispose tout de même d’un bagage suffisant pour savoir installer un site web sur un serveur), peut grâce à ce système installer son propre « mini-YouTube » libre et y héberger les vidéos de son choix.
Ces instances indépendantes peuvent ensuite être fédérées, c’est-à-dire constituer un réseau. Au contraire d’une gigantesque plateforme à tendance monopolistique, telle que YouTube, PeerTube vise à faire exister une constellation de plateformes indépendantes mais interconnectées.
Il s’agit du même type d’alternative que celle que propose par exemple le réseau social Mastodon vis-à-vis des réseaux sociaux propriétaires comme Facebook ou Instagram : une multitude d’instances libres fédérées plutôt qu’une plateforme propriétaire centralisée, dans une logique dite du « fédivers ».
Faire vivre des « communautés d’utilisateurs »
Quelle est alors la réponse du public à cette proposition alternative ? Les statistiques consultables de PeerTube indiquent pour 2025 l’existence de 1 681 instances en activité, 418 000 utilisateurs, 56 000 commentaires, environ un million de vidéos hébergées (pour un total de 540 téraoctets de données) et 341 millions de vues. On peut donc dire que PeerTube n’en est plus à la simple « preuve de concept ». Il a généré depuis sa création une véritable communauté d’utilisateurs actifs.
On le voit aussi, ces statistiques représentent littéralement une goutte d’eau dans l’océan des vidéos en ligne. Pour rappel, YouTube générerait à lui seul 37 % du trafic Internet mondial. Plus d’un milliard d’heures de vidéo y sont regardées chaque jour. Chaque minute, 500 heures de vidéo y sont mises en ligne. En France, on compte 46,6 millions d’utilisateurs actifs de YouTube chaque mois, dont 19 millions de visiteurs uniques par jour.
Mais l’objectif de Framasoft ne se situe pas dans le fantasme d’une concurrence frontale avec le géant californien. PeerTube vise plus réalistement son adoption par des acteurs qui sont sensibles à sa proposition et à son projet, tels que ceux de l’éducation.
Observons donc à présent la place que peut occuper en France une application libre, telle que PeerTube, dans le périmètre du ministère de l’éducation nationale (MEN). Pour cela, on peut partir de l’action de la direction du numérique pour l’éducation (DNE), notamment via deux dispositifs qui y sont impulsés afin de favoriser les pratiques numériques libres et open source : Apps.education et LaForgeEdu.
Depuis 2024, LaForgeEdu propose une forge logicielle de type GitHub, c’est-à-dire une plateforme qui permet de déposer, de partager et de travailler de manière collaborative au développement de logiciels libres. Comme nous l’a expliqué l’un des porteurs de ce dispositif à la DNE, l’objectif de LaForgeEdu est de créer et de faire vivre des « communautés d’utilisateurs » qui associent des enseignants et des développeurs de logiciels libres.
Enjeux politiques et formation continue
LaForgeEdu héberge ainsi, de manière ouverte (mais réservée aux enseignants en poste dans l’éducation nationale), des dizaines de projets visant toutes les disciplines et tous les niveaux, pouvant aller de la génération d’exercices de mathématiques à des livres jeunesse interactifs réalisés par des enseignants.
Page d’accueil des ressources pour le primaire de La Forge des communs numériques éducatifs.
Depuis 202O, la plateforme Apps.education poursuit quant à elle un objectif complémentaire : elle propose des outils développés et hébergés en interne par la DNE, sur des serveurs du ministère de l’éducation nationale. Parmi ces applications, on retrouve justement une instance PeerTube réservée aux enseignants. Elle leur permet de partager avec leurs élèves des vidéos, de manière sécurisée, souveraine et non commerciale.
On voit ainsi à travers cet exemple comment, au sein de l’éducation nationale, l’action volontariste de certains acteurs permet de construire un écosystème favorisant l’accueil d’une solution telle que PeerTube.
Cependant, il ne suffit pas que des outils soient mis à disposition des acteurs pour que ceux-ci s’en saisissent. Au-delà des grandes orientations politiques, il s’agit à présent d’accompagner les enseignants et enseignantes dans le développement de gestes professionnels et d’habitudes numériques vertueuses et sécurisées.
Grâce à un financement européen, nous avons pu travailler dans le cadre d’ateliers spécifiques avec de nombreux collègues et observer leurs pratiques et leurs représentations sur ces questions. Il ressort de ce travail que les enseignants français sont régulièrement sensibilisés aux questions du logiciel libre. Ils ont aussi souvent un regard critique sur les Big Tech états-uniens et leur emprise croissante sur de nombreux aspects de la vie de leurs élèves.
Pour autant, dans le cas de PeerTube, malgré l’existence d’un « terreau idéologique » favorable, nous avons pu constater que l’adoption d’une alternative libre et décentralisée à YouTube restait un enjeu complexe.
Si nous avons pu observer l’ouverture à l’expérimentation d’alternatives pour certains acteurs à la fois technophiles et engagés, nous avons aussi pu mesurer la difficulté d’un déploiement à plus grande échelle face à une solution aussi « naturalisée » que peut l’être YouTube pour un plus grand public, y compris dans le monde de l’éducation.
Au-delà de la mise à disposition de solutions techniques, la question de la formation continue constituera sans doute un levier central pour faciliter ces transformations.
Cette recherche, menée par Laurent Tessier, a bénéficié du financement de la Commission Européenne via le programme OSCARS (Open Science Clusters Action for Research and Society).