En 2030, l’ISS laissera la place à des stations spatiales commerciales

Source: The Conversation – France in French (2) – By John M. Horack, Professor of Mechanical and Aerospace Engineering, The Ohio State University

La Station spatiale internationale sera désorbitée en 2030. NASA via AP

La Station spatiale internationale vit ses dernières années : en 2030, elle sera désorbitée. Vingt-cinq ans d’occupation continue laisseront alors place à une nouvelle ère, celle des stations spatiales commerciales.


Depuis novembre 2000, la NASA et ses partenaires internationaux assurent sans interruption une présence humaine en orbite basse, avec toujours au moins un Américain à bord. Une continuité qui fêtera bientôt ses 25 ans.

Dans l’histoire de l’exploration spatiale, la Station spatiale internationale apparaît sans doute comme l’une des plus grandes réalisations de l’humanité, un exemple éclatant de coopération dans l’espace entre les États-Unis, l’Europe, le Canada, le Japon et la Russie. Mais même les plus belles aventures ont une fin.

Un emblème représentant une photo de la Station spatiale internationale, entourée d’un anneau où figurent les drapeaux des pays partenaires
L’emblème de la Station spatiale internationale arbore les drapeaux des États signataires d’origine.
CSA/ESA/JAXA/NASA/ROSCOSMOS

En 2030, la Station spatiale internationale sera désorbitée : elle sera dirigée vers une zone isolée du Pacifique.

Je suis ingénieur en aérospatiale et j’ai contribué à la conception de nombreux équipements et expériences pour l’ISS. Membre de la communauté spatiale depuis plus de trente ans, dont dix-sept au sein de la NASA, il me sera difficile d’assister à la fin de cette aventure.

Depuis le lancement des premiers modules en 1998, la Station spatiale internationale a été le théâtre d’avancées scientifiques majeures dans des domaines tels que la science des matériaux, la biotechnologie, l’astronomie et l’astrophysique, les sciences de la Terre, la combustion et bien d’autres encore.

Les recherches menées par les astronautes à bord de la station et les expériences scientifiques installées sur sa structure extérieure ont donné lieu à de nombreuses publications dans des revues à comité de lecture. Certaines ont permis de mieux comprendre les orages, d’améliorer les procédés de cristallisation de médicaments essentiels contre le cancer, de préciser comment développer des rétines artificielles en apesanteur, d’explorer la production de fibres optiques ultrapures et d’expliquer comment séquencer l’ADN en orbite.

Vue de dessus d’un scientifique en blouse de laboratoire et portant des gants, manipulant une pipette sur un plan de travail à bord de l’ISS
L’environnement en microgravité de l’ISS en fait un cadre idéal pour une grande variété de projets de recherche scientifique.
NASA, CC BY

Au total, plus de 4 000 expériences ont été menées à bord de l’ISS, donnant lieu à plus de 4 400 publications scientifiques destinées à améliorer la vie sur Terre et à tracer la voie de futures activités d’exploration spatiale.

La station a démontré toute la valeur de la recherche conduite dans l’environnement unique des vols spatiaux – marqué par une très faible gravité, le vide, des cycles extrêmes de température et des radiations – pour faire progresser la compréhension d’une large gamme de processus physiques, chimiques et biologiques.

Maintenir une présence en orbite

Avec le retrait annoncé de la station, la NASA et ses partenaires internationaux n’abandonnent pas pour autant leur avant-poste en orbite terrestre basse. Ils cherchent au contraire des alternatives pour continuer à exploiter le potentiel de ce laboratoire de recherche unique et prolonger la présence humaine ininterrompue maintenue depuis 25 ans à quelque 402 kilomètres au-dessus de la Terre.

En décembre 2021, la NASA a annoncé trois contrats visant à soutenir le développement de stations spatiales privées et commerciales en orbite basse. Depuis plusieurs années, l’agence confie déjà le ravitaillement de l’ISS à des partenaires privés. Plus récemment, elle a adopté un dispositif similaire avec SpaceX et Boeing pour le transport d’astronautes à bord respectivement de la capsule Dragon et du vaisseau Starliner.

Un vaisseau spatial blanc de forme conique avec deux panneaux solaires rectangulaires en orbite, la Terre en arrière-plan
La capsule Dragon de SpaceX s’amarre à l’ISS.
NASA TV via AP

Fort de ces succès, la NASA a investi plus de 400 millions de dollars pour stimuler le développement de stations spatiales commerciales, avec l’espoir de les voir opérationnelles avant la mise hors service de l’ISS.

L’aube des stations spatiales commerciales

En septembre 2025, la NASA a publié un projet d’appel à propositions pour la phase 2 des partenariats concernant les stations spatiales commerciales. Les entreprises retenues recevront des financements pour réaliser les revues critiques de conception et démontrer le bon fonctionnement de stations capables d’accueillir quatre personnes en orbite pendant au moins 30 jours.

La NASA procédera ensuite à une validation et une certification formelles afin de garantir que ces stations répondent à ses normes de sécurité les plus strictes. Cela permettra ensuite à l’agence d’acheter des missions et des services à bord de ces stations sur une base commerciale – de la même manière qu’elle le fait déjà pour le transport de fret et d’équipages vers l’ISS. Reste à savoir quelles entreprises réussiront ce pari, et selon quel calendrier.

Pendant que ces stations verront le jour, les astronautes chinois continueront à vivre et à travailler à bord de leur station Tiangong, un complexe orbital habité en permanence par trois personnes, évoluant à environ 400 kilomètres au-dessus de la Terre. Si la continuité habitée de l’ISS venait à s’interrompre, la Chine et Tiangong prendraient ainsi le relais comme station spatiale habitée sans discontinuité la plus ancienne en activité. Tiangong est occupée depuis environ quatre ans.

Photos et vidéos de l’ISS permettant d’observer la Terre depuis l’orbite.

En attendant, levons les yeux

Il faudra encore plusieurs années avant que les nouvelles stations spatiales commerciales n’encerclent la Terre à environ 28 000 kilomètres par heure et avant que l’ISS ne soit désorbitée en 2030.

D’ici là, il suffit de lever les yeux pour profiter du spectacle. Lors de ses passages, l’ISS apparaît la plupart des nuits comme un point bleu-blanc éclatant, souvent l’objet le plus brillant du ciel, traçant silencieusement une courbe gracieuse à travers la voûte étoilée. Nos ancêtres n’auraient sans doute jamais imaginé qu’un jour, l’un des objets les plus lumineux du ciel nocturne serait conçu par l’esprit humain et assemblé par la main de l’homme.

The Conversation

John M. Horack a reçu des financements de recherche externes de la NASA, de Voyager Technologies et d’autres organismes liés au domaine spatial, dans le cadre de son travail de professeur à l’Université d’État de l’Ohio.

ref. En 2030, l’ISS laissera la place à des stations spatiales commerciales – https://theconversation.com/en-2030-liss-laissera-la-place-a-des-stations-spatiales-commerciales-266506

Une agriculture 100% bio en France est-elle possible ?

Source: The Conversation – in French – By Michel Duru, Directeur de recherche honoraire, UMR AGIR (Agroécologie, innovations et territoires), Inrae

Les mangeurs bio étant moins exposés aux pesticides, il s’en suit une réduction du risque de développer des maladies chroniques non-transmissibles via l’alimentation. C’est particulièrement démontré pour le cancer du sein chez la femme ménopausée. Elina Mark, CC BY

Une agriculture française 100 % bio serait meilleure pour notre santé et celle de l’environnement. On pourrait arriver à cette généralisation du bio si l’on réduisait notre consommation de viande. Ce qui aurait également des effets bénéfiques pour notre santé.


Pour notre santé comme pour celle des écosystèmes, l’agriculture biologique apporte des bienfaits qui ne sont plus à prouver. Ses détracteurs aiment cependant dire qu’il serait impossible de la généraliser, car sa production par hectare étant souvent moindre, notre dépendance aux importations s’accroîtrait, assurent-ils.

C’est une vision parcellaire de notre système alimentaire. En effet, des études observationnelles, tout comme des scénarios de systèmes alimentaires, montrent qu’une généralisation de l’agriculture biologique serait possible si l’on réduisait en même temps notre consommation de produits animaux. Cela permettrait, d’une part, de libérer des terres arables pouvant compenser ces rendements moindres et, d’autre part, de produire ce dont notre alimentation manque cruellement pour notre santé et que, de plus, nous importons : fruits, légumes et légumineuses. Notre santé comme notre environnement s’en porteraient mieux.

Santé et environnement : des enjeux cruciaux et interdépendants

Commençons par un constat : notre système alimentaire actuel est fort coûteux. Il présente notamment une série de dépenses bien souvent invisibles pour le consommateur. On parle de coûts cachés. Il s’agit des dépenses faites ou qu’il faudrait faire pour corriger les conséquences sanitaires et environnementales de pratiques inadaptées comme :

  • l’utilisation excessive d’engrais azotés et de pesticides de synthèse, qui rendent la France très dépendante des importations et qui, du moins pour ce qui concerne la plupart des pesticides, sont nocifs pour la santé humaine et celle de l’environnement ;

  • la surconsommation de produits ultra-transformés et de produits animaux, en particulier de viande rouge et de charcuterie, qui contribuent au développement de maladies chroniques ;

  • le développement d’élevages très intensifs en intrants, souvent concentrés géographiquement, nécessitant beaucoup d’achats d’aliments pour nourrir les animaux, avec comme conséquences des nuisances graves sur les écosystèmes, comme le montre, par exemple, le problème des algues vertes en Bretagne.

Mises bout à bout, toutes ces dépenses équivalent presque aujourd’hui au prix total des denrées alimentaires consommées en France, soit 170 milliards d’euros.

La bonne nouvelle, c’est que l’agriculture et l’alimentation bio permettraient de réduire ces dépenses, car elles n’utilisent pas d’intrants de synthèse, sont plus exigeantes pour les modes d’élevage et plus restrictives quant aux additifs autorisés dans la fabrication des aliments. En outre, le bio comporte de nombreux bienfaits qui plaident en faveur de sa généralisation.

Meilleure pour la santé

L’alimentation bio est, avant tout, meilleure pour la santé. Ainsi, les produits biologiques ont en moyenne des teneurs un peu supérieures en micronutriments d’intérêt pour la santé, notamment des antioxydants, mais leur atout principal est de contenir bien moins de résidus de pesticides, à l’exception du spinosad, un insecticide naturel. Les mangeurs bio étant moins exposés aux pesticides, il s’en suit une réduction du risque de développer des maladies chroniques non transmissibles par l’alimentation, comme l’ont montré des études épidémiologiques et quelques études cliniques. C’est particulièrement démontré pour le cancer du sein chez la femme ménopausée.

Des effets contrastés sur l’environnement

L’agriculture bio a également nombre d’atouts pour le sol et pour la biodiversité qui sont bien documentés. En élevage, les vaches utilisent peu de terres labourables et elles pâturent dès que les conditions le permettent, si bien que leur alimentation entre peu en compétition avec la nôtre. Les achats de fourrages et de compléments sont également limités.

Les élevages de porcs et de volailles ont une moindre densité d’animaux par mètre carré et ont accès à des parcours, ce qui est mieux pour le bien-être animal. La plus faible densité d’animaux permet aussi d’utiliser les fumiers avec moins de risque de pollution, car plus d’hectares sont disponibles pour leur épandage. Toutes ces caractéristiques font qu’on parle d’élevage « avec lien au sol ».

Les émissions de gaz à effet de serre qui contribuent au réchauffement climatique, bien que très variables selon les études, sont, lorsqu’exprimées par kilogramme de produit, en moyenne un peu plus élevées en bio si les rendements des cultures sont plus faibles et les temps d’élevage sont plus longs. Il en est de même des pertes de nitrates à l’origine, par exemple du problème des algues vertes en Bretagne. Un autre point négatif parfois pointé est celui du cuivre et du soufre qu’utilisent certains vignerons ou maraîchers bio pour lutter contre les maladies et qui ne sont pas sans impact sur les sols.

Mais la principale faiblesse de l’agriculture bio provient des rendements de cultures moindres qu’en agriculture conventionnelle d’environ 25 % en moyenne ; les différences les plus fortes étant observées pour les céréales et pour les pommes de terre (jusqu’à 35 %) et les plus faibles pour le tournesol, pour les fruits et légumes (20 %). Pour les productions animales, les différences moyennes sont de 15 %.

De façon générale, il faut plus de surfaces pour obtenir une même quantité de produits. C’est d’ailleurs la raison pour laquelle il a été montré par modélisation au Royaume-Uni qu’une généralisation de l’alimentation bio n’est pas possible.

En France, une agriculture totalement bio est encore loin d’advenir, vu que l’agriculture conventionnelle représente aujourd’hui 90 % des terres agricoles et qu’elle reste à l’origine de 94 % des dépenses alimentaires des ménages.

De ce fait, cela peut sembler ironique quand on entend les craintes de dépendance aux importations que soulèvent les sceptiques du bio, car l’agriculture française est déjà aujourd’hui très dépendante des produits importés, avec 2 millions de tonnes d’engrais azotés de synthèse et 3,5 millions de tonnes de tourteaux de soja pour l’agriculture conventionnelle, auxquels il faut ajouter l’équivalent de 680 000 hectares de fruits et légumes.

D’où la question : est-il possible de consommer plus de produits bio, globalement bénéfiques pour la santé et pour l’environnement, malgré des productions agricoles plus faibles ?

Diminuer la viande dans l’assiette pour généraliser le bio

La réponse est oui, si l’on diminue notre consommation de produits animaux, et donc la surface agricole réservée à l’élevage pour en consacrer plus aux productions végétales. Pour évaluer quelle diminution serait bénéfique à la fois pour la santé et pour l’environnement, commençons par regarder quelles sont les recommandations sur la part de protéines végétales et animales que l’on devrait avoir dans notre alimentation.

Notre consommation moyenne de protéines totales (1,4 g/jour de protéines par kilogramme de poids corporel) excède aujourd’hui les recommandations d’environ 30 % et les besoins de 70 % (0,83 g/jour de protéines par kilogramme de poids corporel). Un régime plus végétalisé demeure meilleur pour la santé. Il serait même possible d’utiliser jusqu’à 80 % de protéines végétales tout en assurant nos besoins en micronutriments essentiels, comme la vitamine B12, pour apporter suffisamment de protéines, à condition d’associer des céréales aux légumineuses de façon à avoir un apport équilibré en acides aminés.

Ces données scientifiques permettent de définir un ordre de grandeur pour une baisse sans risque de la consommation de produits carnés, qui serait de l’ordre de 50 % en moyenne pour respecter les limites planétaires, notamment pour le climat et pour l’azote, sans augmenter la dépendance aux importations.

Moins manger de viande n’est d’ailleurs pas aberrant du tout d’un point de vue historique, car, si certains associent un régime très carné à des traditions culturelles, les Français mangeaient en réalité moitié moins de viande il y a cent ans.

Les produits laitiers sont également surconsommés aujourd’hui, au regard des recommandations nutritionnelles, avec une consommation moyenne de 70 grammes de fromage par jour lorsqu’il est conseillé de ne pas dépasser 40 grammes.

Une alimentation plus bio est donc possible en végétalisant l’assiette, car diminuer la consommation de produits animaux réduirait bien plus la surface pour se nourrir que la généralisation d’une alimentation bio ne l’augmenterait.

Ainsi, réduire la consommation de produits animaux permet de diviser par deux cette surface (de 8,3 m²/jour pour ceux qui mangent moins de 50 grammes de viande par jour à 16,8 m²/j pour ceux qui en mangent plus de 100 grammes par jour), alors que consommer bio ne l’augmenterait que de 30 %. De cette façon, il serait possible de libérer au moins 4 millions d’hectares de cultures utilisées par l’élevage et de les affecter à des productions végétales cultivées en bio, compensant ainsi des rendements inférieurs, notamment pour les céréales.

Quel type d’élevage favoriser ?

Reste la question de savoir quels types d’élevage il faudrait en priorité diminuer et ceux qui, au contraire, sont à favoriser.

Les élevages de ruminants (bovins, ovins) à soutenir sont ceux où l’alimentation des animaux provient principalement des prairies pâturées ou récoltées. De tels élevages sont plus faciles à mettre en œuvre en bio. Ils sont meilleurs pour l’environnement car ils génèrent moins de pollutions azotées et utilisent bien moins ou pas de pesticides. En outre, le lait et la viande sont plus riches en acides gras insaturés à fonction anti-inflammatoire.

En conséquence, la réduction des productions animales devrait surtout concerner les élevages les plus intensifs en intrants de synthèse, et/ou concentrés géographiquement, qui utilisent le plus de terres labourables et sont le plus dépendants d’importations de concentrés (soja) pour l’alimentation des animaux. Une partie des terres labourables – 3,8 millions d’hectares pour l’élevage des ruminants et 3,9 millions d’hectares pour les porcs et les volailles – serait alors utilisée pour des productions végétales en bio.

Les scénarios conçus à l’échelle de l’Union européenne et de la France montrent que la mise en œuvre de pratiques agroécologiques ne permet pas à elle seule d’atteindre les objectifs de politiques publiques en matière de climat et d’émissions d’azote. Cela nécessite donc de végétaliser l’assiette, en complément du développement massif des légumineuses, qui ont l’immense intérêt de ne pas exiger d’apport en engrais azotés, de réduire de moitié le gaspillage alimentaire, et de recycler une partie de nos urines naturellement riches en azote. En effet, un point faible de l’agriculture biologique est souvent le manque d’azote, nécessaire à la croissance des plantes.

La bio étant une forme emblématique, mais perfectible, de l’agroécologie, le progrès des connaissances pour développer une agriculture, dite biorégénératrice, fondée sur les processus écologiques permettrait de réduire les différences de production avec l’agriculture conventionnelle. Cela suppose d’activer de nombreux leviers agronomiques : la diversification végétale, les pratiques améliorant la santé du sol ainsi que des modes d’alimentation des animaux fondés sur l’herbe pour les ruminants et sur la complémentation en lin pour les monogastriques.

Ignorant ces données scientifiques quant à nos besoins en protéines animales et leurs impacts sur l’environnement, le débat sur le bio est souvent mal posé.

The Conversation

Membre du Conseil scientifique de PADV (Pour une Agriculture du Vivant)

ref. Une agriculture 100% bio en France est-elle possible ? – https://theconversation.com/une-agriculture-100-bio-en-france-est-elle-possible-263394

Transition énergétique : une leçon autochtone venue du Myanmar

Source: The Conversation – in French – By Margaux Maurel, Doctorante en affaires internationales spécialisée sur les impacts économiques, sociaux et environnementaux des projets d’infrastructure et d’énergie dans les pays du Sud Global et l’activisme transnational. Chercheuse affiliée au CERIUM, HEC Montréal

Hydro-Québec a plusieurs projets hydroélectriques dans sa ligne de mire, notamment sur la Côte-Nord, où elle devra s’entendre avec les Innus si elle veut aller de l’avant.

Selon la société d’État,
près de 4000 MW de nouvelles capacités hydroélectriques seront ajoutés d’ici 2035 grâce à la rénovation de centrales existantes et la construction de nouveaux barrages dans plusieurs régions du Québec.

Les grands barrages occupent une place particulière dans l’imaginaire du développement national, où ils ont longtemps été associés au développement et à l’émancipation de la province.

Pourtant, ces projets, majoritairement situés sur des terres ancestrales, suscitent dans de nombreux cas une vive opposition, en particulier de la part des communautés autochtones.

Si l’attention se porte souvent sur la contestation à ces grands barrages, la question des alternatives pour ces espaces reste peu explorée.

En tant que doctorante en affaires internationales à HEC Montréal et chercheuse affiliée au CÉRIUM, mes travaux portent sur la résistance des communautés locales et autochtones à des mégaprojets (barrages, mines, exploitation pétrolière).

Cet article présente un projet inspirant au Myanmar, le Salween Peace Park, qui offre un rare exemple de victoire de la résistance autochtone et de transformation socio-écologique qui peut éclairer et inspirer les débats actuels jusque chez nous. Une zone protégée a été crée, gérée par les communautés locales. Il s’agit d’un exemple d’autodétermination, d’autonomie énergétique et de gouvernance autochtone et décentralisée à méditer ici.

Dépossession, violence et résistance

Les grands barrages produisent intrinsèquement des violences, notamment la dépossession des terres de communautés vulnérables et des violations graves des droits de la personne (répression des opposants, intimidations, travail forcé, etc.).

Selon le rapport de la Commission mondiale des grands barrages, environ 40 à 80 millions de personnes ont été déplacées durant le XXe siècle, principalement des communautés autochtones, tribales et paysannes. Ces personnes ont été économiquement, culturellement et psychologiquement dévastées. Environ 400 à 800 millions de personnes ont été confrontées à des changements d’écosystèmes liés à la construction de grands barrages en amont des cours d’eau dont ils dépendent.

Au Myanmar, en 2013, le président de l’époque, Thein Sein, a annoncé des plans pour la construction de six grands barrages sur le fleuve Salween.

Le Salween abrite un écosystème exceptionnel, mais les projets de barrages menacent gravement sa riche biodiversité et les moyens de subsistance des communautés locales. Le projet Hatgyi, situé dans une zone de conflit, a provoqué des violences, déplacements et violations des droits des Karen, qui ont résisté par diverses actions jusqu’à suspendre les travaux et créer le Salween Peace Park.




À lire aussi :
« Drill, baby, drill » : face à l’obsession de Trump pour le pétrole, une mobilisation citoyenne verra-t-elle le jour ?


Résister et reconstruire

En réponse à ces menaces, depuis des décennies, les communautés autochtones Karens ont employé une grande variété de stratégies pour résister au barrage Hatgyi qui agresse le fleuve Salween, vital pour leur culture, l’eau, le transport et les terres fertiles.

Une vaste coalition karen, notamment le Save the Salween Network, organise chaque année des manifestations et célébrations culturelles, comme le 14 mars, le 9 août ou le Nouvel An karen, pour défendre leur fleuve et leur territoire.

Né de cette résistance, le Salween Peace Park, créé en 2018, regroupe plus de 340 villages et 70 000 personnes. Il constitue l’un des plus grands exemples de zones autochtones protégées et autogérées au monde.

En matière de gouvernance, les pratiques traditionnelles karens – les kaw, qui régissent l’usage des terres selon des principes écologiques – structurent la gestion du territoire : harmonie écologique, autodétermination et préservation culturelle. Grâce à cette organisation communautaire, le Salween est l’un des derniers et des plus longs fleuves à écoulement libre au monde.

Cependant, il faut mentionner qu’à la suite du coup d’État militaire du 1er février 2021, des frappes aériennes mortelles ont forcé certains habitants à fuir. Malgré cela, les efforts communautaires de protection du territoire et de création d’un modèle alternatif se poursuivent et un second parc a été créé en décembre 2024.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous aujourd’hui à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Une inspiration pour le Québec

Hydro-Québec a lancé en 2019 une politique d’implication des peuples autochtones dans ses projets et souhaite renforcer les partenariats. En décembre 2024 est lancée la Stratégie de réconciliation économique et de renforcement des relations avec les Premières Nations et les Inuit.

Hydro-Québec veut offrir une plus grande part des contrats à des entreprises autochtones et accroître l’accompagnement qui leur est offert.

Pourtant, il n’existe pas (encore) d’entreprises autochtones qui produisent des matériaux d’éoliennes ou de centrales hydroélectriques.

Certaines communautés collaborent déjà avec Hydro-Québec, comme les communautés d’Ekuanitshit, de Nutashkuan, d’Unamen Shipu et de Pakua Shipu pour le complexe hydroélectrique de La Romaine, sur la Côte-Nord.

Mais ailleurs, d’autres communautés dénoncent un manque de reconnaissance de leurs droits sur le territoire. En 2025, alors que la mise en œuvre du projet de loi 97 sur la gestion des forêts publiques se poursuit, les débats autour des droits autochtones et de leur participation aux décisions énergétiques restent vifs au Québec.

De plus, selon une étude menée de 1975 à 2020 dans tout le Canada, notamment au Québec, la majorité des projets d’énergies renouvelables (dont hydroélectrique), ne sont pas détenus par des Autochtones ou ne le sont que de manière minoritaire. Il n’existe pas non plus de formes de propriété décentralisées et démocratiques, telles que les coopératives et les organisations à but non lucratif.

Les partenariats et la propriété privée non autochtone restent la forme dominante, tournés vers le profit et la productivité. Des initiatives comme les Énergies Tarquti, au Nunavik, démontrent la volonté d’autonomie des communautés.

Dès lors, le Salween Peace Park montre qu’une autre voie est possible : une transition énergétique menée par et pour les communautés locales. Une source d’inspiration, au moment où le Québec redéfinit ses choix énergétiques.

Une transition socialement juste et équitable pourrait aussi passer par d’autres chemins que les barrages géants : réduction de la consommation, décentralisation, efficacité énergétique et redéfinition des besoins sont autant de pistes à envisager.

La Conversation Canada

Margaux Maurel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Transition énergétique : une leçon autochtone venue du Myanmar – https://theconversation.com/transition-energetique-une-lecon-autochtone-venue-du-myanmar-227839

Devenir enseignant : une identité professionnelle à façonner

Source: The Conversation – in French – By Philippe Zimmermann, Maître de conférences en sciences de l’éducation, Université de Strasbourg

Depuis une dizaine d’années, les démissions d’enseignants progressent, particulièrement du côté des personnes débutant dans le métier. Pour enrayer ce phénomène, il importe de mieux comprendre comment se développent le sentiment d’identité professionnelle et les facteurs qui interviennent dans sa construction.


Cette rentrée 2025, un certain nombre de classes se sont une fois encore retrouvées sans enseignants. Cette pénurie de profs apparaît comme un casse-tête pour les gouvernements successifs, confrontés à la faible attractivité du métier. Non seulement les concours peinent à faire le plein de candidats mais, une fois ce cap franchi, on observe aussi une nouvelle déperdition de vocations. Depuis une dizaine d’années, le décrochage professionnel des enseignants, particulièrement des novices, augmente.

Témoins de ce climat, nombreuses sont actuellement les études qui alertent sur le malaise enseignant et pointent un contexte d’insertion professionnelle sous tension qui s’explique par la complexité croissante du métier, des charges de travail difficiles à soutenir, une reconnaissance insuffisante… Le choc de la réalité pointé depuis 50 ans et l’écart entre le métier fantasmé et la réalité du métier perdurent.

Notre analyse de la situation interroge le façonnage identitaire d’enseignants novices du premier degré, en lien avec le processus d’insertion et/ou de décrochage professionnel. Une fois lauréats d’un concours et reconnus par l’institution, les enseignants novices se sentent-ils pour autant pleinement enseignants ?

Nous allons modéliser le passage du statut d’étudiant à celui d’enseignant sous forme de quatre bascules identitaires, considérées comme des étapes types par lesquelles passent tous les enseignants novices selon un ordre et un rythme singuliers.

Des responsabilités à endosser

Étonnamment, nombreuses sont les situations au cours desquelles les enseignants novices délèguent leur responsabilité en se plaçant en retrait par rapport aux élèves. En maternelle, le rapport avec l’agent territorial spécialisé des écoles maternelles (Atsem), souvent plus âgé que l’enseignant novice et ayant une connaissance fine du contexte de la classe, explique que les enseignants novices leur confient certaines tâches qui leur incombent (effectuer les groupes, expliquer le travail à faire…). De même, lors des premières séances de natation, ils n’hésitent pas à se référer au maître-nageur, considéré comme « le professionnel ».

Cette bascule tient également à la manière de caractériser les élèves. Si certains s’attribuent pleinement l’origine des événements de la classe (des élèves peu attentifs, une séance qui n’a pas fonctionné comme espéré…) et s’engagent dans des actions visant à l’infléchir, d’autres reprochent aux élèves leur manque d’intérêt (« Ils n’en ont rien à faire »), se dessaisissent du problème et s’empêchent d’agir.

Pour l’enseignant novice, l’enjeu de cette bascule est alors de percevoir le lien entre les actions qu’il construit et leurs effets sur les actions des élèves, pour s’attribuer l’essentiel de la responsabilité de ce qu’il se passe en classe.

La bascule des gestes professionnels

La prise de responsabilité des enseignants novices est directement liée à leur sentiment d’efficience, autrement dit, à la construction et la maîtrise de gestes professionnels. Contrôler la classe sans s’épuiser, faire apprendre ou encore récupérer l’attention des élèves nécessite de disposer de ces gestes professionnels.

Certains cherchent à les « calquer », autrement dit à reproduire à l’identique ceux des enseignants chevronnés (voire même, paradoxalement, de personnes n’appartenant pas au métier : l’Atsem, le maître-nageur…). Ils constatent toutefois l’inefficience de cette reproduction des gestes sans en comprendre le sens et sans les contextualiser. Aussi cherchent-ils progressivement à s’en affranchir en les ajustant aux contextes de la classe.

Seuls les gestes qui donnent satisfaction sont conservés, ceux jugés inefficaces sont rejetés. Confrontés à répétition à des gestes inefficaces et insatisfaisants, les enseignants novices sont amenés à douter de leur capacité à répondre aux élèves et ne peuvent basculer vers l’introduction de leurs propres gestes professionnels. Le processus d’accrochage professionnel est ralenti et le façonnage de leur identité professionnelle mis à mal.

Remettre en perspective les prescriptions

En début de carrière, les enseignants réalisent rapidement qu’ils ne peuvent suivre à la lettre les prescriptions, nombreuses et parfois contradictoires, auxquelles ils sont confrontés. Certains s’en affranchissent donc en s’autorisant à les « renormaliser », dans le but de gagner en efficacité. Pour ce faire, leur entourage professionnel (les formateurs, les pairs, les collègues, le tuteur) joue un rôle majeur, partageant leurs choix dans des situations de dilemme.

Les enseignants novices peuvent alors effectuer des renormalisations « par procuration », en reprenant les choix d’autrui, ou s’en éloigner. Si être enseignant exige le suivi des prescriptions, façonner une identité professionnelle passe ainsi par une émancipation, volontaire et réfléchie, qui nécessite de faire des compromis (finir le programme en passant rapidement sur certaines notions ou approfondir les notions quitte à ne pas tout faire…) et de marquer des écarts à la prescription. Les enseignants novices gagnent ainsi des espaces de liberté qui contribuent au façonnage identitaire et à leur accrochage professionnel.

Des reconnaissances qui façonnent l’identité professionnelle

Tout au long de l’année, les enseignants novices oscillent entre des moments où ils se perçoivent encore plutôt étudiants ou davantage enseignants. Nombreuses sont les circonstances qui expliquent cette dynamique : une question d’élève qui conforte ou déboussole, une remarque d’un parent, d’un collègue… Typiquement, recevoir les clés de l’école ou sa première fiche de paie, effectuer pour la première fois des démarches administratives, recevoir des cadeaux avant les vacances sont autant de signes de reconnaissance « donnés » par autrui.

Au-delà de ces situations, l’identité professionnelle est surtout façonnée par des reconnaissances « acquises », obtenues en classe, à travers les réussites des élèves eux-mêmes, leurs progrès, l’amélioration du climat de classe grâce à sa persévérance. Les enseignants novices se sentent alors comme étant une « personne de métier ». Cette bascule identitaire se joue donc dans le passage d’une reconnaissance « par les autres adultes » à une reconnaissance « par les élèves ».

Cette approche identitaire questionne l’accompagnement à mener auprès de ces jeunes enseignants pour actionner les bascules identitaires : encourager la prise de responsabilités, ouvrir la réflexion sur les gestes professionnels adaptés aux circonstances, autoriser des écarts à la prescription et appuyer la reconnaissance du travail mené.

Le soutien du collectif trouvé dans les écoles est en effet essentiel pour éviter l’isolement, s’approprier le métier d’enseignant et exercer dans un contexte protégé qui rassure et favorise la prise d’initiatives. Il en est de même de l’accompagnement effectué par le tuteur, véritable équilibriste devant par exemple veiller à la bonne application des textes officiels tout en favorisant l’émancipation professionnelle.

En cas de difficultés persistantes, les dispositifs locaux d’aide professionnelle individualisée constituent une aide précieuse à l’entrée dans le métier. À défaut d’attirer de nouveaux enseignants, l’effort pour éviter d’intensifier la pénurie d’enseignants porte alors sur le fait de garder les étudiants et enseignants novices motivés, en leur proposant un accompagnement renforcé pouvant se prolonger en formation continue.

Espérons que la réforme de la formation des enseignants et la création d’une licence « Professorat des écoles », avec des stages en établissement proposés dès la première année d’études, suscitent à nouveau des vocations et favorisent le façonnage identitaire !

The Conversation

Philippe Zimmermann ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Devenir enseignant : une identité professionnelle à façonner – https://theconversation.com/devenir-enseignant-une-identite-professionnelle-a-faconner-265123

Ce que nous apprend l’histoire du féminisme au Québec

Source: The Conversation – in French – By Adeline Vasquez-Parra, Maître de conférences, Université Lumière Lyon 2

Retour sur la longue histoire du féminisme québécois, sur ses figures marquantes et sur la relation entre ce mouvement, lui-même hétérogène, et diverses autres structures, qu’il s’agisse de partis politiques ou d’organisations de défense des droits des peuples autochtones.


Un sondage effectué en juillet 2025 montre que plus de 56 % de la jeune génération québécoise (18–34 ans) soutient l’indépendance du Québec. Pourtant, cette même génération se mobilise avant tout pour des luttes mondiales telles que l’écologie, la justice sociale et le féminisme. Comment comprendre ce paradoxe apparent ?

L’histoire du mouvement féministe au Québec offre une clé de lecture : elle montre comment, depuis plus d’un siècle, les luttes féministes se sont entremêlées, parfois harmonieusement, parfois plus douloureusement, avec divers projets d’émancipation politique, dont celui de la souveraineté du Québec.

Aux origines

Dès le début du XXe siècle, le féminisme québécois s’inscrit dans un double héritage : celui de l’implication des femmes dans les paroisses catholiques et celui des réseaux atlantiques. Ces réseaux comprennent des échanges et des circulations de personnes et d’idées entre l’Europe et l’Amérique du Nord depuis le XVIIIe siècle. C’est à partir de ces espaces que certaines prennent la parole et portent dans la sphère publique des questions liées aux inégalités sociales et politiques, comme l’absence de suffrage universel ou les écarts salariaux.

En 1902, la militante féministe Robertine Barry fonde le magazine bimensuel le Journal de Françoise, qui promeut les droits des femmes. Trois ans plus tard, elle participe avec une autre journaliste, Éva Circé-Côté, à la création de l’Association des femmes journalistes canadiennes françaises, qui regroupe des militantes engagées dans les combats progressistes de l’époque.

Circé-Côté publie dans le journal les Débats jusqu’à la condamnation de celui-ci par l’archevêque de Montréal en 1903, condamnation certes morale mais très influente dans la société québécoise de l’époque. Elle y défend l’accès à la culture pour les francophones privés de bibliothèques publiques, ainsi que l’éducation laïque.

Dans les décennies suivantes, le féminisme québécois s’allie avec le militantisme syndical, ce qui lui permet de toucher davantage les classes populaires.

Des militantes syndicales comme Léa Roback s’illustrent dans la grève des Midinettes de 1937, qui rassemble 5 000 ouvrières mobilisées pour de meilleures conditions de travail. Le syndicalisme féminin devient un vecteur de revendications, déjà portées par la Fédération nationale Saint-Jean-Baptiste et ses figures de proue telles que Marie Gérin-Lajoie et Caroline Dessaulles-Béique, militantes pour l’accès des femmes au marché de l’emploi et à la protection sociale.

Féminisme et souverainisme

Le mouvement se complexifie dans les années 1960, lorsque le féminisme croise l’indépendantisme et les luttes socialistes.

Le Front de libération des femmes (FLF), fondé en 1969, relie explicitement émancipation féminine et indépendance du Québec, adoptant le slogan « Pas de libération du Québec sans libération des femmes ». Il critique l’impérialisme états-unien et le capitalisme, dans lesquels il voit des sources d’exploitation économique et symbolique, et refuse toute influence linguistique ou idéologique du féminisme anglophone, qu’il soit états-unien ou canadien, lui-même accusé d’impérialisme.

La langue, pense-t-on, forge seule les concepts, impose une vision du monde et donc, trace les frontières du commun. Malgré des actions spectaculaires et la publication d’un journal, le FLF se dissout en 1971.

« Québecoises deboutte ! », brochure publiée en 1972.
Réseau québecois en études féministes

Le Centre des femmes, créé en 1971, prolonge cet héritage mais élargit ses priorités aux questions sociétales – avortement, reconnaissance économique du travail domestique – tout en diminuant la perspective nationale.

Face à l’influence du Parti québécois (PQ), formation indépendantiste fondée en 1968, qui exprime une conception conservatrice du rôle social des femmes, le mouvement féministe québécois finit par progressivement se détourner de la question nationale à la fin des années 1970. Il ne disparaît toutefois pas du paysage politique et revendique un féminisme ancré dans son contexte, attentif à l’articulation entre l’exploitation du corps des femmes et celle du territoire, problématique approfondie par la politologue Diane Lamoureux dès les années 1980.

Le féminisme autochtone

Parallèlement au développement de ce féminisme lié à la cause souverainiste (la volonté de faire du Québec un État souverain), les femmes autochtones du Québec mènent des luttes qui articulent genre, décolonisation et justice sociale.

Mary Two-Axe Earley, militante kanien’kehá :ka (mohawk), incarne cet engagement. Dans les années 1960 et 1970, elle s’attaque à l’alinéa 12(1)  b de la Loi fédérale sur les Indiens (1876), qui prive les femmes autochtones mariées à des non-Autochtones de leurs droits fonciers et communautaires, alors que les hommes transmettent leur statut sans restriction. Militante infatigable, elle parcourt le Québec et le monde pour faire entendre la voix des femmes autochtones et réclamer l’égalité des droits au sein de leurs communautés.

En 1974, Mary Two-Axe cofonde Femmes autochtones du Québec, organisation qui défend l’émancipation et les droits fonciers des femmes autochtones, tout en mettant en lumière les discriminations spécifiques qu’elles subissent, notamment le sexisme et le racisme.

Ellen Gabriel, porte-parole de la nation mohawk de Kanehsatà :ke, prolonge cette lutte jusqu’aux Nations unies en 2009, en dénonçant la continuité de politiques fédérales et provinciales qui favorisent l’exploitation des ressources naturelles par des multinationales au détriment des besoins des communautés vivant sur des terres autochtones.

Cette dénonciation renvoie à la crise d’Oka de 1990, évènement que l’on pourrait qualifier de « refoulé », tant il exerce toujours une pression latente sur la société québécoise sans être ouvertement débattu ou discuté. La crise d’Oka a opposé en 1990 la communauté mohawk de Kanehsatà :ke aux autorités québécoises et canadiennes après l’annonce de l’extension d’un terrain de golf sur un bois sacré et un cimetière ancestral. Le conflit, marqué par des confrontations tendues avec la Sûreté du Québec puis l’armée canadienne, a duré 78 jours et symbolise une première forme de résistance politique autochtone contemporaine.

Des hommes et des femmes du territoire mohawk de Tyendinaga (Ontario) bloquent le pont Skyway qui enjambe la baie de Quinte, septembre 1990.
Chris Malette/Belleville Intelligencer

Ces luttes trouvent un prolongement contemporain dans l’Enquête nationale sur les femmes et les filles autochtones disparues et assassinées, mise sur pied en 2016. Celle-ci révèle l’existence d’une violence structurelle envers les femmes autochtones, en la rattachant à l’histoire coloniale et juridique du Canada. Aujourd’hui encore, les femmes autochtones courent un risque beaucoup plus élevé d’être victimes de violences conjugales, sans que ces violences soient signalées. Les conclusions de l’enquête rappellent ainsi que les droits des femmes ne peuvent être pleinement garantis sans la reconnaissance des droits des peuples autochtones.

La perspective décoloniale

Le croisement entre luttes autochtones, féminisme décolonial et projet d’indépendance du Québec est aujourd’hui incarné par la politologue Dalie Giroux. Dans son pamphlet l’Œil du maître (2021), elle interroge les liens entre souveraineté traditionnelle, exploitation du territoire et présence des peuples autochtones au Québec. Elle propose de « décoloniser la décolonisation » québécoise en soulignant que l’émancipation de la nation francophone doit se penser en dialogue avec les luttes autochtones, antiracistes, écologiques et féministes.

Par ailleurs, pour Giroux, l’héritage historique de l’interaction entre mouvement souverainiste et féminisme demeure ambivalent car le mouvement souverainiste n’est pas toujours jugé suffisamment inclusif.

Comme le souligne la sociologue Leïla Benhadjoudja, le Québec occupe une position singulière dans l’histoire du colonialisme, car placé sous la domination de deux régimes coloniaux distincts – français, puis britannique. La conquête britannique de 1760, qui va induire un rapport colonial entre francophones dépossédés et colonisateurs anglophones, constitue en cela un traumatisme politique durable pour les habitants canadiens francophones.

Ce passé explique une discrimination spécifique de la population canadienne francophone, mais il ne saurait être mis sur un pied d’égalité avec l’expérience coloniale subie par les peuples autochtones ou l’esclavage des populations africaines.

Enfin, la philosophe Mélissa Thériault a elle aussi analysé comment appliquer une pensée décoloniale dans ce contexte francophone nord-américain complexe. Elle insiste sur la nécessité de transformer le regard intellectuel sur les rapports sociaux afin de rééquilibrer les relations entre peuples autochtones, populations colonisées et descendants des colonisateurs européens. Selon elle, une critique féministe et décoloniale située est essentielle pour comprendre l’impact des rapports de domination à l’œuvre sur le territoire québécois, lui aussi par ailleurs qualifié par certains de « victime » du « colonialisme » de l’État canadien.

Adeline Vasquez-Parra a récemment publié Histoire du Québec. Des origines à nos jours (2025).
Éditions Tallandier

Ainsi, le féminisme autochtone et décolonial du Québec s’inscrit dans une logique de justice sociale globale depuis des enjeux plus restreints. Il ne s’agit pas seulement de droits des femmes, mais de droits collectifs, de reconnaissance territoriale et de transformation des rapports de pouvoir hérités de l’histoire coloniale occidentale.

Ce cadre offre une perspective complémentaire au féminisme québécois historique, permettant (peut-être) de concevoir un féminisme québécois hybride, à la fois national, autochtone et décolonial, capable de dépasser les modèles hégémoniques actuels.

Des leçons pour aujourd’hui

Aujourd’hui, les féminismes québécois se distinguent par leur originalité : enracinés dans un combat à la fois pour la reconnaissance politique et pour une nouvelle ouverture aux voix marginalisées, notamment celles des femmes autochtones, migrantes, allophones et réfugiées.

Ce double héritage, bien que partiel et inachevé car ne constituant pas un seul et même mouvement, constitue tout de même une richesse pour comprendre les débats contemporains sur la diversité. Reconnaître cette histoire permet de mieux comprendre les tensions actuelles entre universalisme et spécificités, luttes collectives et expériences locales.

The Conversation

Adeline Vasquez-Parra ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Ce que nous apprend l’histoire du féminisme au Québec – https://theconversation.com/ce-que-nous-apprend-lhistoire-du-feminisme-au-quebec-263871

Urbaniser sans artificialiser : le potentiel caché du sous-sol

Source: The Conversation – in French – By Jean-Philippe Antoni, Professeur de géographie et d’urbanisme, Université Bourgogne Europe

La loi « visant à faciliter la mise en œuvre des objectifs de lutte
contre l’artificialisation des sols et à renforcer l’accompagnement des élus locaux » (2003) entend limiter l’artificialisation des sols d’ici 2050. Pour concilier développement urbain et sobriété foncière, l’urbanisme souterrain apparaît comme une solution intéressante. Il permet de préserver les terres agricoles et les paysages tout en intégrant infrastructures, commerces ou transports sous la surface.


Dans le cadre d’un aménagement durable lié à la lutte contre le changement climatique, la loi dite « Zéro artificialisation nette » (ZAN), adoptée en 2023, suscite de nombreux débats. Pour atteindre une sobriété foncière devenue nécessaire face à l’ampleur de l’étalement urbain, elle prévoit la fin probable de toute artificialisation d’ici 2050, c’est-à-dire l’interdiction de construire sans compensation sur des espaces qui ne sont pas déjà bâtis. La loi ZAN est de ce fait perçue par certains comme une atteinte historique à la propriété privée, mais également comme un frein à l’autonomie des communes, dont le développement économique et résidentiel serait mis sous cloche. Pour s’y préparer, de nombreux projets envisagent une requalification et une densification du bâti existant, mais rares sont ceux qui proposent de mieux exploiter le sous-sol. Or, l’urbanisme souterrain est une solution déjà ancienne dont les expériences récentes confirment l’efficacité, en particulier dans les zones les plus peuplées.

L’utilisation des sous-sols est souvent mal connue du grand public pour une raison simple qui constitue aussi son principal avantage : son invisibilité. C’est généralement seulement lors des travaux de voirie que l’on découvre dans le sous-sol un foisonnement technique très divers qui regroupe autant des réseaux d’eau, de communication et d’énergie, que des caves ou des espaces de stockage, voire des équipements de transports. La majorité, sans intérêt esthétique, y ont été enfouis pour y être cachés ou pour dégager un espace équivalent à leur volume, laissant la place en surface à des espaces ouverts ou végétalisés. Cette idée a fait l’objet de plusieurs approches théoriques qui ont montré son intérêt pour les villes d’aujourd’hui.

Un nouveau rôle pour le sous-sol

Au début du XXe siècle, l’urbaniste Eugène Hénard est parmi les premiers à imaginer des rues à étages multiples pour rationaliser l’usage du sol et rendre la ville plus salubre. Son idée repose sur le constat qu’au fil du temps, l’accumulation anarchique des réseaux dans les égouts de Paris a rendu leur fonctionnement difficile à gérer et empêche, par sa complication, toute possibilité d’évolution. Il propose alors de réserver systématiquement un espace en sous-sol pour les équipements nécessaires. Les rues seraient comme « dupliquées » : circulation des personnes et des véhicules légers en surface, réseaux techniques et transport lourd en souterrain. Cette proposition préfigure l’urbanisme de dalle, tel qu’il a par exemple été mis en œuvre dans les années 1960 à Barbican Estate (Londres) ou à la Défense (Paris), un quartier d’affaires dont l’aménagement devrait bientôt s’étendre en sous-sol.

Au milieu du XXe siècle, l’architecte Édouard Utudjian (1905-1975) a proposé une théorie de l’urbanisme souterrain plus complète, partant du principe que « les rues seront toujours trop étroites, les distances trop grandes, les constructions trop entassées, les fumées trop nombreuses ». Reste alors le sous-sol, qui apparaît selon lui comme « l’une des chances de demain ». Il y voit en effet plusieurs avantages, notamment la préservation des espaces verts en surface, le doublement des voies de circulation sans croisement, ou la protection du vent et des incendies. Il n’est évidemment pas question « d’enterrer l’habitat humain, mais seulement certains organes de la ville qui encombrent la surface de leur masse inerte », dans lesquels l’homme ne vivra que périodiquement.

La « ville souterraine » de Montréal (Québec, Canada) en 2017.
Lee Jung Tak

La ville souterraine de Montréal (Québec, Canada) concrétise aujourd’hui cette idée. Avec plus de 30 km de galeries souterraines piétonnières reliant près de 2 000 commerces et restaurants éclairés par des puits de lumière au milieu d’œuvres d’art et d’architecture remarquables, elle protège les habitants des intempéries hivernales. La lutte contre le froid et la chaleur est en effet un argument majeur pour justifier les constructions souterraines. Le climat est souvent l’une des premières motivations pour un enfouissement qui réduit les variations de température, à Montréal comme à Abou Dabi, où, pour limiter le recours à la climatisation, la ville laboratoire de Masdar City intègre des galeries et des équipements souterrains, avec à terme, un système de transport individuel et automatique innovant en sous-sol.

Ensuite, c’est la lutte contre la congestion qui justifie les projets souterrains. Le sous-sol permet d’organiser les flux de circulation, de réduire le trafic en surface, et donc la congestion qu’il génère, en augmentant le nombre de voies et en les séparant pour plus de sécurité. Bien connu dans les grandes métropoles, l’efficacité du métro réside dans l’enfouissement de tunnels en ligne droite et en site propre, qui permettent d’éviter l’encombrement et la circulation des rues pour un transport urbain parmi les plus rapides et les plus sûrs au monde.

Enfin, c’est la pénurie d’espace et la préservation des paysages qui invitent à enterrer certains bâtiments ou certaines infrastructures. Cette translation vers le sous-sol libère d’autant l’occupation du sol à l’air libre et ne laisse visible que le patrimoine architectural ou paysager qui doit être mis en valeur. À Naoshima au Japon, le musée de Chichū a par exemple été conçu en souterrain pour faciliter les jeux de lumière mettant l’art en valeur, mais aussi pour conserver une vue sur le paysage de collines environnant, faisant de la qualité du site naturel un atout revendiqué du projet.

Stratégies de sobriété souterraine

Le sous-sol apparaît donc comme une solution possible pour concilier développement urbain et sobriété foncière. La question reste de savoir ce qui pourrait être enterré, et à quelle profondeur, pour que l’ensemble reste viable et vivable. Les propositions déjà anciennes de l’aménageur québécois Daniel J. Boivin y répondent partiellement en découpant le sous-sol en trois strates selon leur accessibilité.

La première, « immédiatement sous nos pieds », est épaisse d’une dizaine de mètres et contient déjà des câbles et des conduites diverses. Elle pourrait aussi accueillir de nombreuses activités commerciales qui nécessitent peu de lumière naturelle directe (supermarchés, discothèques, cinémas, restaurants). Jusqu’à 200 mètres, la deuxième strate pourrait contenir des éléments d’industrie légère, des voies de transport et de stationnement, des entrepôts, des centres de recherche, des studios d’enregistrement ou des installations de chauffage urbain. Enfin, les grandes profondeurs (en dessous de 200 mètres) pourraient être réservées aux équipements lourds comme les centrales électriques, le stockage des déchets industriels, ou les réservoirs d’eau et d’énergie.

Par ailleurs, l’urbanisme souterrain se connecte sans difficulté majeure au système de transport urbain pour y apporter une valeur ajoutée. À Tokyo, par exemple, le développement des galeries marchandes souterraines s’est appuyé sur le métro pour capter sa clientèle, ce qui a permis de compenser directement le prix de l’investissement en sous-sol par un bénéfice commercial augmenté. On retrouve donc ici une idée bien connue des urbanistes d’aujourd’hui : le transit-oriented development (TOD). Théorisé par l’architecte américain Peter Caltorpe, le TOD vise à créer des quartiers accessibles autour des pôles de transport (gares ou stations métro/tramway) avec une haute densité bâtie, une grande mixité fonctionnelle et une déambulation piétonnière qui pourraient être largement favorisées par des projets souterrains.

La question est de savoir à quels coûts de tels projets sont envisageables. Si le montant des investissements nécessaires ne peut être estimé qu’au cas par cas, il est structurellement bien plus important que pour une construction classique. On ne peut donc envisager sa rentabilité que dans le long terme, dans le cadre de partenariats avec les acteurs publics, fondés sur une volonté politique durable de sobriété foncière. Les enjeux sont importants, notamment dans les périphéries des grandes villes sujettes à l’étalement urbain. En enfouissant autant que possible l’architecture sans fenêtres caractéristique des zones commerciales périurbaines, un urbanisme souterrain aurait l’avantage de ne plus consommer d’espaces agricoles et de ne plus nuire aux paysages des entrées de villes qui, plutôt que d’offrir une véritable vitrine aux agglomérations, sont souvent décriées pour leur hétérogénéité et leur manque d’harmonie.

Dans un contexte culturel où le monde souterrain a longtemps été associé à la peur ou à la science-fiction, il reste également à savoir comment de tels projets peuvent être perçus en termes d’ambiance et de confort. Mais c’est d’ores et déjà une question que les usagers du métro ne se posent plus vraiment, et les projets existants montrent par leur fréquentation que le sous-sol peut être exploité à son avantage dans des espaces valorisés par l’éclairage indirect. Il est fort probable que l’acceptabilité de projets de plus grande échelle réside dans un traitement architectural réussi, qui organise avec harmonie la transition entre la surface et le sous-sol. Urbaniser en souterrain n’est donc pas seulement un enjeu pour l’environnement et pour le le climat. C’est aussi un défi pour les architectes de demain.

The Conversation

Jean-Philippe Antoni a reçu des financements de l’Agence de la transition écologique (ADEME) et de l’Agence nationale de la recherche (ANR).

ref. Urbaniser sans artificialiser : le potentiel caché du sous-sol – https://theconversation.com/urbaniser-sans-artificialiser-le-potentiel-cache-du-sous-sol-263367

La new romance, un genre littéraire en ligne devenu phénomène de librairie

Source: The Conversation – in French – By Adeline Florimond-Clerc, Maître de conférences en sciences de l’information et de la communication, Université de Lorraine

À 28 ans, la Française Morgane Moncomble est une des stars du phénomène new romance. Capture d’écran/Youtube

Loin d’être un épiphénomène éditorial, la new romance s’installe dans le paysage éditorial grâce à sa capacité à conjuguer les pratiques numériques et l’édition papier. Elle correspond aussi à une redéfinition du lien qui s’instaure entre les autrices et leurs lectrices.


Le festival Le Livre sur la place, à Nancy (Meurthe-et-Moselle), fait partie des salons qui marquent la rentrée littéraire. La foule se presse pour voir les livres et les auteurs. Cette année (comme l’année précédente), dès l’ouverture du samedi matin, une longue file s’est formée. Il ne s’agissait pas de rencontrer un des habitués de la rentrée littéraire ou une vedette de la télé, mais Lyly Bay et C. S. Quill, autrices de new romance publiées chez Hugo Publishing. Lyly Bay aurait totalisé au moins 300 ventes dans la journée…

Naissance d’un genre littéraire en ligne

La new romance, idiome entré dans le langage courant par l’intermédiaire de la maison d’édition Hugo Publishing qui en a fait une marque déposée en 2014, est le fruit d’un héritage de la littérature sentimentale, du young et du new adult.

Trois grandes caractéristiques permettent de comprendre ce qu’il y a de nouveau dans ces romances contemporaines. La première est liée à son mode d’émergence : de nombreuses autrices ont débuté sur des plateformes d’écriture en ligne. La deuxième concerne la structure narrative. Il ne s’agit pas seulement d’une histoire d’amour autour d’un couple central qui se rencontre, connaît une disjonction, puis une conjonction finale, mais des « tropes » (stéréotypes narratifs) bien identifiables permettant aux lectrices d’orienter facilement leur choix de lecture (par exemple : enemies-to-lovers : récit où les personnages commencent par se détester pour ensuite tomber amoureux). La troisième caractéristique est liée au contenu même des récits. la new romance traite de sujets en lien avec les préoccupations contemporaines qui font écho à celles du lectorat : passage à l’âge adulte, concilier vie de famille et vie professionnelle, mise en avant du consentement comme condition nécessaire, plaisir féminin…

Ces caractéristiques expliquent en partie la nature du lectorat. Genre majoritairement écrit par des femmes, la new romance est aussi massivement lue par elles et notamment par de jeunes lectrices.

Nous l’avons vu, une des particularités de ce genre littéraire qui connaît de nombreuses déclinaisons (on parle de « romantasy », de « dark romance », de romance policière, de romance psychologique…) tient à son mode d’apparition en ligne. Les premiers succès du genre viennent des plateformes d’écriture collaborative.

After, d’Anna Todd, qui est souvent identifié comme le livre ayant contribué à la naissance de la new romance, est par exemple le fruit d’une fanfiction écrite sur Wattpad (un média social où les utilisateurs inscrits peuvent publier et partager récits, poèmes, fanfictions, romans fantastiques, d’amour, policiers, nouvelles et articles en tout genre). D’autres plateformes existent, dont Fyctia, créée en 2015 par Hugo Publishing (leader éditorial sur le marché de la new romance), qui fonctionne par voie de concours et multiplie les outils de discussion entre éditeur, auteur et lecteur.

Ces plateformes d’écriture collaborative permettent des interactions de natures différentes entre les autrices et leurs lectrices, lesquelles peuvent commenter, apprécier, voire orienter l’écriture en train de se faire. À ces plateformes s’ajoutent d’autres espaces numériques – tels que TikTok ou Instagram – qui structurent de véritables communautés en ligne et de recommandation où se décide et se construit une partie des succès en librairie.

La new romance correspond à un remaniement de la chaîne du livre à l’heure du numérique. Elle participe à inscrire le livre dans un ordre renouvelé par les outils qui l’entourent. Le succès qu’elle reçoit montre que la lecture sait rester vivante quand on s’adresse aux lecteurs (ici, lectrices) en partant de leur rapport au monde.

Du numérique à l’édition papier : le rapport à l’objet livre

Le livre est à la fois un bien physique et symbolique. Si la new romance trouve ses racines en ligne, cela n’empêche pas son passage à l’édition traditionnelle. Bien au contraire : l’imprimé suscite un véritable engouement. L’édition papier, en plus de matérialiser l’histoire parfois déjà lue sur l’écran, offre un plaisir différent. Non seulement ces livres publiés se distinguent des versions numériques par l’importance du travail éditorial entrepris (ils comportent de très nombreuses reprises et réécritures), mais ils bénéficient d’un soin particulier apporté à leurs caractéristiques matérielles.

Outre les couvertures, souvent dessinées, les livres de new romance peuvent se voir ornementés de jaspage, ressortir en « éditions collectors ». Le roman devient alors un objet de collection, que l’on photographie, que l’on range soigneusement en composant des mosaïques selon la couleur des tranches, que l’on expose fièrement. Les influenceuses littéraires entretiennent cette mise en scène de l’objet livre, à l’image de l’influenceuse littéraire Victoire @nous_les_lecteurs (compte TikTok de plus de 220 000 abonnés). On les voit dévoiler les livres à la manière de l’unboxing (ces vidéos publiées sur le Web, dans lesquelles des personnes se filment en train de déballer les produits achetés qu’elles viennent de recevoir).

Sur le compte Instagram de @lamaquilleusebooktok, une vidéo façon « unboxing ».
@lamaquilleusebooktok, sur Instagram

Ce soin éditorial participe au succès du genre, que la presse qualifie de « véritable filon d’or pour l’édition ». Les prix reflètent cette valorisation : environ 20 euros pour les grands formats, plus de 25 euros pour les éditions collector (généralement reliées). Un achat conséquent pour le cœur de cible, permis pour une partie des lectrices par la généralisation du Pass culture à l’ensemble des 15-18 ans. En effet, en 2024, celui-ci représentait 22 % des ventes de romance.

Le succès se mesure aussi à l’ouverture de librairies spécialisées dans la romance un peu partout en France. Et il s’inscrit dans la durée : les nouveautés ne chassent pas les anciennes. Des titres comme Captive (2020), de l’Algérienne Sarah Rivens, ou Hadès & Perséphone (2022) de l’Américaine Scarlett St. Clair, parus depuis plusieurs années, continuent d’occuper les meilleures places dans les rayons.

Au-delà du nombre de ventes, les lectrices de new romance sont souvent de grandes lectrices, que le nombre de pages (avoisinant souvent les 600) n’effraie pas. Comme le montre l’enquête de réception réalisée par Babelio qui parle de public « bibliophage ».

Lire, acheter, collectionner… le tableau ne serait pas complet sans évoquer l’importance du geste dédicatoire. Une fois dédicacé, le livre change de statut et porte en lui une charge émotionnelle forte. En séances de dédicace, certaines lectrices font la queue alourdies de plusieurs livres, parfois achetés en double, l’un pour la lecture et l’autre pour la dédicace. « Faire dédicacer » son exemplaire, c’est le faire entrer dans le domaine de l’unicité, voire de la sacralité. Celui-ci fait ensuite l’objet d’un usage propre, celui d’être conservé précieusement chez soi (caractère précieux accru par le temps passé à attendre que son tour arrive en festivals et salons du livre).

Des autrices de chair et d’os

Comme nous l’avons déjà analysé, la rencontre physique avec un auteur à l’occasion d’un festival ou d’un salon du livre modifie l’image que l’on se fait d’un auteur et bouleverse le rapport qu’un lecteur entretient avec lui. C’est aussi la redéfinition de la posture auctoriale qui est en jeu, dans un effet de surexposition publique. Celle qu’on suit sur les réseaux est là physiquement, devant nous dans les différents événements, tels que les salons. Elle est incarnée par le livre et elle incarne le livre. Elle forme, à l’instar de Lyly Bay (une des autrices phares de chez Hugo pour cette rentrée littéraire), le trait d’union entre le livre physique, les échanges numériques et la lectrice.

Cette rencontre physique modifie la nature des rapports entre lectrices et autrices. La proximité autrice/lectrice est déjà entretenue par les différentes formes d’interaction rendues possibles à travers le numérique (plateformes d’écriture collaborative et réseaux sociaux de l’autrice). La rencontre physique est un degré supplémentaire dans la proximité (proximité illusoire et volontairement entretenue à des fins marketing aussi) entre autrice et lectrice. Illusion de la proximité, de l’accessibilité qui s’accroît avec le tutoiement, les embrassades, les selfies, les signes de complicité entre autrices et lectrices (un petit cœur fait avec les doigts de la main de Lyly Bay adressé à une lectrice âgée de 14 ans en pleine table ronde au Livre sur la Place).

Ce n’est pas nouveau. Les opportunités de rencontres avec un auteur sont aujourd’hui nombreuses : dans les sphères médiatiques, numériques et physiques. En conséquence, la frontière est de plus en plus ténue entre le moi social et le moi profond de l’auteur. C’est le dilemme de « l’auteur moderne » pour reprendre une expression d’Alain Vaillant.

Toutefois, la new romance – parce qu’elle entretient fortement ces moments de rencontre, parce que les thèmes intimes traités invitent à l’épanchement personnel, parce que les jeunes filles (cœur de cible) y voient un miroir de leurs préoccupations, de ce qu’elles vivent ou de ce qu’elles pourraient vivre (processus d’identification) – est un genre littéraire qui peut conduire à des situations inconfortables. Par exemple, une autrice à succès nous confiait regretter ne pas avoir suivi une formation en mediatraining pour savoir comment fermer la porte, en douceur, à un flot de témoignages parfois très douloureux qu’elle ne souhaite pas recueillir.

Ce goût pour la matérialité du livre et cette appétence pour la rencontre contribuent tous deux à l’identité du genre : ils transforment des textes initialement diffusés gratuitement en ligne en objets culturels valorisés et désirés dans tous les sens du terme. Par-delà sa forme physique ou numérique et bien plus qu’un simple objet de consommation, la new romance se partage, se montre, se collectionne et invite à la confidence.


Adeline Florimond-Clerc et Louis Gabrysiak viennent de publier New Romance. Anatomie d’un phénomène éditorial, aux éditions de l’Université de Lorraine, Nancy, 2025.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. La new romance, un genre littéraire en ligne devenu phénomène de librairie – https://theconversation.com/la-new-romance-un-genre-litteraire-en-ligne-devenu-phenomene-de-librairie-265407

Comment adapter nos régimes de retraite à la nouvelle longévité

Source: The Conversation – in French – By François L’Italien, Professeur associé, sociologie, Université Laval

Les régimes de retraite actuels pourraient être insuffisants pour la prochaine génération. (Phyllis Lilienthal, Unsplash), CC BY-SA

Le vieillissement de la population québécoise et canadienne, combiné à l’allongement de l’espérance de vie, représente un véritable défi pour nos régimes de retraite.

Les retraités actuels et futurs courent le risque de voir certaines de leurs sources de revenus diminuer, ou, dans le meilleur des cas, stagner.

L’espérance de vie a beaucoup augmenté, atteignant 86 ans en 2021 pour les personnes atteignant l’âge de 65 ans, contre 78 ans en 1927, selon une étude de Retraite Québec.

En tant que coordonnateur de l’Observatoire de la retraite, je suis préoccupé par le déclin des régimes à prestations déterminées (RPD), car cela fragilise les revenus des futurs retraités. Les régimes à prestations déterminées versent des rentes pour toute la vie des retraités, jusqu’au décès.


Cet article fait partie de notre série La Révolution grise. La Conversation vous propose d’analyser sous toutes ses facettes l’impact du vieillissement de l’imposante cohorte des boomers sur notre société, qu’ils transforment depuis leur venue au monde. Manières de se loger, de travailler, de consommer la culture, de s’alimenter, de voyager, de se soigner, de vivre… découvrez avec nous les bouleversements en cours, et à venir.


Le système de retraite

Il faut voir le système de retraite comme une maison à trois ou à quatre étages. Au Québec, les deux premiers étages représentent le programme de la Sécurité de la vieillesse et le Régime de rentes du Québec. Ces deux régimes permettent au retraité de recevoir des rentes jusqu’à son décès. Ces rentes sont garanties et indexées chaque année en fonction de l’Indice des prix à la consommation.

Quant au troisième étage, il renferme différents types de régimes.

Outre les produits d’épargne individuels, comme les Régimes enregistrés d’épargne-retraite (REÉR) ou les Comptes d’épargne libre d’impôts (CÉLI), les régimes collectifs sont présents dans certains milieux de travail afin que les personnes salariées puissent cotiser et, à leur retraite, jouir d’un revenu de retraite. Les deux grandes familles de régimes collectifs sont les régimes à cotisations déterminées (RCD) et les régimes à prestations déterminées (RPD).

Les produits d’épargne individuelle et certains régimes d’employeurs, comme les RCD, permettent aux personnes salariées d’accumuler un capital qui sera décaissé durant la retraite. Le décaissement se fait avec des produits offerts par les compagnies d’assurance ou les institutions financières privées. Les individus sont responsables de leur patrimoine, doivent gérer leur argent et assumer les risques de manière individuelle.

Mais il faut savoir qu’environ la moitié des personnes qui travaillent ne bénéficient pas d’un régime de retraite collectif, ni d’un REÉR.

Le remplacement des RPD par les RCD

Le problème, depuis quelques décennies, est la diminution de la proportion de personnes travaillant dans le secteur privé qui sont couvertes par des RPD. Cela fait en sorte que davantage de personnes salariées doivent se fier sur l’épargne individuelle ou des RCD pour financer leur retraite. Ces personnes sont donc financièrement vulnérables et doivent assumer les risques liés au décaissement de leur épargne, comme celui qu’il n’y ait pas suffisamment d’argent jusqu’à la fin de leurs jours.

Avec l’allongement de l’espérance de vie, les personnes nouvellement retraitées doivent planifier le décaissement de leur patrimoine issu de l’épargne individuelle ou des rentes de cotisations déterminées sur une plus longue période de temps.

Allongement de l’espérance de vie et décaissement

Quels peuvent être les impacts de cette situation ? Avec un décaissement réparti sur une plus longue période de temps, les montants mensuels pouvant être versés sont plus faibles. Par exemple, pour un même niveau de patrimoine (par exemple 400 000 $), les montants mensuels versés sur 15 ans peuvent être supérieurs à ceux versés sur un horizon de 25 ans.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Les personnes retraitées pourraient par ailleurs vivre plus longtemps que la période prévue de décaissement, avec pour résultat que certaines sources de revenus se tariront ou diminueront fortement. Des difficultés financières peuvent ainsi apparaître à la fin de la vie, et des décisions difficiles pourraient devoir être prises alors que les capacités cognitives des personnes retraitées déclinent.

Une idée pour les RCD

Des actions ont déjà été entreprises par les organismes de contrôle et de supervision en matière de retraite pour faire bénéficier de rentes à vie les participants à des RCD. Le projet de loi no 80 préparé par Retraite Québec et adopté en 2024 permet aux RCD de mettre en place des modalités de décaissement versant des rentes pour toute la vie de la personne retraitée.

Cette année-là, le Québec a emboîté le pas au gouvernement fédéral en légiférant pour que les RCD puissent verser des rentes à vie.

L’une des limites de ces régimes qui offrent des rentes versées à vie est que la petite taille de l’actif du régime ne permettra pas de faire diminuer les frais de gestion. De manière générale, plus l’actif à gérer est important, plus ils diminuent.

Nous pourrions aller plus loin. Le Royaume-Uni, par exemple, a mis en place le National Employment Savings Trust (NEST) en 2012 afin de recueillir et de gérer les cotisations des personnes salariées n’ayant pas de régime de retraite offert dans leurs milieux de travail. Les salariés et les employeurs y versent les cotisations. Les frais de gestion du NEST sont de 1,8 % pour les cotisations et de 0,3 % de l’actif sous gestion.

L’intérêt pour ce type de formule publique dans un contexte d’allongement d’espérance de vie est que les frais de gestion sont, de manière générale, plus faibles que dans le secteur privé.

Le patrimoine accumulé dans cet organisme grâce aux cotisations peut être retiré graduellement pour toute la vie, tout en permettant de sortir de l’argent dans les cas d’urgence. Il s’agit d’une approche plus structurante dont le Québec et les provinces canadiennes pourraient s’inspirer pour améliorer les modalités de décaissement des régimes à cotisations déterminées.

Une idée pour les régimes publics

Les régimes publics du Québec et du Canada (le premier et le deuxième étage du SRR) versent des rentes indexées selon l’Indice des prix à la consommation. Cependant, d’autres méthodes d’indexation existent ailleurs dans le monde. Par exemple, certains pays indexent les rentes des régimes publics en fonction des salaires ou du coût de la vie.

Plusieurs organismes ont déjà proposé que les rentes des régimes publics canadiens et québécois soient indexées en fonction de la hausse du salaire moyen plutôt que de l’Indice des prix à la consommation. Cela ferait en sorte que les rentes augmenteraient plus rapidement, puisque les salaires augmentent plus rapidement que l’inflation.

Une méthode d’indexation plus avantageuse pour les personnes retraitées est celle utilisée au Royaume-Uni. Elle consiste à indexer les rentes du plus élevé de ces facteurs : les prix à la consommation, les salaires ou 2,5 %. Elle a été surnommée Triple Lock.

Selon cette méthode d’indexation appliquée au Régime de rentes du Québec, calculée par l’institut de recherche et d’informations socioéconomiques, les rentes du RRQ auraient augmenté plus rapidement avec la méthode d’indexation du Royaume-Uni que de celle du Canada.

Des solutions existent donc afin de bonifier les modalités de décaissement des régimes à cotisations déterminées, ainsi que la méthode d’indexation des régimes publics.


Je remercie Riel Michaud-Beaudry, chercheur de l’Observatoire, pour sa relecture et ses commentaires.

La Conversation Canada

François L’Italien est coordonnateur de l’Observatoire de la retraite directeur adjoint de l’Institut de recherche en économie contemporaine (IREC). Le financement de l’Observatoire de la retraite et de l’IREC provient d’organismes variés comme des associations de retraités ou de travailleurs et de Fonds de travailleurs.

ref. Comment adapter nos régimes de retraite à la nouvelle longévité – https://theconversation.com/comment-adapter-nos-regimes-de-retraite-a-la-nouvelle-longevite-250342

Comment généraliser le bio sans augmenter les importations ?

Source: The Conversation – France (in French) – By Michel Duru, Directeur de recherche honoraire, UMR AGIR (Agroécologie, innovations et territoires), Inrae

Les mangeurs bio étant moins exposés aux pesticides, il s’en suit une réduction du risque de développer des maladies chroniques non-transmissibles via l’alimentation. C’est particulièrement démontré pour le cancer du sein chez la femme ménopausée. Elina Mark, CC BY

Une agriculture française 100 % bio serait meilleure pour notre santé et celle de l’environnement. On pourrait arriver à cette généralisation du bio si l’on réduisait notre consommation de viande. Ce qui aurait également des effets bénéfiques pour notre santé.


Pour notre santé comme pour celle des écosystèmes, l’agriculture biologique apporte des bienfaits qui ne sont plus à prouver. Ses détracteurs aiment cependant dire qu’il serait impossible de la généraliser, car sa production par hectare étant souvent moindre, notre dépendance aux importations s’accroîtrait, assurent-ils.

C’est une vision parcellaire de notre système alimentaire. En effet, des études observationnelles, tout comme des scénarios de systèmes alimentaires, montrent qu’une généralisation de l’agriculture biologique serait possible si l’on réduisait en même temps notre consommation de produits animaux. Cela permettrait, d’une part, de libérer des terres arables pouvant compenser ces rendements moindres et, d’autre part, de produire ce dont notre alimentation manque cruellement pour notre santé et que, de plus, nous importons : fruits, légumes et légumineuses. Notre santé comme notre environnement s’en porteraient mieux.

Santé et environnement : des enjeux cruciaux et interdépendants

Commençons par un constat : notre système alimentaire actuel est fort coûteux. Il présente notamment une série de dépenses bien souvent invisibles pour le consommateur. On parle de coûts cachés. Il s’agit des dépenses faites ou qu’il faudrait faire pour corriger les conséquences sanitaires et environnementales de pratiques inadaptées comme :

  • l’utilisation excessive d’engrais azotés et de pesticides de synthèse, qui rendent la France très dépendante des importations et qui, du moins pour ce qui concerne la plupart des pesticides, sont nocifs pour la santé humaine et celle de l’environnement ;

  • la surconsommation de produits ultra-transformés et de produits animaux, en particulier de viande rouge et de charcuterie, qui contribuent au développement de maladies chroniques ;

  • le développement d’élevages très intensifs en intrants, souvent concentrés géographiquement, nécessitant beaucoup d’achats d’aliments pour nourrir les animaux, avec comme conséquences des nuisances graves sur les écosystèmes, comme le montre, par exemple, le problème des algues vertes en Bretagne.

Mises bout à bout, toutes ces dépenses équivalent presque aujourd’hui au prix total des denrées alimentaires consommées en France, soit 170 milliards d’euros.

La bonne nouvelle, c’est que l’agriculture et l’alimentation bio permettraient de réduire ces dépenses, car elles n’utilisent pas d’intrants de synthèse, sont plus exigeantes pour les modes d’élevage et plus restrictives quant aux additifs autorisés dans la fabrication des aliments. En outre, le bio comporte de nombreux bienfaits qui plaident en faveur de sa généralisation.

Meilleure pour la santé

L’alimentation bio est, avant tout, meilleure pour la santé. Ainsi, les produits biologiques ont en moyenne des teneurs un peu supérieures en micronutriments d’intérêt pour la santé, notamment des antioxydants, mais leur atout principal est de contenir bien moins de résidus de pesticides, à l’exception du spinosad, un insecticide naturel. Les mangeurs bio étant moins exposés aux pesticides, il s’en suit une réduction du risque de développer des maladies chroniques non transmissibles par l’alimentation, comme l’ont montré des études épidémiologiques et quelques études cliniques. C’est particulièrement démontré pour le cancer du sein chez la femme ménopausée.

Des effets contrastés sur l’environnement

L’agriculture bio a également nombre d’atouts pour le sol et pour la biodiversité qui sont bien documentés. En élevage, les vaches utilisent peu de terres labourables et elles pâturent dès que les conditions le permettent, si bien que leur alimentation entre peu en compétition avec la nôtre. Les achats de fourrages et de compléments sont également limités.

Les élevages de porcs et de volailles ont une moindre densité d’animaux par mètre carré et ont accès à des parcours, ce qui est mieux pour le bien-être animal. La plus faible densité d’animaux permet aussi d’utiliser les fumiers avec moins de risque de pollution, car plus d’hectares sont disponibles pour leur épandage. Toutes ces caractéristiques font qu’on parle d’élevage « avec lien au sol ».

Les émissions de gaz à effet de serre qui contribuent au réchauffement climatique, bien que très variables selon les études, sont, lorsqu’exprimées par kilogramme de produit, en moyenne un peu plus élevées en bio si les rendements des cultures sont plus faibles et les temps d’élevage sont plus longs. Il en est de même des pertes de nitrates à l’origine, par exemple du problème des algues vertes en Bretagne. Un autre point négatif parfois pointé est celui du cuivre et du soufre qu’utilisent certains vignerons ou maraîchers bio pour lutter contre les maladies et qui ne sont pas sans impact sur les sols.

Mais la principale faiblesse de l’agriculture bio provient des rendements de cultures moindres qu’en agriculture conventionnelle d’environ 25 % en moyenne ; les différences les plus fortes étant observées pour les céréales et pour les pommes de terre (jusqu’à 35 %) et les plus faibles pour le tournesol, pour les fruits et légumes (20 %). Pour les productions animales, les différences moyennes sont de 15 %.

De façon générale, il faut plus de surfaces pour obtenir une même quantité de produits. C’est d’ailleurs la raison pour laquelle il a été montré par modélisation au Royaume-Uni qu’une généralisation de l’alimentation bio n’est pas possible.

En France, une agriculture totalement bio est encore loin d’advenir, vu que l’agriculture conventionnelle représente aujourd’hui 90 % des terres agricoles et qu’elle reste à l’origine de 94 % des dépenses alimentaires des ménages.

De ce fait, cela peut sembler ironique quand on entend les craintes de dépendance aux importations que soulèvent les sceptiques du bio, car l’agriculture française est déjà aujourd’hui très dépendante des produits importés, avec 2 millions de tonnes d’engrais azotés de synthèse et 3,5 millions de tonnes de tourteaux de soja pour l’agriculture conventionnelle, auxquels il faut ajouter l’équivalent de 680 000 hectares de fruits et légumes.

D’où la question : est-il possible de consommer plus de produits bio, globalement bénéfiques pour la santé et pour l’environnement, malgré des productions agricoles plus faibles ?

Diminuer la viande dans l’assiette pour généraliser le bio

La réponse est oui, si l’on diminue notre consommation de produits animaux, et donc la surface agricole réservée à l’élevage pour en consacrer plus aux productions végétales. Pour évaluer quelle diminution serait bénéfique à la fois pour la santé et pour l’environnement, commençons par regarder quelles sont les recommandations sur la part de protéines végétales et animales que l’on devrait avoir dans notre alimentation.

Notre consommation moyenne de protéines totales (1,4 g/jour de protéines par kilogramme de poids corporel) excède aujourd’hui les recommandations d’environ 30 % et les besoins de 70 % (0,83 g/jour de protéines par kilogramme de poids corporel). Un régime plus végétalisé demeure meilleur pour la santé. Il serait même possible d’utiliser jusqu’à 80 % de protéines végétales tout en assurant nos besoins en micronutriments essentiels, comme la vitamine B12, pour apporter suffisamment de protéines, à condition d’associer des céréales aux légumineuses de façon à avoir un apport équilibré en acides aminés.

Ces données scientifiques permettent de définir un ordre de grandeur pour une baisse sans risque de la consommation de produits carnés, qui serait de l’ordre de 50 % en moyenne pour respecter les limites planétaires, notamment pour le climat et pour l’azote, sans augmenter la dépendance aux importations.

Moins manger de viande n’est d’ailleurs pas aberrant du tout d’un point de vue historique, car, si certains associent un régime très carné à des traditions culturelles, les Français mangeaient en réalité moitié moins de viande il y a cent ans.

Les produits laitiers sont également surconsommés aujourd’hui, au regard des recommandations nutritionnelles, avec une consommation moyenne de 70 grammes de fromage par jour lorsqu’il est conseillé de ne pas dépasser 40 grammes.

Une alimentation plus bio est donc possible en végétalisant l’assiette, car diminuer la consommation de produits animaux réduirait bien plus la surface pour se nourrir que la généralisation d’une alimentation bio ne l’augmenterait.

Ainsi, réduire la consommation de produits animaux permet de diviser par deux cette surface (de 8,3 m²/jour pour ceux qui mangent moins de 50 grammes de viande par jour à 16,8 m²/j pour ceux qui en mangent plus de 100 grammes par jour), alors que consommer bio ne l’augmenterait que de 30 %. De cette façon, il serait possible de libérer au moins 4 millions d’hectares de cultures utilisées par l’élevage et de les affecter à des productions végétales cultivées en bio, compensant ainsi des rendements inférieurs, notamment pour les céréales.

Quel type d’élevage favoriser ?

Reste la question de savoir quels types d’élevage il faudrait en priorité diminuer et ceux qui, au contraire, sont à favoriser.

Les élevages de ruminants (bovins, ovins) à soutenir sont ceux où l’alimentation des animaux provient principalement des prairies pâturées ou récoltées. De tels élevages sont plus faciles à mettre en œuvre en bio. Ils sont meilleurs pour l’environnement car ils génèrent moins de pollutions azotées et utilisent bien moins ou pas de pesticides. En outre, le lait et la viande sont plus riches en acides gras insaturés à fonction anti-inflammatoire.

En conséquence, la réduction des productions animales devrait surtout concerner les élevages les plus intensifs en intrants de synthèse, et/ou concentrés géographiquement, qui utilisent le plus de terres labourables et sont le plus dépendants d’importations de concentrés (soja) pour l’alimentation des animaux. Une partie des terres labourables – 3,8 millions d’hectares pour l’élevage des ruminants et 3,9 millions d’hectares pour les porcs et les volailles – serait alors utilisée pour des productions végétales en bio.

Les scénarios conçus à l’échelle de l’Union européenne et de la France montrent que la mise en œuvre de pratiques agroécologiques ne permet pas à elle seule d’atteindre les objectifs de politiques publiques en matière de climat et d’émissions d’azote. Cela nécessite donc de végétaliser l’assiette, en complément du développement massif des légumineuses, qui ont l’immense intérêt de ne pas exiger d’apport en engrais azotés, de réduire de moitié le gaspillage alimentaire, et de recycler une partie de nos urines naturellement riches en azote. En effet, un point faible de l’agriculture biologique est souvent le manque d’azote, nécessaire à la croissance des plantes.

La bio étant une forme emblématique, mais perfectible, de l’agroécologie, le progrès des connaissances pour développer une agriculture, dite biorégénératrice, fondée sur les processus écologiques permettrait de réduire les différences de production avec l’agriculture conventionnelle. Cela suppose d’activer de nombreux leviers agronomiques : la diversification végétale, les pratiques améliorant la santé du sol ainsi que des modes d’alimentation des animaux fondés sur l’herbe pour les ruminants et sur la complémentation en lin pour les monogastriques.

Ignorant ces données scientifiques quant à nos besoins en protéines animales et leurs impacts sur l’environnement, le débat sur le bio est souvent mal posé.

The Conversation

Membre du Conseil scientifique de PADV (Pour une Agriculture du Vivant)

ref. Comment généraliser le bio sans augmenter les importations ? – https://theconversation.com/comment-generaliser-le-bio-sans-augmenter-les-importations-263394

À l’ONU, Donald Trump redessine l’exceptionnalisme américain à son image

Source: The Conversation – in French – By Vincent Bricart, Doctorant au Center for International Relation Studies de l’Université de Liège. Spécialisé dans l’étude des relations transatlantiques EU-USA et dans la politique étrangère des Etats-Unis., Université de Liège

Les prédécesseurs de Donald Trump ont tous assumé, chacun à sa façon, la notion d’« exceptionnalisme américain ». Lors de son discours prononcé à l’ONU, le 24 septembre dernier, le locataire actuel de la Maison Blanche a présenté une vision très différente de ce concept, ancrant la politique étrangère conduite par Washington dans les principes de nationalisme et de souverainisme, et y ajoutant une forte composante personnelle. De l’exceptionnalisme américain, on semble être passés à un « exceptionnalisme trumpien ».


Mercredi 24 septembre 2025, Donald Trump a pris la parole devant l’Assemblée générale des Nations unies (AGNU) pour la première fois depuis sa réélection. D’une durée d’un peu moins d’une heure, cette intervention a marqué les esprits autant par sa forme – un langage singulier pour un discours adressé à ses pairs internationaux – que par le fond du message. Trump y a vanté son bilan et défendu sa vision de l’Amérique (c’est-à-dire, des États-Unis) sur la scène mondiale, s’en prenant largement au passage à l’institution onusienne, aux politiques migratoires et environnementales de l’Union européenne, au bilan de son prédécesseur Joe Biden, ou encore à certaines figures étrangères comme le maire de Londres Sadiq Khan et le président du Brésil Lula.

Plus qu’une simple série de règlements de comptes, le discours de Trump visait surtout à exposer les succès de son Amérique et à affirmer l’avènement d’un nouveau modèle américain, marqué par une forme d’exceptionnalisme proprement trumpien : une Amérique illibérale, centrée sur le leadership personnel du président, en rupture avec la conception traditionnelle du rôle des États-Unis dans le monde.

Retour sur l’exceptionnalisme et le modèle américains post-guerre froide

Pour comprendre la rupture que constitue ce discours, il faut d’abord comprendre ce que sont l’« exceptionnalisme américain » et le modèle qui en découle.

L’exceptionnalisme américain repose sur trois postulats ou croyances constitutifs de l’identité nationale états-unienne. D’une part, les États-Unis se perçoivent comme une société distincte des autres dans l’histoire, car investie d’un destin singulier : la « destinée manifeste ». D’autre part, leur organisation politique, leurs institutions, leur démocratie et la liberté individuelle qui en résulte sont considérées comme supérieures à celles des autres pays du monde. Enfin, prévaut la conviction que l’Amérique constitue une référence, un modèle à diffuser – par l’exemple ou par l’action – à l’ensemble de l’humanité.

Ces idées sont profondément ancrées aussi bien dans une partie de la population que dans la grande majorité de la classe politique américaine. La notion d’exceptionnalisme américain se trouve ainsi au cœur de l’identité nationale des États-Unis. Elle repose non pas sur une histoire ou un peuple homogène, mais sur un patrimoine de valeurs partagées (liberté, autodétermination, destin unique) qui sert de mythe fondateur et de refuge en période de crise. Portant une dimension religieuse et émotionnelle, elle agit comme un ciment fédérateur pour les citoyens.

American Progress (1872), du peintre états-unien John Gast (1842-1896), illustrant la destinée manifeste des États-Unis.
Wikimedia

Dans le domaine de la politique étrangère, l’exceptionnalisme sert d’outil de légitimation et de justification. Deux grandes doctrines s’en dégagent : une approche messianique, visant à exporter le modèle américain à l’échelle mondiale, par la persuasion ou par la force ; et une approche exemplaire, qui consiste à laisser ce modèle rayonner et inspirer sans chercher à l’imposer.

Sa souplesse en fait un concept en constante évolution, que les dirigeants du pays adaptent selon leurs besoins pour affirmer leur vision du leadership et du rôle des États-Unis dans le monde. Le locataire de la Maison Blanche occupe une place décisive dans ce processus. En tant que commandant en chef des armées et de la garde nationale et principal porte-parole du pays, il façonne la doctrine de politique étrangère et incarne les valeurs de l’exceptionnalisme. Ses discours sont des instruments privilégiés pour reformuler et actualiser ce récit, en fonction de sa propre lecture du contexte international et de ses objectifs politiques. À travers ses allocutions, il construit une stratégie narrative qui lie les valeurs américaines à l’affirmation de la puissance et au maintien du leadership mondial.

Depuis la fin de la guerre froide, l’exceptionnalisme américain et le modèle qu’il promeut dans les instances internationales, notamment à l’AGNU, ont évolué dans leurs modalités.

Dans les années 1990, sous George H. W. Bush et Bill Clinton, Washington a cherché à orienter le système multilatéral tout en multipliant les interventions militaires dites « humanitaires » : première guerre du Golfe en 1990-1991, opération Restore Hope en Somalie en 1992-1993, participation aux frappes de l’Otan contre les forces serbes en Bosnie en 1995 et en Serbie en 1999, pour n’en citer que quelques-unes. Les États-Unis se posaient alors comme « puissance indispensable », garante de la stabilité mondiale, promouvant un exemple cosmopolite et multilatéraliste.

Au début des années 2000, George W. Bush a durci cette posture. Inspirée par les néoconservateurs et le traumatisme du 11-Septembre, son administration a adopté une politique messianique, interventionniste, fondée sur la supériorité morale et militaire des États-Unis. Le recours à la force fut justifié par l’indispensable « démocratisation » du Moyen-Orient et la lutte contre les « États voyous ». Ces interventions – en particulier la guerre en Irak, illégale au regard du droit international car non autorisée par le Conseil de sécurité – ainsi que les propos et la vision très critique de l’administration Bush (la plus hostile envers l’ONU jusqu’à l’arrivée de Donald Trump) à l’égard du multilatéralisme ont considérablement fragilisé la crédibilité du modèle américain promu à l’international.

L’Amérique des néoconservateurs, documentaire de Georges Nizan et Michel Rivlin (2004).

À partir de 2009, Barack Obama a cherché à redéfinir cette notion d’exceptionnalisme : tout en affirmant la singularité du modèle américain, il a privilégié l’exemplarité interne et le multilatéralisme, rejetant le messianisme guerrier de ses prédécesseurs. Son approche relevait d’un leadership se voulant adapté à une ère « post-américaine » dans laquelle les États-Unis, en tant que puissance majeure, assumeraient davantage un rôle de soutien qu’une position de leader systématique.

Après le premier mandat Trump (nous y reviendrons), Joe Biden a entrepris de relancer l’exceptionnalisme américain, réaffirmant le leadership des États-Unis sur la scène mondiale en s’érigeant en chef de file indispensable des démocraties face à la montée de l’autoritarisme global. La guerre déclenchée par la Russie contre l’Ukraine en février 2022 est venue conforter sa vision d’un affrontement décisif entre démocratie et autocratie. Cependant, les événements consécutifs aux massacres du 7 octobre 2023 ont mis en lumière les contradictions de ce modèle : le soutien presque indéfectible apporté à Israël malgré la catastrophe humanitaire imposée aux habitants de Gaza a fragilisé le leadership moral américain et le modèle démocratique que Biden cherchait à réaffirmer. Par ailleurs, l’évolution progressive du contexte politique intérieur a infléchi sa rhétorique, recentrant son discours sur le modèle de résilience de la démocratie américaine face aux menaces internes portées par le mouvement MAGA.

Malgré ces variations et leurs interprétations parfois ambiguës, une constante demeure dans les discours des présidents américains à l’AGNU : la valorisation d’un ordre international fondé sur la coopération, l’État de droit, la démocratie, les droits humains, la libre concurrence et la bonne gouvernance selon les principes néolibéraux – même si les États-Unis n’ont pas toujours respecté l’exemple qu’ils défendaient eux-mêmes.

Le discours de Trump à l’AGNU : l’exceptionnalisme trumpien

Lors de son discours à la 80eAssemblée générale de l’ONU, Donald Trump a abordé plusieurs thèmes marquants. Nous revenons ici sur les plus polémiques.

Le président Trump a d’abord sévèrement critiqué l’institution, ironisant sur ses infrastructures défaillantes (un escalier mécanique et un prompteur tombés en panne) et mettant en doute l’utilité même d’une organisation incapable, selon lui, de régler le moindre conflit – sachant qu’il a lui-même contribué à cet affaiblissement en réduisant la contribution américaine au budget de l’ONU – et accusant l’institution d’en créer de nouveaux en encourageant l’immigration dans les pays occidentaux.

« Donald Trump à l’ONU : l’intégralité de son discours traduit en français », Le Figaro, 24 septembre 2025.

Trump a ensuite martelé sa défense de la souveraineté nationale comme principe cardinal des relations internationales, en rupture frontale avec l’héritage multilatéraliste et universaliste de ses prédécesseurs. Cette posture nationaliste et identitaire l’a conduit à affirmer que le christianisme était désormais « le culte le plus menacé au monde » et à fustiger la politique migratoire européenne, accusée de fragiliser la cohésion des sociétés.




À lire aussi :
L’Europe vue par J. D. Vance : un continent à la dérive que seul un virage vers l’extrême droite pourrait sauver


Il a également réaffirmé son déni du changement climatique, qu’il a qualifié d’« escroquerie », et a rejeté toute régulation environnementale, inscrivant ainsi son discours dans une logique productiviste et consumériste caractéristique de sa vision économique.




À lire aussi :
Trump face au dérèglement climatique : du climatoscepticisme au radicalisme Dark MAGA


En ce qui concerne la politique énergétique, il a dénoncé la dépendance européenne au pétrole russe et pointé du doigt la Chine et l’Inde pour leurs choix énergétiques similaires.

Enfin, l’allocution s’est distinguée par un ton particulièrement vindicatif. Trump a multiplié les attaques personnelles, mentionnant Joe Biden à sept reprises pour critiquer son bilan, et s’en prenant à d’autres figures politiques comme le maire de Londres, le travailliste Sadiq Khan – accusé de vouloir « imposer la charia » –, ou encore le président brésilien Lula da Silva. Tout en soulignant qu’il avait une bonne relation personnelle avec lui, il a reproché au gouvernement de Lula, parmi autres, d’instrumentaliser la justice – une référence à peine voilée à la récente condamnation à vingt-sept ans de prison de Jair Bolsonaro, le prédécesseur de Lula, pour tentative de coup d’État en 2023.

En parallèle, l’hôte de la Maison Blanche a longuement insisté sur les « succès » de son administration, se targuant notamment d’avoir mis fin à « sept guerres », et affirmant que les États-Unis vivaient leur « Âge d’or », portés par la puissance de leur économie, de leurs frontières, de leur armée, de leurs amitiés et de leur esprit national.




À lire aussi :
Recréer un second « Gilded Age » (Âge doré) : les illusions de Trump


Jamais dans l’histoire de l’AGNU un président états-unien ne s’était autant vanté de ses succès, tout en critiquant ouvertement ses prédécesseurs et des dirigeants de pays amis démocratiquement élus. Une telle approche est d’autant plus atypique qu’elle relève davantage de la dynamique d’un discours sur l’état de l’Union, traditionnellement prononcé chaque mois de janvier devant le Congrès américain, que d’une allocution solennelle devant ses pairs à l’ONU.

Comment comprendre ce discours ?

Le discours de Donald Trump consolide la remise en cause, entamée durant son premier mandat, de la place et de la fonction de l’exceptionnalisme américain traditionnel dans la politique étrangère de Washington. Contrairement à ses prédécesseurs, il rejette l’idée que les États-Unis incarneraient nécessairement le « monde libre » ou qu’ils seraient investis d’une mission universelle au service de la démocratie et des droits humains.

À ses yeux, l’héritage multilatéral des dernières décennies a affaibli la puissance américaine et son image internationale. Son propos vise autant les dimensions symboliques de l’exceptionnalisme – leadership systématique, vocation morale – que les politiques concrètes qui en découlaient.

Dès lors, sa critique des Nations unies, sa promotion de la souveraineté des États, le rejet des politiques migratoires et le soutien au matérialisme dans le rapport de force traditionnel entre États (où les États-Unis partent avantagés) s’inscrivent dans une volonté de rupture. C’est une réorientation franche, assumée, qui s’oppose au modèle libéral et multilatéral de l’Amérique post-guerre froide pour laisser place à une vision américaine illibérale, qui a vocation à s’exporter à travers le monde et notamment en Europe. Sa critique des politiques conduites par l’Union européenne doit se comprendre selon la même logique.

Toutefois, Trump ne nie pas la supériorité et le caractère exceptionnel de l’Amérique : sa perspective nationaliste et protectionniste est centrée sur la défense prioritaire des intérêts américains et sur une glorification de la puissance matérielle. Dans une logique de rapport de force, il veut prouver que son Amérique est la plus forte, au-dessus des autres nations et modèles et, pour cela, il valorise la puissance tangible – ressources, poids économique, budget militaire – et les victoires concrètes qu’il présente comme des wins (accords politiques, succès économiques ou militaires favorables aux États-Unis).

Le modèle trumpien se traduit ainsi par une surreprésentation de l’affirmation de la supériorité des États-Unis et de leur puissance matérielle, une puissance que les politiques vertes et les énergies renouvelables pourraient, selon lui, entraver. Plus qu’un simple déni du changement climatique, Trump critique toute mesure limitant le marché et la prospérité. En outre, derrière ses attaques contre l’achat de pétrole russe se profile la volonté de promouvoir les exportations américaines de GNL.

Parallèlement, Trump individualise cet exceptionnalisme en l’associant directement à sa propre personne. Il met en avant le modèle non pas de l’Amérique en général, mais bien de son Amérique – celle de son administration et de son leadership personnel. Cette appropriation s’accompagne d’une défiance marquée à l’égard des autres modèles – qu’il s’agisse de celui des démocrates tels que Joe Biden, celui des Européens ou celui des leaders de gauche au niveau international comme Lula da Silva.

Il se présente comme l’unique acteur capable de restaurer la grandeur américaine : c’est une forme d’« auto-exceptionnalisme », qui souligne le caractère singulier et supérieur des aptitudes du président actuel à incarner et à réaffirmer la singularité américaine.

Le discours de Donald Trump à l’AGNU de septembre 2025 illustre ainsi la reconfiguration du modèle américain vers une approche axée sur le souverainisme, sur le protectionnisme, sur le nationalisme et sur un leadership fortement personnalisé, au détriment de la tradition multilatéraliste, néolibérale et universaliste, qui caractérisait jusque-là la projection américaine dans les affaires mondiales. Cette orientation s’accompagne d’une défense prioritaire, assumée et sans compromis des intérêts nationaux dans un rapport de force global ouvert. Déjà, ce modèle américain inspire des émules en Europe comme ailleurs dans le monde, et tout indique qu’il est appelé à encore se renforcer au cours des prochaines années.

The Conversation

Vincent Bricart ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. À l’ONU, Donald Trump redessine l’exceptionnalisme américain à son image – https://theconversation.com/a-lonu-donald-trump-redessine-lexceptionnalisme-americain-a-son-image-266262