Peut-on brûler toutes les réserves d’énergies fossiles et compenser en plantant des arbres ?

Source: The Conversation – Indonesia – By Alain Naef, Assistant Professor, Economics, ESSEC

Lorsque l’on parle d’atténuation du changement climatique, on pense souvent au fait de replanter des arbres, qui consomment du CO2, ou à des solutions techniques consistant à recapturer le gaz carbonique depuis l’atmosphère. Mais ces approches, si elles peuvent être intéressantes, sont irréalistes pour stocker le réchauffement, si on souhaite continuer à brûler des ressources fossiles jusqu’à épuisement.


Quand on prend l’avion, on nous offre souvent la possibilité de planter des arbres à l’autre bout de la planète pour compenser les émissions de notre vol. Un luxe qui permet aux quelques 2 à 4 % des habitants de la planète qui volent chaque année de réduire leur bilan carbone et soulager leur conscience. Mais que se passerait-il si on étendait ce luxe à toute notre économie ? Peut-on vraiment continuer à émettre du CO2 gaiement et espérer le compenser plus tard ? La question devient urgente alors que nous sommes actuellement au-dessus de 1,5 °C d’augmentation de température depuis l’ère industrielle.

Dans une nouvelle étude, nous montrons que compenser les émissions de CO2 coûte trop cher pour être une solution viable. Par exemple, si l’on souhaite capter directement le CO₂ dans l’air, le coût que cela représente est d’environ 1 000 € par tonne, selon les estimations des quelques projets existants, tels que le projet de Climeworks en Islande. La technologie fonctionne avec des ventilateurs géants qui aspirent directement le CO2 de l’air. Pour le mettre où ? Les Norvégiens ont débuté jeudi 12 juin l’installation d’une infrastructure de captage et de stockage du CO₂ sous le plancher océanique, opération marketing à l’appui. Cela parait idéal pour continuer à polluer, tout en n’affectant pas la planète.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Les estimations dans notre étude montrent que les 200 plus grandes entreprises pétrolières produiraient environ 673 gigatonnes de CO2 en brûlant leurs réserves de pétrole, gaz et charbon. Ces réserves sont inscrites dans leurs rapports annuels et il s’agit de la base de leur valorisation financière. Leurs actionnaires savent que c’est grâce à ces réserves qu’ils ont une certaine capitalisation boursière plutôt qu’une autre.

La capture et le stockage du carbone ? Hors de prix

Le problème, comme le montre notre étude, est que pour compenser les réserves actuelles des entreprises de gaz, pétrole et charbon, cela coûterait environ 673 700 milliards d’euros, soit presque sept fois le PIB mondial. Cela implique que si l’on souhaite continuer à polluer jusqu’à avoir épuisé les réserves d’énergies fossiles, nous devrions payer l’équivalent de sept ans de toute la production mondiale. À ce prix là, autant ne pas polluer.

À l’échelle des entreprises fossiles, le calcul ne serait pas rentable non plus. Pour Total Énergie, qui possède des réserves d’environ 4,25 gigatonnes de CO2 en réserves, c’est trop cher. À 1 000 € la tonne, Total devrait payer environ 4 253 milliards d’euros. C’est presque 34 fois sa valeur boursière, qui s’élève aujourd’hui à environ 126 milliards d’euros.

Dans notre étude, nous appelons cela la valeur environnementale nette, c’est-à-dire la valeur d’une entreprise fossile une fois le CO2 contenu dans ses réserves compensées. Dès que le prix pour compenser une tonne de CO2 dépasse les 150 dollars, la valeur environnementale nette des 200 plus grandes entreprises du secteur des énergies fossiles devient négative. En d’autres termes, si les entreprises fossiles devaient compenser leurs émissions, elles mettraient toutes la clé sous la porte. Heureusement pour elles, aucune législation en ce sens ne s’applique pour le moment. Certaines l’ont compris et ont commencé à investir dans des technologies génératrices d’énergie verte.

Planter des arbres ? Il faudrait recouvrir au moins toute l’Amérique du Nord !

Il existe cependant des solutions plus abordables, comme celle qu’on nous propose à bord des avions notamment : planter des arbres. Selon une étude de l’OCDE, le prix est minime puisqu’il s’élève à environ 16 dollars la tonne. Ce coût infime s’entend sans le prix du terrain : planter des arbres à Manhattan est probablement plus cher.

Les arbres sont en effet généralement composés à moitié de carbone. Pour de nombreuses espèces d’arbres, cette séquestration est la plus efficace pendant les vingt premières années de croissance. Mais pour que la plantation d’arbres capture du carbone, il faut bien sûr éviter qu’ils soient ensuite coupés ou brûlés, ce qui relâcherait à nouveau tout le carbone séquestré. Et il faut éviter de les planter dans un lieu où cela pourrait perturber l’écosystème déjà en place… Pouvons-nous donc sauver la planète en plantant des arbres ?

Dans notre étude, nous avons utilisé les moyennes de captures de carbone par les arbres, en fonction des régions où ils seraient plantés, d’ici à 2050. Si l’on voulait compenser les émissions potentielles de l’ensemble des réserves de gaz, pétrole et charbon, il faudrait planter des arbres sur une très grande surface, qui dépend des régions du monde (certaines étant plus propices que d’autres à la séquestration du carbone). Une de nos estimations est qu’il faudrait couvrir environ 27 millions de kilomètres carrés, soit l’entièreté de l’Amérique du Nord et centrale, ainsi qu’une partie de l’Amérique du Sud. Cela impliquerait de remplacer toutes les constructions, les routes, les lacs, et de planter des arbres partout, et sans compter ceux qui poussent déjà.

Bien que l’idée est absurde, la carte ci-dessous permet de se représenter la surface que cela représente. En d’autres termes, même si la plantation d’arbres peut être une bonne forme de capture de carbone, la solution n’est pas viable si on regarde les étendues des réserves de gaz, pétrole et charbon actuellement en possession des entreprises fossiles.

Et si on pousse cette idée encore plus loin, en voulant planter suffisamment d’arbres pour compenser le CO2 déjà émis au cours de l’histoire, il faudrait cette fois transformer en forêt géante non seulement l’Amérique du Nord, mais aussi l’Europe et presque toute l’Afrique, de la côte méditerranéenne jusqu’au Zimbabwe.

Des solutions utiles, mais invraisemblables sans changements profonds de nos émissions

On voit donc que la compensation carbone n’est pas une baguette magique. Si l’on veut le faire avec de la technologie, le prix actuel est bien trop élevé. De plus, il faut transporter le carbone de son lien d’émission vers le lien de stockage, par exemple de la France vers la Norvège, ce qui génère également des émissions. Les solutions naturelles sont bien sûr à favoriser, telles que la plantation d’arbres.

Mais là aussi la place manque. La solution ? Arrêter les émissions, bien sûr. Et pour les secteurs difficiles à décarboner, comme la métallurgie, l’industrie chimique ou l’agriculture, il faut d’abord diminuer les activités polluantes, et compenser pour celles qui demeurent nécessaires. La compensation carbone doit donc rester un joker à utiliser en dernier recours, et non la solution par défaut, pour réduire les émissions humaines dans un monde à +1,5 C° et qui continue de se réchauffer.

The Conversation

Alain Naef a reçu des financements de l’Agence Nationale de la Recherche (ANR).

ref. Peut-on brûler toutes les réserves d’énergies fossiles et compenser en plantant des arbres ? – https://theconversation.com/peut-on-bruler-toutes-les-reserves-denergies-fossiles-et-compenser-en-plantant-des-arbres-259330

Éclairer la ville ou protéger la biodiversité : faux dilemme

Source: The Conversation – Indonesia – By Léa Tardieu, Chercheuse en économie de l’environnement, Inrae

La pollution lumineuse affecte les écosystèmes et la santé humaine, comme le montre cette image satellitaire de l’agglomération de Montpellier de nuit. Image acquise le 26 août 2020 par Jilin-1 de CGsatellite et distribuée par La TeleScop, Fourni par l’auteur

La pollution lumineuse a de nombreux effets délétères. Elle menace la biodiversité, la santé humaine et même les observations astronomiques. Pour être efficaces, les mesures mises en place doivent toutefois dépasser l’opposition binaire entre éclairage ou extinction des feux. L’enjeu est de s’adapter à chaque situation locale.


La pollution lumineuse a considérablement augmenté ces dernières années (d’au moins 49 % entre 1992 et 2017) et continue de croître à un rythme alarmant (7 à 10 % par an). Cette progression rapide est due à la multiplication des sources de lumière artificielle, née de l’expansion urbaine et des changements dans le spectre lumineux des éclairages (couleurs plus froides qui affectent davantage les insectes, par exemple). L’effet rebond du passage à la technologie LED, qui permet d’éclairer davantage pour le même coût, aggrave la situation en multipliant les points lumineux.

Or, la lumière artificielle nocturne a de nombreux effets néfastes, désormais bien démontrés par la communauté scientifique. Elle pèse sur la biodiversité, sur la santé humaine, sur la recherche en astronomie et même, indirectement, sur les émissions de gaz à effet de serre (GES) du fait de la consommation d’énergie accrue que représente l’éclairage.

Les discours autour de l’éclairage sont aujourd’hui réduits à une logique de « tout ou rien » selon que l’on cherche à privilégier les résidents ou la biodiversité. Dépasser cette binarité est tout l’enjeu de l’étude que nous avons publiée dans Nature Cities.

Celle-ci montre que des compromis entre biodiversité et société sont possibles, mais qu’aucune politique uniforme ne sera efficace. Seule une politique d’éclairage nocturne pensée au niveau local, pour chaque point d’éclairage, adaptée au contexte environnemental et social, permettra de concilier les besoins des uns et des autres. Ceux-ci sont parfois concomitants, et parfois antagonistes.

Les multiples ravages de la pollution lumineuse

En matière de biodiversité, tout d’abord, les éclairages nocturnes perturbent une large gamme de taxons (groupes d’espèces) nocturnes comme diurnes.

Ils masquent en effet les cycles naturels d’alternance jour-nuit. La nuit constitue un habitat pour les espèces nocturnes – et représente un temps de repos pour les espèces diurnes. La nuit représente en quelque sorte une face cachée trop souvent oubliée des politiques environnementales.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Les effets de la pollution lumineuse sur la biodiversité ont pourtant été documentés à différents niveaux : à l’échelle individuelle (altérations de la physiologie, du comportement reproductif, alimentaire ou d’orientation), à l’échelle communautaire (impacts sur les interactions de compétition et de prédation), et même à l’échelle des écosystèmes. Elle affecte par exemple les processus de pollinisation, la diversité des plantes ou encore le fonctionnement des récifs coralliens tempérés et tropicaux.

Mais la pollution lumineuse représente aussi un enjeu de santé publique. Elle interfère avec les rythmes circadiens et la production de mélatonine chez l’humain, affectant ainsi les cycles de sommeil, l’éveil, les habitudes alimentaires et le métabolisme.

Elle interfère aussi avec les observations astronomiques en diminuant la visibilité des étoiles à l’œil nu. De 250 aujourd’hui en moyenne, elle pourrait chuter à seulement 100 d’ici dix-huit ans. Lorsqu’on ne peut admirer que 200 étoiles dans une ville comme Milan (Italie), un lieu non pollué en offre à nos yeux environ 2 000. Non seulement cette disparition détériore les observations scientifiques astronomiques, mais elle abîme aussi le lien culturel qui nous unit à la nuit.

La Voie lactée depuis l’observatoire de Paranal (désert d’Atacama, nord du Chili), où se trouve le Very Large Telescope (VLT). La lueur rouge à droite est due au halo de la ville d’Antofagasta, bien visible malgré sa distance, 100 kilomètres plus au nord.
Bruno Gilli/ESO, CC BY, CC BY-NC-SA

Enfin, l’éclairage associé à la pollution lumineuse est une source de consommation excessive d’énergie qui génère des émissions de CO2. La consommation énergétique liée à l’éclairage artificiel représente environ 2 900 térawattheures (TWh), soit 16,5 % de la production mondiale annuelle d’électricité et environ 5 % des émissions de CO2. Cela fait de ce secteur un enjeu incontournable pour tenir les objectifs de l’accord de Paris.

Restaurer les paysages nocturnes, un enjeu politique

La restauration des paysages nocturnes est pourtant possible, et cela, même dans les grandes villes. Cela requiert toutefois une volonté politique : il s’agit à la fois de sensibiliser à ces enjeux, mais aussi de prendre des décisions qui ne soient pas exclusivement dictées par le coût énergétique de l’éclairage et d’orienter l’urbanisme vers des systèmes d’éclairage plus durables.

Des politiques ambitieuses, aux niveaux mondial comme local, sont donc indispensables pour réduire et atténuer significativement la pollution lumineuse. Dans certains pays tels que la France, la législation nationale prescrit des mesures et des seuils d’ajustement de l’éclairage public pour éclairer plus directement les zones cibles et réduire le halo lumineux (arrêté du 27 décembre 2018 ou la nouvelle proposition de loi pour la préservation de l’environnement nocturne).

Certaines sources lumineuses artificielles peuvent avoir une température de couleur (indiquée en Kelvin, comme une température) qui se rapproche de celle de la lumière du jour.
Wikimedia, CC BY-SA

Toutefois, le respect des seuils réglementaires en termes de température de couleur, d’intensité lumineuse ou d’extinction, demeure à ce stade à la discrétion des élus locaux. La proposition de loi envisage de donner cette compétence à l’Office français de la biodiversité (OFB). Ce qui interroge, étant donné les fonctions dont il a déjà la charge, les entraves croissantes que ses agents rencontrent dans l’exercice de leur travail, et les récents appels à sa suppression.

Dépasser les arbitrages du « tout ou rien »

Certes, il ne peut être ignoré que le contexte urbain représente un défi pour les urbanistes. Ces derniers doivent, potentiellement, arbitrer entre les préférences des habitants et les besoins de la biodiversité.

« Potentiellement », car la majeure partie des mesures de réduction de la pollution lumineuse sont reçues positivement par la population. La résistance (ou la perception d’une résistance) au changement, liée à des raisons de sécurité, et cristallisée autour de l’extinction, constitue souvent le principal obstacle à leur mise en œuvre pour les élus locaux. Elle constitue aussi le principal argument pour faire machine arrière.

Notre étude publiée dans Nature Cities a été menée dans la métropole de Montpellier Méditerranée (3M), qui regroupe 31 communes, 507 526 habitants, et qui enregistre la plus forte croissance démographique de France (1,8 % par an).

La pollution lumineuse émise y est particulièrement problématique en raison de sa proximité avec le Parc national des Cévennes, l’un des six parcs français labellisés réserves internationales de ciel étoilé (Rice).

S’adapter localement aux besoins

Nous développons, dans l’étude, une analyse spatiale qui porte sur deux aspects :

  • les besoins des espèces en matière de réduction de la pollution lumineuse, d’une part,

  • et l’acceptabilité des habitants face aux changements d’éclairage de l’espace public, d’autre part.

Les besoins des espèces ont été évalués à partir d’images satellites multispectrales (c’est-à-dire, évalués dans plusieurs longueurs d’onde du spectre lumineux) à très haute résolution spatiale.

Ceci permet de délimiter deux dimensions de la pollution lumineuse :

  • le niveau d’émission lumineuse qu’émet chaque lampadaire vers le haut (la radiance),

  • et le nombre de points lumineux visibles, pour un observateur placé à 6 mètres de haut, compte tenu des objets présents dans l’espace (p.ex. : immeubles, arbres, etc.).

Nous prédisons ensuite, à partir de savoirs d’experts locaux et d’inventaires naturalistes, la connectivité du paysage (c’est-à-dire, la capacité des espèces à traverser le paysage pour passer d’un milieu habitable à un autre), avec et sans pollution lumineuse, pour six groupes d’espèces particulièrement sensibles à la pollution lumineuse ou d’intérêt pour la région. Il s’agissait ici : des insectes inféodés aux milieux humides et des Lampyridae, de deux groupes de chiroptères (chauves-souris), Rhinolophus et Myotis, d’un groupe d’espèces d’amphibiens Pelodytes, Pelobates et Epidalea calamita, et de l’engoulevent d’Europe, (qui appartient à une famille d’oiseaux nocturnes, ndlr).

Ceci a été mené en collaboration avec trois associations d’experts naturalistes : l’Office pour les insectes et leur environnement (Opie), la Ligue pour la protection des oiseaux (LPO) et le Groupe chiroptères du Languedoc-Roussillon.

Cela nous a permis, d’abord, de classer les points d’éclairage selon l’urgence à réduire la pollution lumineuse pour protéger la biodiversité. Les préférences citoyennes face à différentes mesures de réduction de la pollution lumineuse (réduction de l’intensité, extinction sur différentes périodes de la nuit, changement de couleur, etc.) ont ensuite été cartographiées à partir des résultats d’une vaste expérience de choix, c’est-à-dire une enquête durant laquelle les individus sont amenés à choisir, parmi plusieurs scénarios composites, leur option préférée. Celle-ci a été menée auprès de 1 148 habitants de la métropole.

Nous avons, enfin, croisé les besoins de la biodiversité et des citoyens pour identifier les actions sur l’éclairage public mutuellement bénéfiques et celles qui nécessitent des compromis. Les résultats ont été intégrés dans une application interactive, SustainLight, destinée à aider les décideurs et les citoyens à explorer les différentes situations possibles.

Adapter les stratégies à chaque territoire

Trois situations principales ressortent de notre analyse :

  • Certains quartiers comportant des enjeux forts pour la biodiversité peuvent bénéficier de réductions rapides de la pollution lumineuse avec le soutien des habitants.

  • Dans d’autres, situés en zones urbaines centrales avec des enjeux écologiques modérés, certaines mesures de réduction (par exemple le changement de couleur, la baisse de l’intensité, l’ajustement de la directivité/direction des luminaires pour qu’ils éclairent plus directement le sol) semblent être mieux reçues que des extinctions.

  • Des quartiers à forts enjeux écologiques, enfin, sont marqués par une forte résistance du public aux mesures d’extinction. Dans ce cas, il est possible d’avoir un éclairage plus respectueux de la biodiversité en adoptant les mesures mentionnées ci-dessus. Cela peut être accompagné d’actions de sensibilisation pour informer les résidents des multiples effets néfastes de la pollution lumineuse.

Nos travaux confirment que, pour être efficaces dans la préservation de la biodiversité contre la pollution lumineuse, les politiques d’éclairage durable doivent être socialement acceptées et tenir compte des besoins à la fois de la biodiversité et de la société.


Sarah Potin, Vincent Delbar et Julie Chaurand, de la start-up La Telescop, ont contribué à la rédaction de cet article.

The Conversation

Léa Tardieu est chercheuse à l’UMR TETIS et associée à l’UMR CIRED. Elle est membre du GDR 2202 Lumière & environnement nocturne (LUMEN) et de l’Observatoire de l’Environnement Nocturne du CNRS. Léa a reçu des financement de la Région Occitanie (projet Readynov Pollum).

Chloé Beaudet est membre du GDR 2202 Lumière & environnement nocturne (LUMEN) et de l’Observatoire de l’Environnement Nocturne du CNRS. Elle a reçu des financement de la Région Occitanie (projet Readynov Pollum).

Léa Mariton est membre du GDR 2202 Lumière & environnement nocturne (LUMEN) et de l’Observatoire de l’Environnement Nocturne du CNRS.

Maia David a reçu des financements de l’INRAE et AgroParisTech en tant que chercheuse à l’UMR Paris-Saclay Applied Economics (PSAE).

ref. Éclairer la ville ou protéger la biodiversité : faux dilemme – https://theconversation.com/eclairer-la-ville-ou-proteger-la-biodiversite-faux-dilemme-254904

Qu’est-ce que la « civilisation écologique » que revendique le pouvoir chinois ?

Source: The Conversation – Indonesia – By Virginie Arantes, Postdoctoral Researcher – Projet Chine CoREF, CNRS/EHESS (CECMC), Université Libre de Bruxelles (ULB)

Cette photo, prise le 5 avril 2025, montre un troupeau de cerfs du père David (_Elaphurus davidianus_) marchant sous des panneaux solaires dans une réserve naturelle de Yancheng (province de Jiangsu, est de la Chine).
AFP (hors Chine/China out), CC BY

Depuis 2007, les dirigeants chinois affirment mettre en place une « civilisation écologique ». Lorsque l’on regarde la décarbonation comme la réduction des gaz à effet de serre, alors que les États-Unis reculent, la Chine, elle avance… mais vers quelle écologie ?


Le 23 avril 2025, lors de la réunion des dirigeants sur le climat et la transition juste, [organisée par le président du Brésil Luiz Inácio Lula da Silva et le secrétaire général de l’ONU António Guterres, ndlr], Xi Jinping appelait à défendre « le système international centré sur l’ONU » et à « tenir le cap du développement vert et bas carbone », dénonçant au passage les grandes puissances qui « s’obstinent à porter l’unilatéralisme et le protectionnisme ».

Dans un contexte où les États-Unis annoncent, pour la seconde fois, leur retrait de l’accord de Paris, la Chine se présente comme une actrice centrale de la transition verte, promettant la neutralité carbone d’ici 2060 et faisant de la « civilisation écologique » la nouvelle boussole de son développement.

Mais que se cache réellement derrière cette expression, si souvent mentionnée dans les discours officiels ? Est-ce le signe d’une prise en compte accrue des enjeux environnementaux ? ou bien l’expression d’une vision stratégique, dans laquelle écologie, développement et gouvernance sont étroitement articulés ? Retour sur ce terme devenu un des piliers du pouvoir chinois actuel.

Un concept né dans l’urgence environnementale

La notion de « civilisation écologique » apparaît pour la première fois dans les discours du Parti communiste chinois (PCC) sous la présidence de Hu Jintao, en 2007. À l’époque, le concept est encore flou, mais il renvoie déjà à une réalité bien concrète : une Chine confrontée à une crise environnementale sans précédent.

De fait, plus de 60 % des grands fleuves sont gravement pollués, 90 % des cours d’eau urbains contaminés, et plus de 300 millions de personnes n’ont pas accès à une eau potable sûre. Les « villages cancers » se multiplient, les mobilisations contre les barrages, les incinérateurs ou les complexes chimiques inquiètent les autorités. En 2013, un haut responsable du Parti reconnaît publiquement que les questions environnementales sont devenues l’une des principales causes des « incidents de masse », ces protestations collectives inquiètent le pouvoir central.

Selon Yang Chaofei, vice-président de la Société chinoise des sciences de l’environnement, les conflits environnementaux augmentaient déjà de 29 % par an entre 1996 et 2011, et si le gouvernement cesse rapidement de publier les chiffres, les estimations de Sun Liping, professeur à l’Université Tsinghua, évoquent jusqu’à 180 000 protestations en 2010, dont une part importante liée à l’environnement.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Transformer une urgence en projet national

Dans ce contexte, la notion de « civilisation écologique » ne naît pas d’une révélation éthique soudaine mais d’une tentative de réponse politique à une crise sociale et écologique devenue impossible à ignorer. Le China Daily, quotidien officiel en langue anglaise publié par le gouvernement chinois, avertit dès 2007 que ce concept ne doit pas rester un slogan, mais un moteur de changement réel.

Longtemps restée périphérique, l’idée prend de l’ampleur à partir de 2012 lorsque Hu Jintao, à la tête de la Chine de 2003 à 2013, inscrit la « civilisation écologique » parmi les cinq grandes missions stratégiques du Parti, aux côtés du développement économique, politique, social et culturel. Mais c’est sous Xi Jinping, qui lui a succédé et qui est toujours au pouvoir aujourd’hui, qu’elle devient un levier central de gouvernance.

Elle est ainsi intégrée au 13e plan quinquennal en 2015, érigée en objectif stratégique au 19e Congrès du Parti en 2017, puis inscrite dans la Constitution en 2018.

L’écologie au service de la modernisation socialiste

Xi Jinping la place également dans une lecture historique continue de la modernisation chinoise : Mao aurait permis le passage de la civilisation agricole à la civilisation industrielle, Deng Xiaoping, à la tête du régime chinois de 1978 à 1989, aurait instauré une civilisation matérielle, et lui-même porterait désormais une civilisation écologique.

Mais cette écologie ne vise pas à ralentir la croissance. Elle sert au contraire à la rediriger vers : les énergies renouvelables, les hautes technologies vertes, les industries dites « propres », les zones expérimentales, les villes intelligentes. La Chine veut devenir une puissance verte, capable de combiner développement économique, stabilité sociale et rayonnement international.

Concrètement, cette stratégie s’est traduite par des investissements massifs dans les infrastructures vertes. À elle seule, la Chine représente désormais un tiers des capacités mondiales en énergies renouvelables. En 2024, elle a battu un record en installant 357 gigawatts (GW) de solaire et d’éolien, franchissant ainsi, dès maintenant, son objectif de 1 200 GW fixé pour 2030, avec six ans d’avance. Cette progression fulgurante correspond à une hausse annuelle de 45 % pour le solaire et de 18 % pour l’éolien.

Cette expansion a permis de compenser une grande partie de la croissance énergétique, si bien que les émissions de CO2 sont restées inférieures à celles de l’année précédente pendant dix mois consécutifs, malgré une hausse annuelle globale estimée à 0,8 %. Ce rebond s’explique par la reprise post-Covid et une demande exceptionnelle en début d’année, notamment liée à des vagues de chaleur record qui ont perturbé la production hydroélectrique, forçant le recours accru au charbon. Mais ce succès masque une autre réalité : l’effort climatique chinois reste avant tout technocentré, peu redistributif, et fortement dépendant de logiques industrielles lourdes, comme le charbon ou la chimie, qui continuent de croître.

Le système national d’échange de quotas d’émissions (ETS), lancé en 2021, est déjà le plus grand du monde en volume couvert. En 2024, la Chine a représenté près de 60 % des ventes mondiales de voitures électriques. Elle produit environ 75 % des batteries lithium-ion mondiales.

Si certains analystes estiment que la Chine pourrait avoir atteint son pic d’émissions en 2024, les autorités, elles, maintiennent le cap officiel d’un pic « avant 2030 » et n’ont pour l’heure annoncé aucune inflexion.

Dans son allocution de 2025 sur la transition juste, Xi associe transition climatique, réduction des inégalités et leadership global. Ce discours achève de consacrer la « civilisation écologique » non seulement comme un objectif de politique publique, mais comme un projet de civilisation, intégré à la trajectoire historique du Parti et présenté comme la voie chinoise vers la modernité durable.

Comprendre la « civilisation écologique » aujourd’hui

Aujourd’hui, la « civilisation écologique » fait partie intégrante du socle idéologique du régime chinois sous Xi Jinping. Si le terme peut paraître abstrait, voire poétique, il renvoie pourtant à un projet très concret, qui structure les politiques publiques, les plans de développement, les discours diplomatiques et l’appareil doctrinal du Parti.




À lire aussi :
Lancement de la mission Tianwen-2 : comprendre la politique spatiale de la Chine. Une conversation avec Isabelle Sourbès-Verger


Il ne s’agit pas d’une écologie citoyenne ou militante, encore moins participative. La « civilisation écologique » telle qu’elle est pensée en Chine propose une transition verte entièrement pilotée par l’État, centralisée, planifiée, hiérarchisée. Elle promet un verdissement du développement sans en transformer les fondements productivistes ni ébranler le monopole du Parti : c’est une transition par le haut, sans rupture. La nature y est conçue comme une ressource stratégique, un capital à valoriser, un levier d’accumulation et de puissance nationale.

Dans ce cadre, protéger l’environnement ne signifie pas ralentir le développement, mais le réorienter. Le mot d’ordre est de produire autrement, pas moins. Miser sur les technologies vertes, les « zones modèles », les villes intelligentes, à l’image de la nouvelle ville de Xiong’an, conçue comme un laboratoire de modernité écologique par les autorités. Une réorganisation qui, tout en intégrant le vocabulaire écologique, préserve les logiques productivistes.

Si l’on peut observer et commenter toute cette mise en action, il n’existe cependant pas, à proprement parler, de définition unique de ce qu’est la « civilisation écologique » dans les textes officiels. Plusieurs tentatives de clarification ont cependant vu le jour dans les médias proches du pouvoir ou dans les textes de vulgarisation. En 2018, un article publié sur des médias officiels la présentent comme une étape éthique et culturelle succédant à la civilisation industrielle. Elle y est décrite comme fondée sur l’harmonie entre l’homme, la nature et la société, et sur une transformation profonde des modes de vie, de production et de gouvernance. Cette vision dépasse le simple cadre chinois : elle se veut universelle, mais en partant d’une base nationalement définie.

Dans ses discours récents, Xi Jinping affirme lui que la civilisation écologique représente la quatrième grande transformation de l’histoire humaine, après les civilisations primitive, agricole et industrielle. Elle naîtrait de la crise écologique mondiale engendrée par l’industrialisation et proposerait un nouveau paradigme, qui n’abolit pas l’industrie, mais l’intègre dans une logique écologique de long terme.

Dans les discours officiels, ce tournant est présenté comme une contribution intellectuelle au marxisme contemporain. Xi insiste sur le fait que la nature ne doit plus être considérée uniquement comme un décor ou une ressource passive, mais comme une force productive à part entière. Le slogan désormais célèbre selon lequel « les eaux limpides et les montagnes verdoyantes sont des montagnes d’or et d’argent » devient dans ce cadre une véritable théorie de la valeur écologique.

La richesse ne se mesure plus uniquement en production humaine, mais aussi en valeur ajoutée naturelle. Une forêt non exploitée, un fleuve propre, un écosystème équilibré deviennent des actifs économiques valorisables. Cette idée traverse aujourd’hui les discours sur la finance verte, la comptabilité environnementale, ou les marchés du carbone, qui prennent une place croissante dans les politiques publiques chinoises. L’instauration en 2021 d’un réseau national de parcs, dont celui du panda géant ou de la forêt tropicale de Hainan, illustre cette volonté de faire du vivant un capital à la fois écologique, économique et symbolique.

Une écologie d’État aux contours mouvants

La « civilisation écologique » n’est donc pas simplement un concept environnemental parmi d’autres. C’est une forme de gouvernance verte aux contours mouvants, qui mêle planification, contrôle, innovation technologique et ambition civilisationnelle. Elle combine gestion centralisée, récit de puissance, et ambitions géopolitiques.

La « civilisation écologique » est autant une promesse de durabilité qu’un projet de souveraineté verte destiné à concurrencer les modèles occidentaux. Mais son avenir, comme celui de la transition écologique mondiale, reste suspendu à une question centrale : jusqu’où peut-on verdir un modèle de développement sans en changer les fondements ?

The Conversation

Virginie Arantes a reçu des financements du Fonds de la Recherche Scientifique – FNRS (Belgique).

ref. Qu’est-ce que la « civilisation écologique » que revendique le pouvoir chinois ? – https://theconversation.com/quest-ce-que-la-civilisation-ecologique-que-revendique-le-pouvoir-chinois-257389

Maladie de Parkinson : les limites des alternatives à l’expérimentation animale

Source: The Conversation – Indonesia – By Service Environnement, The Conversation France

En 1959 les biologistes William Russel et Rex Burch ont proposé des recommandations éthiques en expérimentation animale connues sous le terme de « règle des 3 R ». Egoreichenkov Evgenii/Shutterstock

L’expérimentation animale fait débat. La recherche scientifique est-elle prête à se passer des animaux ? Les alternatives sont-elles suffisantes ? Colin Deransart, Bertrand Favier, Sabrina Boulet et Véronique Coizet de l’Université Grenoble Alpes prennent l’exemple de la maladie de Parkinson. Voici une version courte de leur article publié sur notre site le 28 avril 2025


Régulièrement critiquée, l’expérimentation animale reste nécessaire pour améliorer nos connaissances sur certaines pathologies. Par exemple la maladie de parkinson, qui touche plus de 270 000 personnes en France. Son diagnostic est souvent posé trop tard pour envisager des traitements curatifs.

Notre équipe travaille à identifier des marqueurs précoces de la maladie. L’enjeu, à terme, est de pouvoir prendre en charge les patients avant que les dommages soient irréversibles. L’expérimentation animale permet alors de compléter les données obtenues chez l’humain.

En 1959, les biologistes William Russel et Rex Burch ont proposé la « règle des 3 R » pour encadrer l’éthique de l’expérimentation animale : remplacer, quand c’est possible, l’utilisation d’animaux par des modèles alternatifs, réduire le nombre d’animaux requis et enfin raffiner les expérimentations pour minimiser les contraintes imposées aux animaux (douleur, souffrance, angoisse…).

Dans nos recherches, nous recourons à trois modèles animaux distincts : deux sur le rat et un sur le macaque. Cela peut sembler contraire à la dernière règle, mais cela permet de recouper les données et d’augmenter leur transposabilité à l’humain. Le premier portait ainsi sur des rats traités par une neurotoxine ciblant les neurones producteurs de dopamine. Le second s’intéressait à la production d’une protéine délétère, afin d’étudier la nature progressive de la maladie. Dans le troisième une injection de neurotoxine permettait de reproduire l’évolution des phases cliniques de la maladie, avec une plus grande homologie avec l’humain.

Chaque modèle animal reproduit ainsi un stade précis de la maladie et en constitue bien sûr une simplification. Ceci a permis d’identifier six métabolites potentiellement liés au processus neurodégénératif. En les combinant, on obtient un biomarqueur métabolique composite. En le recherchant chez des patients récemment diagnostiqués mais pas encore traités, on remarque qu’il permet de les distinguer de patients sains. À la clé, la perspective de mieux suivre l’évolution de la maladie de façon moins contraignante que les méthodes d’imagerie médicale actuelle, et un espoir thérapeutique : la dérégulation de plusieurs de ces métabolites pourrait être partiellement corrigée par un médicament mimant les effets de la dopamine.

Au-delà de ces avancées, les détracteurs de l’expérimentation animale mettent souvent en avant la faible transposabilité des résultats de l’animal à l’homme pour justifier le recours exclusif aux modèles in vitro ou in silico (numériques). Or, il n’a pas été démontré que la transposabilité de ces tests soit meilleure en l’état actuel des techniques. Ils sont en réalité les premiers cribles de l’ensemble des tests préclinique, tandis que la contribution des animaux en fin de phase préclinique permet d’exclure 40 % de candidats médicaments, notamment sur la base de risques chez l’humain. Cela permet de garantir des soins de qualité.

Et cela avec un impact limité : on estime qu’au cours de sa vie, un Français moyen ne « consommera » que 2,6 animaux de laboratoire, à comparer aux 1298 animaux consommés pour se nourrir.

Ce texte est la version courte de l’article écrit par Colin Deransart, Bertrand Favier, Sabrina Boulet et Véronique Coizet de l’Université Grenoble Alpes

The Conversation

Cet article a été édité par le service Environnement de The Conversation à partir de la version longue écrite par Colin Deransart, Bertrand Favier, Sabrina Boulet et Véronique Coizet de l’Université Grenoble Alpes.

Colin Deransart a reçu des financements de la Ligue Française Contre les Epilepsies, des Laboratoires GlaxoSmithKline, de la Fondation Electricité de France, de l’ANR et d’un Programme Hospitalier de Recherche Clinique.

Bertrand Favier est membre de l’AFSTAL. Sa recherche actuelle est financée par l’ANR et la Société Française de Rhumatologie en plus de son employeur.

Boulet sabrina a reçu des financements de l’ANR, la Fondation de France, la fondation pour la Rechercher sur le Cerveau, la fondation France Parkinson.

Véronique Coizet a reçu des financements de l’ANR, la fondation France Parkinson, la Fondation de France. Elle est présidente du comité d’éthique de l’Institut des Neurosciences de Grenoble et membre du comité Santé et bien-être des animaux.

ref. Maladie de Parkinson : les limites des alternatives à l’expérimentation animale – https://theconversation.com/maladie-de-parkinson-les-limites-des-alternatives-a-lexperimentation-animale-259285

Espaces « no kids » : une discrimination contraire au vivre-ensemble ?

Source: The Conversation – Indonesia – By Sylvain Wagnon, Professeur des universités en sciences de l’éducation, Faculté d’éducation, Université de Montpellier

Depuis les années 2000 se développe une offre de séjours, d’espaces touristiques ou de restaurants estampillés « no kids » dont les pouvoirs publics s’alertent. Que dit ce phénomène de ségrégation générationnelle de notre capacité à faire société ? Comment la place des enfants dans les espaces publics évolue-t-elle ?


Depuis une dizaine d’années fleurissent des initiatives estampillées « no kids » : restaurants, hôtels, avions ou événements festifs déconseillent voire interdisent la présence d’enfants. Encore marginal, le phénomène se développe rapidement en France.

Le 27 mai 2025, Sarah El Haïry, haute-commissaire à l’enfance, a reçu les fédérations du tourisme pour marquer sa désapprobation face à ce courant d’exclusion. Elle annonce à cette occasion la possibilité d’une charte à hauteur d’enfant qui rendrait illégale une telle ségrégation. Cette prise de conscience politique n’est pas nouvelle. En avril 2024, la sénatrice socialiste Laurence Rossignol avait déposé une proposition de loi visant à « reconnaître la minorité comme un facteur de discrimination afin de promouvoir une société ouverte aux enfants ».

Comment définir ce phénomène de ségrégation générationnelle ? En quoi la question de la place accordée aux enfants dans l’espace public devient-elle un révélateur de notre capacité collective à faire société ?

Un « adult only » commercial

La tendance « adult only » est née dans le secteur du tourisme balnéaire international et s’est développée dans les années 2000 en Europe méditerranéenne. En 2023, près de 1 600 hôtels dans le monde auraient été recensés comme « adult only », soit deux fois plus qu’en 2016. Ces établissements visent à exclure les enfants de certains espaces, voire de l’ensemble de l’offre, dans le cadre de stratégies marketing ciblant les adultes sans enfants ou dont les enfants sont devenus grands.

Le concept s’étend désormais au-delà du secteur hôtelier : il touche aussi la restauration, les croisières, les résidences de vacances ou encore certains parcs de loisirs. L’argument est toujours le même : une demande croissante d’adultes en quête de sérénité, qui déplorent les pleurs, le bruit ou les comportements jugés dérangeants des enfants.

« La tendance du “no kids” dans certains établissements fait polémique » (France 24, mai 2025).

C’est la question des droits fondamentaux des enfants dans la société qui est ici posée. Dès 1959, la Déclaration des droits de l’enfant adoptée par l’Assemblée générale des Nations unies affirme la nécessité de protéger les plus jeunes. Ce principe a été renforcé par la Convention relative aux droits de l’enfant, adoptée en 1989, qui précise, notamment dans son article 2, le droit de chaque enfant à la non-discrimination et, dans son article 31, le droit de participer pleinement à la vie culturelle, artistique, récréative et aux loisirs.

Dans cette vision, toute exclusion systématique des enfants de certains lieux publics va à l’encontre de ces engagements internationaux et remet en cause leur pleine intégration dans la société. À cet égard, la chercheuse Zoe Moody insiste sur l’importance de considérer les enfants non seulement comme des êtres à protéger, mais aussi comme des acteurs sociaux à part entière, titulaires de droits, capables de participer à la vie sociale et d’être entendus dans l’espace public.

Les travaux de la pédopsychiatre Laelia Benoit introduisent le concept d’« infantisme », discrimination à l’égard des enfants, qui conduit à les exclure de certains espaces ou à refuser de les considérer comme des sujets de droit à part entière.

« Mioche et gênant » : vers une discrimination ordinaire

Le statut des enfants dans notre société demeure marqué par une forme de discrimination ordinaire, souvent banalisée et peu remise en question.

Cette discrimination se traduit notamment par la persistance et la légitimation de certaines violences éducatives dites « ordinaires », malgré l’entrée en vigueur de la loi du 10 juillet 2019 qui interdit explicitement toute forme de violence éducative. Ces pratiques, parfois tolérées au nom de la tradition ou de l’autorité parentale, contribuent à maintenir l’idée que l’enfant doit être contrôlé et corrigé, plutôt qu’écouté et respecté.

Par ailleurs, l’éducation positive fait régulièrement l’objet de critiques, souvent relayées par des discours plus médiatiques que scientifiques, qui la présentent comme laxiste ou inefficace. Cette défiance à l’égard de méthodes éducatives respectueuses des droits de l’enfant révèle une difficulté persistante à reconnaître l’enfant comme un sujet de droit à part entière.

L’enfant n’est pleinement accepté que s’il reste discret, docile et presque invisible, ce qui limite profondément sa liberté d’expression et d’existence dans l’espace public, « territoire de liberté qui se restreint pour les enfants ». Le 19 février 2024, le quotidien Libération titrait en une « Moi, mioche et gênant », en analysant une exclusion de plus en plus assumée des enfants, depuis les années 1990. L’espace public s’est peu à peu adapté aux besoins de la voiture, les reléguant dans des espaces sécurisés et balisés, tels que les aires de jeux ou les cours d’école, et limitant leur autonomie de déplacement, dans une ville morcelée.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Le constat est clair, depuis plusieurs décennies, du déclin de la présence des enfants dans l’espace public. Les recherches de Clément Rivière ont mis en évidence ce repli des enfants vers l’intérieur. Un repli qui maintient aussi une inégalité de genre face à un extérieur perçu comme dangereux.

En octobre 2024, le Haut conseil de la famille, de l’enfance et de l’âge (HCFEA) posait la question : quelle place des enfants dans les espaces publics et la nature ? Avec un constat alarmant, plus de 37 % des 11-17 ans ont un mode de vie sédentaire très élevé. S’intéresser à la place des enfants dans la ville, c’est donc aborder un véritable enjeu de santé publique, mais aussi de citoyenneté et d’autonomie.

À hauteur d’enfant

Un autre mouvement, celui de « villes à hauteur d’enfant », s’affirme dans de nombreuses collectivités territoriales. Cette démarche vise à repenser la ville en tenant compte des besoins, des droits et de la participation des enfants, afin de leur permettre de se réapproprier l’espace urbain et d’y exercer pleinement leur citoyenneté.

Le concept s’est développé en France et en Europe à partir des années 2010, s’inspirant de démarches pionnières menées notamment en Italie à Fano, sur la côte adriatique, dans les années 1990 par le sociologue Francesco Tonucci. Cette tendance ne constitue pas une réaction directe au phénomène « no kids », mais elle répond plus largement à une prise de conscience des effets négatifs de l’urbanisation, de la domination de la voiture et de la diminution de l’autonomie des enfants dans la ville.

En France, les premières chartes « à hauteur d’enfant » de la métropole lilloise ou de Montpellier reposent sur l’idée que les enfants, comme tous les autres membres d’un territoire, ont le droit de se réapproprier les espaces publics, et que leur participation doit contribuer à repenser la ville.

Le sujet suscite un intérêt grandissant au sein des politiques publiques locales. Le mouvement connaît une diffusion croissante : de nombreuses collectivités, telles que Tours, Nantes, Rennes, Strasbourg, Lyon, Marseille ou Paris, s’engagent dans des démarches participatives associant les enfants à la réflexion sur l’aménagement urbain.

« Rennes, ville et métropole » (2023).

La reconnaissance de la place des enfants en ville se traduit par des aménagements variés, tels que la création de rues scolaires piétonnisées ou apaisées aux abords des écoles pour sécuriser les trajets quotidiens, le développement de parcours ludiques, d’espaces verts accessibles et de terrains d’aventure. Elle passe aussi par l’adaptation du mobilier urbain (bancs à hauteur d’enfant, fontaines, signalétique adaptée) ainsi que par le réaménagement de places publiques pour favoriser les rencontres intergénérationnelles et le jeu libre.

Entre l’essor des espaces « no kids » et le développement de politiques urbaines inclusives pour les enfants, notre société oscille entre deux visions du vivre-ensemble. La première, centrée sur l’exclusion et le confort individualisé, révèle un malaise face à la diversité des usages de l’espace public. La seconde, inclusive et participative, suggère que penser pour et avec les enfants permet de mieux vivre ensemble.

L’enjeu est donc double : reconnaître l’enfant comme sujet social et politique, et questionner les logiques d’exclusion qui fragilisent les liens intergénérationnels. Car une société qui tolère mal ses enfants est peut-être une société qui peine à se projeter dans l’avenir.

The Conversation

Sylvain Wagnon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Espaces « no kids » : une discrimination contraire au vivre-ensemble ? – https://theconversation.com/espaces-no-kids-une-discrimination-contraire-au-vivre-ensemble-258494

Séparation parentale : quelles conséquences sur le temps passé avec les enfants ?

Source: The Conversation – Indonesia – By Hélène Le Forner, Enseignante-chercheuse en économie de la famille , Université de Rennes

Une séparation parentale peut entraîner un choc économique, elle implique également une recomposition des temps partagés avec le père et avec la mère. Quels sont les mécanismes à l’œuvre et les effets observés ?


Les séparations, que les parents soient mariés ou en concubinage, sont de plus en plus fréquentes. En 2020, on estime ainsi que près de quatre millions d’enfants mineurs ont des parents séparés.

En France, les recherches font état d’un effet négatif de la séparation parentale sur la réussite scolaire des enfants, qu’elle soit mesurée par le nombre d’années d’étude ou le rendement scolaire, défini comme le salaire moyen pour un diplôme donné. Cet effet est moins marqué pour les enfants dont la séparation a lieu lorsqu’ils ont 7-9 ans ou 16-18 ans, mais plus marqué pour ceux qui avaient moins de 6 ans ou 10-15 ans au moment de la séparation, ces derniers font en moyenne des études plus courtes d’un semestre (par rapport à ceux dont les parents ne se sont pas séparés).

Ces effets sont cependant moins marqués lorsque l’on considère la réussite professionnelle, mesurée comme le revenu moyen associé à une profession et un niveau d’éducation. Seuls les enfants dont les parents se sont séparés à 4-6 ans ou à 10-12 ans demeurent affectés.

Des pertes économiques

Plusieurs mécanismes sont susceptibles d’expliquer les effets négatifs de la séparation sur les résultats scolaires. Si beaucoup pensent aux conséquences psychologiques de la séparation sur les enfants, elles demeurent incertaines et sont difficiles à quantifier pour les chercheurs en sciences sociales. Une rupture familiale peut entraîner un choc psychologique mais elle peut aussi libérer l’enfant (et ses parents) d’une situation conflictuelle.

Un deuxième mécanisme possible et bien plus étudié par les économistes tient aux pertes économiques engendrées par la séparation. Lors de la séparation, le couple perd les « complémentarités de consommation », c’est-à-dire la possibilité de mutualiser des dépenses (logement, électroménager, voiture). Ces pertes économiques sont en moyenne plus fortes chez les femmes, et notamment chez celles qui appartenaient à des couples spécialisés et dont l’ex-conjoint gagnait une part plus importante du revenu du ménage.

Un troisième mécanisme moins étudié tient à une possible baisse du temps que les enfants passent avec leurs parents. À la suite de la séparation de leurs parents, les enfants risquent de passer moins de temps avec ces derniers, notamment le parent avec lequel ils ne vivent plus. De plus, les parents perdent ce que les économistes appellent les « complémentarités de production » qui permettent de gagner du temps. Par exemple, le temps passé à cuisiner pour deux ne prend pas deux fois plus de temps que de cuisiner pour une personne. Ainsi, le temps de production de ce bien domestique augmente de manière moins que proportionnelle avec le nombre de personnes pouvant en bénéficier.




À lire aussi :
Divorce : comment les enfants gèrent-ils la vie en garde alternée ?


On estime ainsi que, pour avoir le même niveau de bien-être, deux célibataires vivant seuls ont besoin de deux heures quinze de plus que s’ils vivaient en couple. Les parents séparés n’échappent pas à cette règle et sont donc susceptibles d’être davantage contraints par le temps accordé aux tâches domestiques (repas, ménage) que lorsqu’ils étaient en couple. Par ailleurs, certains parents pourraient préférer passer du temps à deux avec leur enfant que seuls avec leur enfant. La séparation diminuerait ainsi le temps que chacun des parents passe avec l’enfant.

Enfin, il est possible que, pour faire face au choc économique que représente la séparation, les parents soient obligés d’augmenter le temps passé dans la sphère du travail, au détriment du temps passé avec leur enfant.

Des emplois du temps recomposés

Aux États-Unis, un enfant qui vit seul avec sa mère voit son temps passé avec au moins un parent présent baisser de trois heures et demie par semaine. Cette baisse concerne plusieurs types d’activité : tâches ménagères, besoins personnels, activités éducatives, tandis que le temps de loisirs n’est pas affecté. En revanche, lorsque l’on considère le temps passé dans une activité à laquelle le parent participe, on n’observe pas de baisse du temps parental, hormis pour le temps passé dans les tâches ménagères. L’enfant ne change pas non plus le temps qu’il passe dans chacune de ses activités.

Lorsque l’on regarde plus précisément la décomposition du temps parental entre le temps passé avec la mère seule, le père seul et les deux parents ensemble, il apparaît que, suite à la séparation, dans les familles où l’enfant vit seul avec sa mère, celle-ci augmente le temps qu’elle passe seule avec l’enfant mais n’arrive pas à compenser la double perte du temps passé avec le père seul et les deux parents. Les résultats sont cohérents avec la perte des complémentarités de production, puisque le temps que les mères passent dans les tâches ménagères augmente après la séparation. En revanche, elles tendent à diminuer le temps qu’elles passent au travail.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Les enfants plus jeunes sont moins affectés par la baisse du temps parental, ce qui est cohérent avec de possibles mécanismes de compensation de la part des mères qui tendent à rogner sur d’autres activités (sommeil ou loisirs), ne voulant pas ou ne pouvant pas diminuer le temps qu’elles passent avec leurs jeunes enfants.

La baisse du temps parental est à nuancer au regard de l’implication d’autres personnes de l’entourage.

Tout d’abord, les résultats cités plus haut se concentrent sur le temps passé avec le parent seul, en l’absence d’autre adulte. Le temps parental défini comme le temps passé avec au moins un parent présent, éventuellement en présence d’un autre adulte, n’est pas affecté par la séparation. Ainsi, les mères de familles monoparentales tendent à s’entourer d’autres personnes lorsqu’elles passent du temps avec leur enfant.

De plus, le temps que l’enfant passe avec au moins un adulte n’est pas affecté par la séparation, les grands-parents peuvent jouer ici un rôle important, puisque le temps que l’enfant passe seul avec l’un de ses grands-parents augmente après la séparation.

The Conversation

Hélène Le Forner a reçu des financements de Rennes Métropole et de l’Institut du Genre.

ref. Séparation parentale : quelles conséquences sur le temps passé avec les enfants ? – https://theconversation.com/separation-parentale-quelles-consequences-sur-le-temps-passe-avec-les-enfants-258235

Jouer en plein air comporte des risques – et c’est bon pour les enfants

Source: The Conversation – Indonesia – By Adele Doran, Principal Lecturer/Research & Innovation Lead, Sheffield Hallam University

sirtravelalot/Shutterstock

Lorsqu’ils grimpent aux arbres, font du vélo à vive allure ou partent en exploration en forêt, les enfants s’initient à la prise de risque et apprennent à gérer les incertitudes.


Nous traversons aujourd’hui une période de crise en ce qui concerne la santé mentale chez les jeunes. L’un des moyens d’améliorer le bien-être des enfants est de les laisser s’aventurer plus souvent hors de chez eux et participer à des jeux de plein air.

Lorsqu’ils grimpent aux arbres, bâtissent des cabanes, roulent à vélo à vive allure, construisent des radeaux ou explorent une forêt, les enfants doivent évaluer par eux-mêmes les risques à prendre et ceux à éviter. Cela leur permet d’apprendre à prendre des décisions et les prépare à être autonomes dans d’autres situations – comme l’entrée au collège puis au lycée – plutôt que de dépendre des incitations ou des directives d’un adulte.

L’exposition progressive à l’incertitude et au risque renforce la résilience et améliore le bien-être général des jeunes. Dans une recherche auprès de 622 adolescents, nous avons utilisé des questionnaires pour mesurer ces aspects avant et après leur participation à un voyage scolaire tourné vers les activités en plein air. Nous avons constaté que leur score de bien-être avait augmenté de 23 % et leur résilience de 36 %.

Les jeux de plein air favorisent l’expérimentation et l’exploration. Ils aident les enfants à développer des compétences sociales telles que la répartition des rôles et la coopération, et leur donnent ainsi des outils pour surmonter de futurs défis. Il nourrit leur curiosité. Les enfants peuvent se sentir revitalisés par le fait d’être dans la nature et de pouvoir jouer librement, sans prévoir ce qui va se passer.

Se confronter à l’inconnu

La fréquentation régulière d’une « forest school » ou classe à l’extérieur est un moyen pour les enfants de s’aventurer à l’extérieur tout en bénéficiant d’un soutien pour apprivoiser le risque et nouer une relation saine avec la nature.

L’école de la forêt ou classe à l’extérieur offre aux enfants la possibilité d’entrer en contact avec la nature, de faire l’expérience du risque, de développer des compétences sociales et d’être actifs dans leurs apprentissages. Il peut s’agir d’activités telles que cuisiner sur un feu de camp, faire de l’art et de l’artisanat dans la nature ou construire une cabane. Il peut s’agir d’une activité hebdomadaire à laquelle les enfants participent pendant quelques heures.

Les camps de vacances ou autres séjours de plus longue durée offrent d’autres occasions d’expérimenter l’apprentissage en plein air. Ils peuvent être organisés par une école ou un club et inclure une variété d’activités, telles que la course d’orientation, l’escalade, la descente en rappel et les expéditions terrestres et maritimes. Celles-ci visent à développer les compétences de leadership, la résilience, l’autonomie et la confiance. Les enfants sont stimulés par l’exploration d’environnements inconnus.

Children riding bikes outside
En jouant à l’extérieur, les enfants doivent apprendre à évaluer par eux-mêmes les risques à prendre.
Sergey Novikov/Shutterstock

Cependant, pour être bénéfiques, les jeux de plein air doivent être fréquents, progressifs et se dérouler tout au long de la vie de l’enfant. Les avantages qu’ils procurent ne peuvent pas être obtenus par une expérience unique.

Faire évoluer nos conceptions de l’école

Une option serait que la classe à l’extérieur et les jeux de plein air soient partie intégrante de la vie scolaire des enfants.

Or aujourd’hui, la valeur d’une école reste principalement mesurée par ses résultats dans quelques matières principales. Les établissements n’ont qu’une marge de manœuvre restreinte pour mettre en œuvre une gamme d’activités et de jeux qui stimulant le bien-être des élèves.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Un changement de mentalité est nécessaire pour que les écoles reconnaissent la valeur des jeux de plein air et pour que les enseignants aient les moyens de cultiver cette culture de la prise de risque à l’intérieur et au-delà des murs de l’école.

Il y a eu des appels des pouvoirs publics pour donner à tous les enfants l’opportunité de passer du temps dans la nature. Mais les progrès réels tardent.

À une époque où les enfants sont confrontés à des bouleversements sans précédent, il n’a jamais été aussi important de leur offrir des occasions quotidiennes de renforcer leur capacité à faire face aux incertitudes, et l’expérience du plein air est fondamentale en ce sens.

The Conversation

John Allan est chercheur invité à l’université de Sheffield Hallam et occupe le poste de Head of Impact and Breakthrough Learning chez PGL Beyond, un opérateur de programmes d’éducation à l’aventure.

Adele Doran et Josephine Booth ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. Jouer en plein air comporte des risques – et c’est bon pour les enfants – https://theconversation.com/jouer-en-plein-air-comporte-des-risques-et-cest-bon-pour-les-enfants-256345

À quoi sert le doctorat ? Ce que nous apprend l’histoire du diplôme le plus élevé de l’université

Source: The Conversation – Indonesia – By Pierre Verschueren, Maître de conférences en histoire contemporaine, Université Marie et Louis Pasteur (UMLP)

Dans le paysage des diplômes, le doctorat occupe une place particulière. Non seulement il s’agit du grade universitaire le plus élevé mais il ne se contente pas d’attester de la maîtrise de compétences, il prouve aussi la capacité à produire des savoirs nouveaux. Comment s’est-il fait reconnaître sur le marché de l’emploi ?


Par mesure d’économie, la loi de finances 2025 a brutalement supprimé le dispositif « Jeune docteur », qui permettait aux entreprises proposant un premier CDI à des docteurs de bénéficier d’un crédit impôt recherche (CIR) particulièrement avantageux pendant deux ans.

Une intense mobilisation s’est alors structurée, visant au rétablissement d’un système qui a permis une hausse spectaculaire du nombre de titulaires de doctorat embauchés depuis sa réforme en 2008 : on note une augmentation de 32 % en pharmacie, de 28 % en informatique.




À lire aussi :
Les chercheurs et leur évaluation : une histoire passionnelle


Cet épisode rappelle que l’apport du doctorat au monde de l’entreprise ne va toujours pas de soi, en France du moins : alors qu’il s’agit du titre le plus élevé de l’enseignement supérieur, il reste très mal connu, en particulier des recruteurs du secteur privé.

Il est vrai que le doctorat n’est pas un diplôme comme les autres : puisque la thèse sert aujourd’hui à prouver la capacité à produire des savoirs nouveaux, la soutenance est le seul examen où le jury en sait moins sur le sujet traité que la candidate ou le candidat. Or, du point de vue d’un recruteur, un diplôme sert avant tout à prouver la conformité et la maîtrise de savoirs acquis.

Comment dès lors un titre en est-il venu à prétendre certifier l’incertifiable, c’est-à-dire l’originalité et la nouveauté ? Quel est le rôle du doctorat dans l’organisation des mondes savants, dans la structuration des disciplines – et, partant, peut-il constituer un levier de politique scientifique pour certains acteurs, pour l’État mais aussi pour les entreprises ? Et au fond, qui s’engage dans une telle aventure, avec quels objectifs et pour quels résultats ?

Entre spécialisation et érudition, la jeunesse du doctorat

Pour peser ces enjeux du doctorat, le projet Ès lettres – Corpus des thèses de doctorat ès lettres en France au XIXe siècle s’est penché sur son histoire, en partant de la création de l’Université impériale en 1806-1808 : c’est à ce moment-là que le doctorat acquiert sa place de sommet des études dans les facultés des sciences et des lettres. Il est alors conçu comme une barrière et un niveau régulant l’accès au sommet de la hiérarchie universitaire. Il répond là à un besoin, délimiter le sommet de la nouvelle corporation enseignante laïque que Napoléon Ier veut au service de l’État.

Les thèses ne font alors qu’une ou deux dizaines de pages, puisqu’il n’est pas question de faire progresser le savoir ou la science : le doctorat doit surtout permettre de démontrer une certaine habileté rhétorique, une maîtrise des savoirs et pratiques canoniques.


Tous les quinze jours, nos auteurs plongent dans le passé pour y trouver de quoi décrypter le présent. Et préparer l’avenir. Abonnez-vous gratuitement dès aujourd’hui !


Mais les fonctions concrètes du titre dépassent rapidement cet objectif. À partir des années 1830, à la suite de l’action de Joseph-Victor Leclerc, doyen de la faculté des lettres de Paris de 1832 à 1865, les thèses deviennent des livres, de plus en plus épais. Ce n’est que dans un second temps que les règlements actent cette évolution de fait, en 1840 pour les facultés des lettres et en 1848 pour celles des sciences. On comprend ainsi mieux que Louis Pasteur, dans une lettre au ministre de l’instruction publique du 1er septembre 1848, tienne encore à préciser : « mes thèses pour le doctorat sont des thèses de recherche ».

À partir des années 1860, la quête de distinction pousse non seulement les impétrants à soumettre des savoirs nouveaux, mais aussi à chercher l’érudition et l’exhaustivité. La IIIᵉ République achève de canoniser la thèse, autour de ces valeurs de spécialisation, de nouveauté et d’érudition, ce que marque par exemple la création en 1885 d’un Catalogue des thèses et écrits académiques, national et officiel, dont la publication est assurée par le ministère de l’instruction publique – première initiative mondiale de ce type.

Diversifier les profils et attirer des étudiants étrangers

Le titre monte en puissance mais n’intéresse alors que les carrières universitaires. La question d’éventuels autres usages du titre ne se pose pas au XIXe siècle, où le nombre de doctorats décernés ne dépasse guère les besoins de la reproduction du système, dans un contexte où l’immense majorité des candidats, en sciences comme en lettres, préparent leur thèse en enseignant dans le secondaire. On compte ainsi, pour la totalité de ce siècle, un peu plus de 1 000 docteurs ès sciences, pour autant de docteurs ès lettres.

Au début du XXe siècle, lorsque le développement des laboratoires de sciences expérimentales, dans le secteur public comme dans l’industrie, exige un afflux de main-d’œuvre, sans élargissement des possibilités de carrière académique, cet apport est assuré par le biais de titres nouveaux, qui ne donnent aucun droit professionnel.

Le doctorat d’université, créé en 1897, est ainsi destiné à attirer des étudiants étrangers dans les laboratoires français, en allégeant les prérequis à la soutenance, mais sans leur ouvrir la carrière universitaire française. Soulignons que les étudiantes vont se saisir de cette opportunité pour renforcer leur présence dans les études doctorales : si les deux premières docteures ès lettres, Léontine Zanta et Jeanne Duportal, soutiennent en 1914, 14 femmes ont obtenu un doctorat d’université auparavant, en commençant par Charlotte Cipriani en 1901.

Le titre d’ingénieur-docteur, créé en 1923, entend quant à lui certifier des stages de deux ou trois ans dans des laboratoires de recherche académique par d’anciens élèves d’écoles d’ingénieur.

Le doctorat de troisième cycle, enfin, créé à partir de 1954, est destiné à mettre en place une formation à la recherche. S’il n’accorde officiellement que des prérogatives limitées, sa création constitue sans doute la réforme la plus discrète et la plus profonde de l’enseignement supérieur au XXe siècle. Jusque-là le doctorat gardait de ses origines l’absence d’ambition de formation, se limitant à la rédaction et à la soutenance des thèses, l’idée fondamentale étant que le talent savant apparaît aléatoirement, qu’il ne se cultive ni ne se renforce, que la thèse est et ne peut être qu’une œuvre personnelle.

Avec la massification de l’activité scientifique, cette conception recule, à mesure que le développement du travail en équipe impose l’existence d’une formation commune aux chercheurs, à des vitesses variables selon les disciplines.

Les doctorants, indispensables aux laboratoires

Tout laisse à penser que c’est l’expansion et la massification de l’enseignement supérieur et de la recherche opérées dans les années 1950-1960 dans un contexte de plein emploi qui ont transformé le rôle des candidats et candidates au doctorat.

Les sciences, en particulier les sciences physiques, sont là au premier plan : entre 1944 et 1968, si le nombre d’étudiants des facultés des sciences quintuple, celui des docteurs ès sciences est multiplié par treize. Leur rôle devient alors indispensable à l’activité scientifique elle-même. Depuis cette période, les laboratoires ont besoin d’un apport constant de doctorants et doctorantes, tout en ne pouvant leur offrir de perspectives de carrière académique stable qu’en période de croissance du système d’enseignement supérieur et de recherche.

Chaque période de ralentissement de la croissance universitaire provoque dès lors, mécaniquement, des désajustements entre anticipations des doctorants d’une part, nécessités de l’enseignement et de la recherche d’autre part, et, enfin, réalités des opportunités d’emplois.

Les premiers constats concernant les difficultés d’insertion des docteurs et docteures sur le marché du travail datent ainsi du début des années 1970. Ces difficultés sont provoquées par la fermeture brutale des recrutements : la création nette d’emplois dans l’enseignement supérieur et dans la recherche publique passe de 15 à 2 % entre 1968 et 1973, alors que le nombre de docteurs augmente de 60 %.

Pour sortir de cette impasse, dès 1971, le doctorat commence à être présenté comme une formation « par » et non seulement « pour » la recherche, afin de faciliter le passage de ses détenteurs et détentrices vers l’extra-académique. L’Association nationale des docteurs ès sciences (Andès), créée en octobre 1970, se fait le fer de lance de cette conception, avec comme objectif de jouer un rôle dans le rapprochement entre docteurs et industries.

Dans son orbite apparaissent progressivement des associations d’aide au placement dans les entreprises, appelées « bourses de l’emploi », à l’initiative des physiciens de Grenoble et d’Orsay. Ces structures se fédèrent en juin 1980 au sein de l’Association Bernard-Grégory (ABG).

Tout laisse à penser que la création du doctorat unique en 1984, soutenue par l’Andès, l’ABG et en particulier son président Jacques Friedel, avait ainsi pour objectif d’ouvrir le champ des possibles des jeunes chercheurs, en mettant en commun les avenirs offerts par des titres aussi différents que le titre d’ingénieur-docteur, le doctorat de troisième cycle et le doctorat d’État, tout en réservant à un autre titre, créé pour l’occasion, l’habilitation à diriger des recherches (HDR), la reproduction du sommet de la hiérarchie universitaire.

Mais l’image du doctorat s’en trouve dès lors durablement brouillée, tant il apparaît dès lors destiné à des secteurs d’emplois variés. La question qui se pose dès lors est de savoir comment cristalliser à nouveau une identité claire pour ce diplôme – indépendamment des coups de barre ministériels.

The Conversation

Pierre Verschueren a reçu des financements de GIS CollEx Persée.

ref. À quoi sert le doctorat ? Ce que nous apprend l’histoire du diplôme le plus élevé de l’université – https://theconversation.com/a-quoi-sert-le-doctorat-ce-que-nous-apprend-lhistoire-du-diplome-le-plus-eleve-de-luniversite-257918

Les vacances scolaires en France : deux siècles de réformes et de controverses

Source: The Conversation – Indonesia – By Julien Cahon, Professeur des universités, Université de Picardie Jules Verne (UPJV)

Comment répartir sur l’année les périodes de vacances et dans quel sens réajuster les horaires scolaires pour qu’ils se calquent au mieux sur les besoins des plus jeunes ? La question est au cœur de la Convention citoyenne sur les temps de l’enfant qui va se réunir à partir du 20 juin jusque fin novembre 2025. Mais elle agite de longue date la société française.


« L’opinion du pays est qu’on donne trop de congés dans les établissements scolaires. » Cette affirmation ne fait pas suite aux récentes déclarations de l’actuelle ministre de l’éducation nationale Élisabeth Borne et du président de la République Emmanuel Macron, qui souhaitent raccourcir le temps des vacances scolaires, mais vient d’une lettre du principal du collège communal de Beauvais au recteur de l’académie d’Amiens, datée du 21 octobre 1835 !

Le sujet, sur lequel doit réfléchir la Convention citoyenne sur les temps de l’enfant qui s’ouvre le 20 juin prochain, est en effet aussi ancien que complexe. La durée et l’échelonnement des vacances scolaires ont-ils toujours été les mêmes depuis deux siècles ? Quelle est l’importance des vacances d’été dans ce calendrier annuel ? Celui-ci a-t-il beaucoup changé au cours des XIXe et XXe siècles ?

Au XIXᵉ siècle, des vacances d’été aux dates fluctuantes

Au XIXe siècle, la vie scolaire et le temps des vacances sont essentiellement rythmés par des repères agricoles et religieux. À la suite de la loi Guizot sur l’organisation de l’instruction primaire (1833), la durée des vacances est fixée à six semaines (maximum) par le statut du 25 avril 1834, premier règlement général sur les écoles élémentaires.

Les dates de début et de fin des vacances sont déterminées par les préfets, en lien avec les conseils départementaux de l’instruction publique à partir de 1854, puis par les recteurs à partir de 1887. Elles varient donc localement entre mi-août (après le 15, fête catholique de l’Assomption) et début octobre.

Jusqu’à la fin du XIXe siècle, les nouveaux règlements confirment ces modalités. Dans une circulaire ministérielle du 1er août 1866, Victor Duruy estime qu’il n’est « pas possible de fixer une date uniforme pour l’ouverture des vacances dans toute la France : le climat, les cultures ne sont pas les mêmes partout, et […] il y a un grand intérêt à faire coïncider les vacances avec l’époque où les enfants abandonneraient les écoles pour les travaux des champs ».

Dans l’enseignement secondaire, les vacances sont également de six semaines puis passent à huit et à douze semaines, en 1891 et en 1912 : elles s’étalent ainsi du 1er août puis du 14 juillet au 30 septembre et correspondent de cette manière aux périodes de loisirs des familles bourgeoises de l’enseignement secondaire et au moment des gros travaux agricoles (moissons, vendanges) dans l’enseignement primaire (école du peuple).

Création de « petites vacances » dans l’entre-deux-guerres

Jusqu’à la fin du XIXe siècle, il n’existe par ailleurs pas de « petites vacances », seulement un jour de congé le 1er janvier, le 14 juillet et lors des principales fêtes catholiques : Noël, Toussaint, Pentecôte, « Mardi Gras » et Pâques.

Dans l’entre-deux-guerres, la tendance est à la convergence des calendriers scolaires annuels des établissements primaires et secondaires. La durée des vacances estivales est ainsi allongée à deux mois dans les écoles primaires en 1922, du 31 juillet au 30 septembre. Les vacances de Pâques durent désormais une semaine et demie, soit deux jours avant Pâques et la semaine suivante.


Tous les quinze jours, nos auteurs plongent dans le passé pour y trouver de quoi décrypter le présent. Et préparer l’avenir. Abonnez-vous gratuitement dès aujourd’hui !


À compter du début des années 1930, les autorités locales tendent à aligner au moins les dates de départ pour tous les ordres d’enseignement. En 1933, le député André Cornu organise un référendum auprès de tous les conseillers généraux de France qu’il consulte sur la question de fixer le début des vacances au 1er juillet pour l’enseignement secondaire et au 14 juillet pour l’enseignement primaire. Il justifie une telle mesure par des arguments sanitaires : la fatigue des jeunes élèves et les conséquences des fortes chaleurs de juillet qui les accablent, alors que ce sont les jours les plus longs et les plus profitables pour « revivifier des organismes surmenés ».

Il existe par ailleurs des enjeux économiques : la fixation des dates des vacances peut être « préjudiciable aux affaires et au commerce » selon la Chambre de commerce de Bretagne et le syndicat général des cidres et fruits à cidre – les enfants constituant toujours une main-d’œuvre agricole d’appoint. Des inspecteurs d’académie avancent, eux, des arguments d’ordre pédagogique, concernant notamment l’organisation des examens de fin d’année.

La durée des vacances d’été des écoles primaires est alignée sur celles des collèges et lycées par Jean Zay, en 1938, et portée à dix semaines (du 14 juillet au 30 septembre) pour tous les niveaux d’enseignement, suite à la loi sur les congés payés. Cet alignement est aussi révélateur d’enjeux pédagogiques et sociaux, comme l’explique Jean Zay dans ses mémoires (Souvenirs et Solitudes) :

« Les éducateurs signalaient depuis longtemps que, dans la deuxième quinzaine de juillet, sous la canicule, le travail scolaire devenait nul ; on se bornait à somnoler sur les bancs et à soupirer en regardant les fenêtres. Les familles, de leur côté, se plaignaient de ne pouvoir organiser leurs vacances à leur guise, pour peu qu’elles eussent un enfant au lycée et un autre à l’école primaire. Le premier était libre au 15 juillet, le second au 31. Je décidai que tous deux s’en iraient ensemble le 15. Mais comme il ne convenait pas que cette unification eût pour résultat de laisser dans la rue les enfants pauvres, elle fut accompagnée d’une nouvelle et large organisation de garderies et de colonies de vacances. »

En 1938-1939, le calendrier scolaire annuel, désormais national, officialise les vacances de Noël, du 23 décembre au 3 janvier, inclut des vacances la semaine du « Mardi Gras » (en février) tandis que celles de Pâques durent désormais deux semaines.

Depuis les années 1950, allongement et multiplication des temps de vacances

À partir des années 1950 se met peu à peu en place le système actuel, dans un contexte de massification et de réforme du système éducatif. En 1959, les vacances d’été sont déplacées de quinze jours, du 1er juillet au 15 septembre. Elles durent toujours 10 semaines à tous les niveaux (pour 37 semaines de cours) mais, en réalité, l’année scolaire est souvent écourtée par l’organisation des examens et procédures d’orientation dans le second degré. À partir de 1959 également, cinq semaines de congés jalonnent l’année scolaire de tous les élèves, dont une libérée et partagée entre la Toussaint et la mi-février pour aérer deux premiers trimestres allongés. Les quatre autres sont réparties entre Noël et Pâques.




À lire aussi :
Les jeunes Français ont-ils trop de vacances scolaires ?


À partir de 1965, les académies sont réparties en deux zones afin d’organiser des départs décalés (de dix jours) pour les vacances d’été, mais ce zonage est abandonné dès 1969. En 1967-1968 est créé le premier zonage pour les vacances de février. En 1969-1970, les vacances de février (comme celles de la Toussaint) sont doublées à huit jours, puis ramenées à quatre jours dès 1970-1971. Il s’agit de répondre « au vœu de la majorité des parents que leurs occupations professionnelles empêchent de s’occuper de leurs enfants les jours ouvrables », selon les mots du ministre de l’éducation nationale Olivier Guichard.

C’est en 1972, après les Jeux olympiques d’hiver de Grenoble, que les vacances d’hiver (une semaine) sont créées et durablement instaurées, ainsi que le découpage des académies en trois zones. Pour certains chefs d’établissement, cette semaine de vacances est « une aberration pédagogique si l’on se place du point de vue des enfants », car les « petits congés démobilisent les élèves ».

Zones de vacances : cinquante ans d’ajustement (INA Actu, 2019).

Ce débat met aussi en jeu de puissants intérêts économiques, avec l’industrie touristique et les transports. Leur objectif est double : éviter l’engorgement sur les routes et la concentration de l’occupation des lieux de vacances.

En 1986, le rapport du recteur Magnin, remis au ministre René Monory, préconise également une réduction des vacances compensée par un allégement des journées de classe. Le débat sur l’organisation des vacances scolaires rejoint celui de l’organisation de la journée et de la semaine, jusqu’alors pensées séparément. C’est à partir des années 1990, dans le cadre du débat sur la semaine de 4, 4,5 ou 5 jours, que les vacances d’été sont réduites de douze jours pour les écoles ayant choisi la semaine de 4 jours et effectuant une rentrée anticipée fin août (le volume horaire annuel de cours doit, en effet, rester le même pour tous).

Auparavant, le calendrier annuel 7/2 – c’est-à-dire sept semaines de travail et deux semaines de vacances – a été adopté par Jean-Pierre Chevènement pour l’année scolaire 1986-1987 avec des vacances d’été de neuf semaines programmées du 30 juin au 3 septembre. La loi d’orientation sur l’éducation de 1989, dite loi Jospin, précise que l’année scolaire comporte désormais 36 semaines, réparties en cinq périodes de travail de durée comparable, séparées par quatre périodes de vacances. Cette loi prévoit aussi un calendrier scolaire fixé pour un cycle de trois années. Les vacances de la Toussaint oscillent entre une semaine et dix jours jusqu’en 2013 : elles passent alors à deux semaines et celles d’été à huit semaines.

C’est aussi dans les années 1980-1990 que la question de l’organisation des vacances scolaires est reliée à la qualité des apprentissages des élèves et aux enjeux de lutte contre l’échec scolaire, qui s’est affirmé comme problème social et politique. C’est notamment l’une des mesures phares du programme de Jacques Chirac lors de la campagne présidentielle de 1995, que le candidat RPR mène sur le thème de « la fracture sociale » : réduire de trois semaines les vacances estivales afin de mettre en place une semaine scolaire de cinq jours aux horaires allégés.

En 2013, le ministre de l’éducation nationale Vincent Peillon préconise aussi de raccourcir les vacances d’été de huit à six semaines après la difficile mise en œuvre de sa réforme des rythmes scolaires hebdomadaires et quotidiens.

En rouvrant un débat qu’il avait lui-même clos en 2017 et en annonçant une énième concertation sur le sujet (après celles de 2011 et de 2012 notamment), Emmanuel Macron vient probablement de relancer la controverse… dans l’intérêt des élèves ?

The Conversation

Julien Cahon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les vacances scolaires en France : deux siècles de réformes et de controverses – https://theconversation.com/les-vacances-scolaires-en-france-deux-siecles-de-reformes-et-de-controverses-257196

Crises énergétiques en Europe : le grand retour du « refoulé »

Source: The Conversation – Indonesia – By Patrice Geoffron, Professeur d’Economie, Université Paris Dauphine – PSL

Du mouvement des gilets jaunes à la guerre en Ukraine, aux menaces sur le détroit d’Ormuz, les crises récentes ont révélé les vulnérabilités énergétiques de l’Union européenne. Dans un monde où la géopolitique domine à nouveau les marchés d’hydrocarbures, le Green Deal constitue tout autant une assurance collective pour les Européens, qu’un impératif climatique.


Les chocs pétroliers des années 1970 ont marqué profondément le paysage économique mondial. Les effets socio-économiques durables qui en ont découlé n’ont jamais été totalement effacés. La combinaison d’une inflation et d’un chômage élevés, conceptualisée sous le terme de « stagflation », ont notamment provoqué une fragilisation de l’industrie lourde européenne et une montée structurelle du chômage. À partir du milieu des années 1980, et pendant une quinzaine d’années s’est installé un « contre choc pétrolier », avec un reflux massif des prix jusqu’à 10 dollars en 1999, soit quatre fois moins qu’au moment des records atteints durant la décennie 1970.

Mais ce reflux n’aura été qu’une parenthèse car, depuis le début des années 2000, les marchés énergétiques se caractérisent par une volatilité extrême, illustrée par le caractère erratique du prix du pétrole qui a varié de 20 à 150 dollars le baril depuis le début de notre siècle. Cette instabilité reflète les soubresauts de la globalisation économique et débouche sur une incertitude permanente. Elle constitue un défi majeur pour les politiques énergétiques et économiques des États, rendant difficile la planification à long terme, en particulier pour l’UE qui est particulièrement dépendante en importation d’hydrocarbures. La France, qui importe 99 % de son pétrole et 96 % de son gaz, ne fait pas exception. Et, à l’évidence, l’affirmation d’une domination énergétique des États-Unis, sous Trump 2, renforce les menaces sur l’Europe.

Nouveaux risques énergétiques

Au-delà de l’instabilité des prix, de nouveaux risques énergétiques sont apparus ces dernières années. Les dérèglements climatiques affectent directement les infrastructures énergétiques, fragilisant les réseaux électriques face aux événements météorologiques extrêmes et perturbant le cycle de l’eau essentiel au fonctionnement de nombreuses installations. Parallèlement, la numérisation croissante des systèmes énergétiques expose à des menaces de cybersécurité. Ajoutée à cela, la transition énergétique est sous contrainte d’approvisionnement en minerais dits « critiques », du cuivre au lithium, essentiels au déploiement des technologies bas-carbone.

Dans ce contexte, la politique de décarbonation de l’UE, avec le Green Deal comme fer de lance, doit être considérée comme une assurance collective des Européens contre de nouveaux chocs. Pour le comprendre, il est important de revenir sur les chocs énergétiques récents, de la crise des gilets jaunes à la guerre en Ukraine, et sur la crise latente résultant de la géopolitique mondiale sous la nouvelle administration Trump.




À lire aussi :
Trump 2.0 : l’occasion pour l’Europe de bâtir une vraie politique de sobriété ?


Retour sur la crise des gilets jaunes

Le mouvement des gilets jaunes, qui a émergé en France en octobre 2018, offre un cas d’étude révélateur des mécanismes à l’œuvre dans les crises énergétiques contemporaines. Cette mobilisation sociale sans précédent a été déclenchée par une conjonction de facteurs énergétiques et fiscaux. Entre 2016 et 2018, le cours du baril de pétrole a pratiquement doublé sur les marchés internationaux, de 40 à 80 $. S’est exercée alors une forte pression à la hausse sur les prix à la pompe.

Simultanément, le gouvernement français poursuivait la montée en puissance de la taxe carbone, mise en place en 2014 sous le gouvernement Ayrault et inscrite dans la loi relative à la transition énergétique pour la croissance verte en 2015. Cette taxe, intégrée à la TICPE (Taxe Intérieure de Consommation sur les Produits Énergétiques) vise à faire payer les pollueurs, mais se répercute dans les faits jusqu’au consommateur final par une hausse des prix. Elle devait suivre une trajectoire d’augmentation programmée, passant de 7 € par tonne de CO2, lors de sa création, à 100 € par tonne en 2030.

Des effets redistributifs ignorés

L’erreur fondamentale commise par les autorités a été l’absence de prise en compte des effets redistributifs de cette politique fiscale. La hausse des prix des carburants, dans ce contexte de fort rebond du cours de l’or noir, a frappé particulièrement les ménages des zones périurbaines et rurales, fortement dépendants de l’automobile pour leurs déplacements quotidiens. Cette situation a mis en lumière le retard considérable dans la mise en œuvre des efforts de transition environnementale, notamment l’efficacité thermique des logements (en particulier pour les ménages chauffés au fioul) et la décarbonation des transports. Ces habitants, souvent modestes et contraints à l’usage d’un véhicule individuel, se sont retrouvés dans une situation de pression budgétaire accrue, voire de précarité énergétique, ce qui a alimenté un sentiment d’injustice sociale et d’iniquité territoriale. Face à l’ampleur de la contestation, le gouvernement a dû renoncer à la poursuite des augmentations prévues de la taxe carbone, qui est ainsi restée figée à 45 euros par tonne de CO2 depuis 2019.

La réponse politique joue un rôle crucial dans la transformation des chocs énergétiques en crise sociale et économique. Une taxation « élastique », fixée en fonction des prix des carburants, aurait amorti les effets des fluctuations du prix du baril au lieu d’en accentuer le mouvement comme c’est le cas actuellement. Un tel système aurait pu amoindrir cette crise. Il permettrait d’abaisser efficacement les pics de prix à la pompe et les menaces pour la stabilité sociale qui en découlent, tout en ayant un impact limité, voire positif, sur les finances publiques.

Une reconfiguration brutale

Trois ans après la crise des gilets jaunes, c’est un choc international qui a cette fois bouleversé le paysage énergétique européen. Le conflit en Ukraine, déclenché en février 2022, est non seulement une rupture pour le marché énergétique européen, mais, très au-delà, a débouché sur une restructuration mondiale des flux fossiles. L’Union européenne s’est rapidement engagée dans une prise de distance avec la Russie, avec des embargos sur le charbon, le pétrole et ses dérivés, et en réduisant massivement les importations de gaz. Cette reconfiguration brutale des flux d’approvisionnement a produit un choc économique d’une ampleur considérable : la facture des approvisionnements énergétiques a bondi à plus de 9 % du PIB de l’UE, contre 2 % en 2020, soit un niveau proche du second choc pétrolier de 1979-1980.

L’impact macroéconomique a nécessité des interventions massives des gouvernements européens sous forme de boucliers tarifaires et autres amortisseurs. Le coût total de ces mesures pour l’Union européenne (et le Royaume-Uni) en 2022 a été estimé à plus de 600 milliards d’euros, pesant sur des dettes publiques déjà fragilisées par la pandémie de Covid-19. Malgré ces efforts, l’inflation des prix énergétiques, combinée à celle des prix alimentaires, a conduit à une aggravation de la précarité dans de nombreux pays européens, tout particulièrement dans l’est de l’Union. Le ralentissement de la croissance s’est avéré particulièrement prononcé dans les pays proches de l’Ukraine, comme la Pologne et la Hongrie, qui ont également dû faire face à un afflux massif de personnes réfugiées. L’Italie et l’Allemagne, fortement dépendantes du pétrole et du gaz russes, ont également subi de plein fouet les conséquences de cette crise.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Au-delà de ces effets immédiats, cette crise a soulevé des inquiétudes concernant la compétitivité industrielle européenne, notamment face à la réaction américaine promouvant l’Inflation Reduction Act. Ce plan massif d’investissement dans les technologies vertes, lancé par l’administration Biden, a créé une asymétrie concurrentielle avec l’Europe, dont les industries étaient déjà fragilisées par les coûts énergétiques élevés. Cette situation a mis en lumière les risques de désindustrialisation du continent européen et catalysé les discussions sur la nécessité d’une politique industrielle plus affirmée, intégrant pleinement la dimension énergétique de la compétitivité. Le “détricotage” de cette politique par l’administration Trump 2 ne lève pas toutes les hypothèques qui pèsent sue l’industrie européenne dans cette bataille transatlantique.

Un paysage énergétique mondial plus que jamais instable

La poursuite du conflit en Ukraine continue de redessiner le paysage énergétique mondial. La Russie a réalloué une partie significative de ses capacités d’exportation vers l’Asie, notamment la Chine et l’Inde, créant de nouveaux axes d’échanges énergétiques qui modifient les équilibres géopolitiques mondiaux. Cette reconfiguration s’inscrit dans ce que certains qualifient de « déglobalisation énergétique », où les échanges tendent à se régionaliser et à s’organiser entre pays partageant des affinités géopolitiques, créant ainsi des blocs énergétiques distincts.

Parallèlement, la persistance de l’instabilité au Moyen-Orient ravive un risque traditionnel de perturbation du commerce pétrolier et gazier. Les tensions dans cette région sont particulièrement élevées autour du détroit d’Ormuz, marquant l’entrée du Golfe Persique au large de l’Iran (au nord) et des Émirats arabes unis (au sud). Par ce détroit, transite une part considérable du commerce mondial de pétrole et, de façon accrue, de gaz liquéfié en provenance du Qatar. Les tensions actuelles constituent une menace lancinante pour la sécurité énergétique.

Ces foyers de tensions géopolitiques créent un environnement d’incertitude chronique qui complique la planification énergétique à long terme pour les pays importateurs, tels que ceux de l’Union européenne. Cette situation renforce la perception de l’énergie comme un enjeu de sécurité collective, au-delà de sa dimension purement économique ou environnementale.

Un autre facteur d’incertitude majeur réside dans l’orientation des politiques énergétiques des grandes puissances. En 2025, l’évolution de la politique américaine sous l’administration Trump 2 suscite des préoccupations, notamment concernant son impact sur les marchés mondiaux et sur la dynamique de la transition énergétique. La défiance américaine vis-à-vis du processus onusien de l’Accord de Paris reste un facteur déterminant pour l’avancement de la coopération internationale en matière de lutte contre le changement climatique. Toute fragilisation de ce processus affaiblit les efforts nécessaires à une transition énergétique mondiale coordonnée.

Une vulnérabilité européenne structurelle

L’Europe présente une vulnérabilité énergétique structurelle qui la distingue des autres grandes puissances économiques. Composée des premiers pays ayant connu l’industrialisation au XIXe siècle (les premiers “émergents”), elle a largement épuisé ses ressources fossiles autochtones au cours de son développement. Cette réalité géologique place le continent dans une situation de dépendance chronique en matière d’importations énergétiques. Contrairement aux États-Unis, qui ont atteint une large autonomie grâce notamment à la révolution des gaz et pétroles de schiste, ou à la Chine, qui dispose encore d’importantes ressources charbonnières, l’Europe doit composer avec une dépendance structurelle aux fournisseurs extérieurs pour satisfaire ses besoins énergétiques fondamentaux.

Les importations massives de produits énergétiques fossiles pèsent lourdement sur la balance commerciale européenne et exposent les économies de l’Union aux fluctuations erratiques des prix sur les marchés mondiaux. Ces variations peuvent déclencher des chocs inflationnistes, comme l’a cruellement rappelé la crise consécutive à l’invasion de l’Ukraine. La dépendance énergétique devient ainsi un facteur de fragilité macroéconomique qui peut compromettre la stabilité socio-économique des pays européens. Les chocs de prix du pétrole et du gaz contribuent à miner les démocraties européennes, créant un terreau favorable à la montée des populismes qui exploitent le mécontentement social lié aux difficultés économiques résultantes.

France24 2024.

Une réponse stratégique

Le Pacte vert pour l’Europe, ou Green Deal, lancé par la Commission européenne fin 2019, constitue la réponse stratégique à cette double contrainte environnementale et sécuritaire. Initialement conçu dans une perspective climatique, avec un objectif de réduction des émissions de gaz à effet de serre de 40 % à l’horizon de 2030 (par rapport à 1990), ce plan a vu ses ambitions rehaussées. L’acte II du Green Deal, baptisé « Fit for 55 »](https://www.consilium.europa.eu/fr/policies/fit-for-55/), adopté en juillet 2021, a relevé cet objectif à 55 %, marquant un accroissement significatif des efforts de décarbonation de l’économie européenne.

Le Green Deal représente bien plus qu’une simple politique environnementale en visant à réduire drastiquement la dépendance aux énergies fossiles importées, induisant des vulnérabilités stratégiques, tout en fixant une ambition dans les technologies vertes à forte valeur ajoutée.

La poursuite d’objectifs ambitieux à court terme, avec le Fit for 55, ne sera soutenable que si elle s’accompagne d’une attention particulière à la question de la précarité énergétique. Le risque est réel que l’accroissement des efforts de transition, notamment à travers l’extension du marché de permis d’émission aux logements et aux transports (dit « EU ETS 2 »), aggrave cette précarité en augmentant les coûts énergétiques pour les ménages les plus vulnérables. L’expérience de la crise des gilets jaunes a démontré qu’une transition, qui néglige les impacts redistributifs, produit des résistances sociales majeures capables de compromettre l’ensemble du processus. L’enjeu pour les décideurs européens est donc de concevoir des mécanismes permettant d’atténuer l’impact de la transition sur les populations vulnérables, tout en maintenant le cap sur les objectifs climatiques. Ce chemin étroit est pourtant le seul pour l’Europe.


Cet article (dans sa version intégrale) fait partie du dossier publié par Dauphine Éclairages Conflits géopolitiques : penser au-delà du réflexe, le média scientifique en ligne de l’Université Paris Dauphine (PSL).

The Conversation

Patrice Geoffron est membre fondateur de l’Alliance pour la Décarbonation de la Route.

ref. Crises énergétiques en Europe : le grand retour du « refoulé » – https://theconversation.com/crises-energetiques-en-europe-le-grand-retour-du-refoule-259160