Repos le 1er Mai (et jours fériés) : que dit le droit ?

Source: – By Michel Miné, Professeur du Cnam, titulaire de la chaire Droit du travail et droits de la personne, Lise/Cnam/Cnrs, Conservatoire national des arts et métiers (CNAM)

Le code du travail prévoit 11 jours fériés, sans obligation de chômage pour les salariés ni de majoration de salaire en cas de travail. Pla2na/Shutterstock

Après une loi de 2004 instaurant une journée dite « de solidarité », de travail non rémunéré, initialement prévue le lundi de Pentecôte, le repos du 1er Mai est remis en cause par une récente proposition de loi. L’objectif : permettre aux employeurs de certains secteurs, notamment la boulangerie-pâtisserie, de faire travailler leurs salariés. Faire le point sur le droit applicable s’avère nécessaire.


Une proposition de loi, enregistrée au Sénat le 25 avril, vise à réduire le champ d’application de la règle du repos le 1er Mai. Le 28 avril, le Gouvernement a engagé la procédure accélérée pour faire adopter ce texte. La commission des affaires sociales du Sénat a désigné un rapporteur le 21 mai.

Cette proposition ne porterait-elle pas en germe la suppression généralisée dans le commerce du droit au repos le 1er Mai ? Permettre de faire travailler certains salariés le 1er Mai dans des commerces de proximité ne justifierait-il pas ensuite l’emploi de salariés ce jour-là, dans d’autres secteurs, au nom de la concurrence « libre et non faussée » ?

Le repos du 1er Mai s’inscrit dans la relation entre employeurs et salariés, mais trouve aussi sa raison d’être dans la nécessité de repères temporels dans la cité. Les « besoins du public », sous l’angle de la consommation, étant sans limites, doivent être contenus par des règles de droit.

Code du travail et accords collectifs

Le Code du travail prévoit 11 jours fériés. D’autres jours fériés sont prévus dans certains territoires, notamment les journées de commémoration de l’abolition de l’esclavage en Guadeloupe, en Guyane, en Martinique, à Mayotte, à La Réunion, à Saint-Barthélemy et à Saint-Martin.

Le code du travail ne prévoit pas le chômage obligatoire de ces journées, ni une majoration de salaire en cas de travail. Le chômage de jours fériés ne peut entraîner aucune perte de salaire pour les salariés totalisant au moins 3 mois d’ancienneté dans l’entreprise. Les heures de travail perdues ne donnent pas lieu à récupération.

Ce sont les accords collectifs, d’entreprise ou, à défaut, de branche, qui déterminent les jours fériés chômés. À défaut d’accord, l’employeur fixe par décision unilatérale les jours fériés chômés dans l’entreprise. Lorsque le jour férié est travaillé, les accords collectifs peuvent prévoir une majoration de la rémunération, mais ce n’est pas obligatoire.

Le régime est donc inégalitaire entre les salariés, suivant les accords collectifs de branche et d’entreprise. Certains accords d’entreprise peuvent prévoir le repos de seulement trois jours fériés dans l’année et aucune majoration de salaire pour les jours fériés travaillés.

Si la loi pouvait utilement être modifiée, elle rendrait le régime légal des jours fériés plus protecteur pour tous les salariés en assurant de meilleures contreparties aux salariés obligés de travailler les jours fériés et l’égalité de traitement.

Régime exceptionnel du 1ᵉʳ Mai

Le régime des jours fériés connaît une exception : le 1er Mai.

Cette journée trouve sa source dans l’histoire du mouvement ouvrier au niveau international. Tout d’abord aux États-Unis, où les syndicats revendiquent à partir de 1884 la journée de travail de 8 heures. Ce mouvement revendicatif donnera lieu, en 1886 et en 1887, à des grèves, des manifestations et une sanglante répression. En 1889, la IIe Internationale socialiste, réunie à Paris, décidera de faire du 1er Mai la journée internationale de lutte pour les droits des travailleuses et des travailleurs. Il en est ainsi depuis 1890.

Bannière australienne au début du siècle pour revendiquer 8 heures de travail, 8 heures de loisir et 8 heures de repos.
Wikimediacommons

Le 1er Mai exprime la solidarité des travailleuses et des travailleurs au plan international avec la revendication de la réduction de la durée du travail, à l’origine la journée de 8 heures. La convention de l’Organisation internationale du travail (OIT) n°1 de 1919 prévoit la journée de travail de 8 heures.


Du lundi au vendredi +, le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Le 1er Mai est aujourd’hui un jour férié dans 24 des 27 États membres de l’Union européenne et dans la plupart des États du monde.

En France, depuis la loi n°47-778 du 30 avril 1947, « le 1er Mai est jour férié et chômé ». Le code du travail prescrit le repos, et ce repos ne peut être une cause de réduction de salaire. Il s’agit d’une disposition légale d’ordre public.

Exceptions limitées

Par exception, des établissements et services « ne peuvent interrompre le travail en raison de la nature de leur activité ». Il s’agit notamment des hôpitaux, des hôtels et des transports en commun. Les salariés qui y travaillent ont droit, en plus du salaire correspondant au travail effectué, à une indemnité égale au montant de ce salaire, à la charge de l’employeur.

« En instituant cette exception au chômage du 1er Mai, pour les établissements et services qui ne peuvent interrompre le travail en raison de la nature de leur activité, l’article L. 3133-6 du code du travail est rédigé en termes suffisamment clairs et précis pour permettre son interprétation, qui entre dans l’office du juge pénal, sans risque d’arbitraire », rappelle l’arrêt du 20 janvier 2015, de la Cour de cassation, Chambre criminelle.

Il convient d’analyser au cas par cas chaque situation de fait afin de déterminer si, en raison de la nature de l’activité, l’interruption du fonctionnement de l’entreprise le 1er Mai est ou non possible. Par conséquent, il n’y avait pas lieu de transmettre une question prioritaire de constitutionnalité au Conseil constitutionnel.

Le repos ou, à défaut, le salaire doublé sont protégés par la loi : toute contravention aux dispositions relatives au 1er Mai est passible d’une amende de 750 €, appliquée autant de fois qu’il y a de salariés indûment employés ou rémunérés. En cas de poursuite pénale, il appartient à l’employeur, qui a fait travailler des salariés, de démontrer que la nature de son activité ne lui permettait pas d’interrompre le travail le 1er Mai.

À défaut, l’employeur est condamné pour infraction : arrêt de la Cassation criminelle du 25 juin 2013 et arrêt de la Cassation criminelle du 8 février 2000 pour les magasins de jardinerie, arrêt de la Cassation criminelle du 14 mars 2006 pour les location de DVD, etc.

Remise en cause

Une proposition de loi présentée au Sénat, fin avril, vise à réduire le champ d’application de la règle du repos le 1er Mai. Le 28 avril, trois jours après son enregistrement, le gouvernement a engagé une procédure accélérée pour faire adopter ce texte. La proposition en faisant référence à l’article L. 3132-12 vise à appliquer au repos du 1er Mai des dérogations existantes pour contourner le repos dominical.

Cette proposition « visant à permettre aux salariés de certains établissements et services de travailler le 1er Mai » est en réalité destinée à permettre aux employeurs de certains établissements et services de faire travailler les salariés le 1er Mai. Ainsi, aucune disposition ne prévoit le volontariat des salariés pour travailler ce jour, même si la notion de volontariat dans les très petites entreprises est à apprécier avec prudence.

Son article unique prévoit de modifier le code du travail comme suit : dans les établissements et services « dont le fonctionnement ou l’ouverture est rendu nécessaire par les contraintes de la production, de l’activité ou les besoins du public, mentionnés à l’article L. 3132-12 » les salariés occupés le 1er mai ont droit, en plus du salaire correspondant au travail accompli, à une indemnité égale au montant de ce salaire.

La proposition en faisant référence à l’article L. 3132-12 vise à appliquer au repos du 1er Mai des dérogations existantes pour contourner le repos dominical.

Interdiction de porter atteinte au repos des salariés

Cette proposition va à l’encontre de la jurisprudence de la Cour de cassation. Cette dernière rappelle de façon constante, notamment dans un arrêt de la Chambre criminelle du 14 mars 2006, que le code du travail n’institue aucune dérogation de principe au repos du 1er Mai en faveur des établissements et services bénéficiant du repos hebdomadaire par roulement.

L’exposé des motifs de cette proposition contenant plusieurs formulations ambiguës sur le plan juridique, certains points méritent d’être reprécisés.

« Ces règles sont d’ordre public, mais elles ne portent que sur les salariés. Ainsi, les personnes qui ne sont pas salariées et qui travaillent dans les boulangeries-pâtisseries peuvent naturellement faire le 1er Mai. », rappelle une réponse ministérielle du 20 mai 2025.

Sur la portée de l’interdiction de travail : ce qui est interdit par la loi, c’est de porter atteinte au repos des salariés. Il n’est pas interdit aux commerçants de travailler. Le boulanger peut ouvrir son commerce et vendre du pain s’il le souhaite, le fleuriste de même peut vendre du muguet. Dans l’entreprise familiale, le conjoint du chef d’entreprise peut également travailler ce jour-là.

Sur les dispositions conventionnelles applicables : la convention collective nationale de la boulangerie-pâtisserie mentionne « le 1erMai dont le régime est défini par la loi », sans contester le régime légal applicable.

Commerces et grandes surfaces

La proposition est présentée comme portant sur deux secteurs d’activité particuliers : les boulangeries et les fleuristes. Mais la formulation modifiée de l’article de loi envisagé va bien au-delà.

Comme indiqué dans la réponse ministérielle précitée :

« Le gouvernement est favorable à une évolution de la loi pour clarifier le cadre applicable et tenir compte à l’avenir, de manière pragmatique, des besoins sur certains secteurs spécifiques, dont fait partie le secteur de la boulangerie-pâtisserie. »

Une proposition de loi soutenue par le gouvernement remet en cause le repos du 1ᵉʳ Mai. Elle confirme la tendance, à la suite de la relaxe de cinq boulangers vendéens, le 25 avril 2O25, ayant fait travailler leurs salariés le 1ᵉʳ mai 2024.
PetrKovalenkov/Shutterstock

Cette proposition porte en germe la suppression généralisée dans le commerce du droit au repos le 1er Mai. Permettre de faire travailler les salariés le 1er Mai dans des commerces de proximité justifierait ensuite la demande d’ouverture et d’emploi de salariés par les grandes surfaces au nom de la concurrence « libre et non faussée ».

Une seconde proposition de loi concernant « les établissements de moins de dix salariés » s’inscrit dans la même démarche de remise en cause du repos.

Projet de société

Après la remise en cause du repos le dimanche, par la multiplication des dérogations depuis plusieurs années, après la facilitation du travail de nuit, l’ultime norme qui résiste encore serait à renverser pour satisfaire les besoins illimités du Marché.

Le repos le 1er Mai rappelle que la personne humaine ne peut être réduite à un Homo œconomicus, consommateur-travailleur. Ce temps de repos, prévu par le droit, permettant de pratiquer ses activités sociales, culturelles, de se consacrer à sa vie familiale, etc., signifie la nécessité d’une limite, la souveraineté de la limite pour faire société.

The Conversation

Michel Miné est membre de l’association RACSE – Réseau académique de la Charte sociale européenne

ref. Repos le 1er Mai (et jours fériés) : que dit le droit ? – https://theconversation.com/repos-le-1-sup-er-sup-mai-et-jours-feries-que-dit-le-droit-257404

Qu’est-ce que la « civilisation écologique » que revendique le pouvoir chinois ?

Source: The Conversation – Indonesia – By Virginie Arantes, Postdoctoral Researcher – Projet Chine CoREF, CNRS/EHESS (CECMC), Université Libre de Bruxelles (ULB)

Cette photo, prise le 5 avril 2025, montre un troupeau de cerfs du père David (_Elaphurus davidianus_) marchant sous des panneaux solaires dans une réserve naturelle de Yancheng (province de Jiangsu, est de la Chine).
AFP (hors Chine/China out), CC BY

Depuis 2007, les dirigeants chinois affirment mettre en place une « civilisation écologique ». Lorsque l’on regarde la décarbonation comme la réduction des gaz à effet de serre, alors que les États-Unis reculent, la Chine, elle avance… mais vers quelle écologie ?


Le 23 avril 2025, lors de la réunion des dirigeants sur le climat et la transition juste, [organisée par le président du Brésil Luiz Inácio Lula da Silva et le secrétaire général de l’ONU António Guterres, ndlr], Xi Jinping appelait à défendre « le système international centré sur l’ONU » et à « tenir le cap du développement vert et bas carbone », dénonçant au passage les grandes puissances qui « s’obstinent à porter l’unilatéralisme et le protectionnisme ».

Dans un contexte où les États-Unis annoncent, pour la seconde fois, leur retrait de l’accord de Paris, la Chine se présente comme une actrice centrale de la transition verte, promettant la neutralité carbone d’ici 2060 et faisant de la « civilisation écologique » la nouvelle boussole de son développement.

Mais que se cache réellement derrière cette expression, si souvent mentionnée dans les discours officiels ? Est-ce le signe d’une prise en compte accrue des enjeux environnementaux ? ou bien l’expression d’une vision stratégique, dans laquelle écologie, développement et gouvernance sont étroitement articulés ? Retour sur ce terme devenu un des piliers du pouvoir chinois actuel.

Un concept né dans l’urgence environnementale

La notion de « civilisation écologique » apparaît pour la première fois dans les discours du Parti communiste chinois (PCC) sous la présidence de Hu Jintao, en 2007. À l’époque, le concept est encore flou, mais il renvoie déjà à une réalité bien concrète : une Chine confrontée à une crise environnementale sans précédent.

De fait, plus de 60 % des grands fleuves sont gravement pollués, 90 % des cours d’eau urbains contaminés, et plus de 300 millions de personnes n’ont pas accès à une eau potable sûre. Les « villages cancers » se multiplient, les mobilisations contre les barrages, les incinérateurs ou les complexes chimiques inquiètent les autorités. En 2013, un haut responsable du Parti reconnaît publiquement que les questions environnementales sont devenues l’une des principales causes des « incidents de masse », ces protestations collectives inquiètent le pouvoir central.

Selon Yang Chaofei, vice-président de la Société chinoise des sciences de l’environnement, les conflits environnementaux augmentaient déjà de 29 % par an entre 1996 et 2011, et si le gouvernement cesse rapidement de publier les chiffres, les estimations de Sun Liping, professeur à l’Université Tsinghua, évoquent jusqu’à 180 000 protestations en 2010, dont une part importante liée à l’environnement.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Transformer une urgence en projet national

Dans ce contexte, la notion de « civilisation écologique » ne naît pas d’une révélation éthique soudaine mais d’une tentative de réponse politique à une crise sociale et écologique devenue impossible à ignorer. Le China Daily, quotidien officiel en langue anglaise publié par le gouvernement chinois, avertit dès 2007 que ce concept ne doit pas rester un slogan, mais un moteur de changement réel.

Longtemps restée périphérique, l’idée prend de l’ampleur à partir de 2012 lorsque Hu Jintao, à la tête de la Chine de 2003 à 2013, inscrit la « civilisation écologique » parmi les cinq grandes missions stratégiques du Parti, aux côtés du développement économique, politique, social et culturel. Mais c’est sous Xi Jinping, qui lui a succédé et qui est toujours au pouvoir aujourd’hui, qu’elle devient un levier central de gouvernance.

Elle est ainsi intégrée au 13e plan quinquennal en 2015, érigée en objectif stratégique au 19e Congrès du Parti en 2017, puis inscrite dans la Constitution en 2018.

L’écologie au service de la modernisation socialiste

Xi Jinping la place également dans une lecture historique continue de la modernisation chinoise : Mao aurait permis le passage de la civilisation agricole à la civilisation industrielle, Deng Xiaoping, à la tête du régime chinois de 1978 à 1989, aurait instauré une civilisation matérielle, et lui-même porterait désormais une civilisation écologique.

Mais cette écologie ne vise pas à ralentir la croissance. Elle sert au contraire à la rediriger vers : les énergies renouvelables, les hautes technologies vertes, les industries dites « propres », les zones expérimentales, les villes intelligentes. La Chine veut devenir une puissance verte, capable de combiner développement économique, stabilité sociale et rayonnement international.

Concrètement, cette stratégie s’est traduite par des investissements massifs dans les infrastructures vertes. À elle seule, la Chine représente désormais un tiers des capacités mondiales en énergies renouvelables. En 2024, elle a battu un record en installant 357 gigawatts (GW) de solaire et d’éolien, franchissant ainsi, dès maintenant, son objectif de 1 200 GW fixé pour 2030, avec six ans d’avance. Cette progression fulgurante correspond à une hausse annuelle de 45 % pour le solaire et de 18 % pour l’éolien.

Cette expansion a permis de compenser une grande partie de la croissance énergétique, si bien que les émissions de CO2 sont restées inférieures à celles de l’année précédente pendant dix mois consécutifs, malgré une hausse annuelle globale estimée à 0,8 %. Ce rebond s’explique par la reprise post-Covid et une demande exceptionnelle en début d’année, notamment liée à des vagues de chaleur record qui ont perturbé la production hydroélectrique, forçant le recours accru au charbon. Mais ce succès masque une autre réalité : l’effort climatique chinois reste avant tout technocentré, peu redistributif, et fortement dépendant de logiques industrielles lourdes, comme le charbon ou la chimie, qui continuent de croître.

Le système national d’échange de quotas d’émissions (ETS), lancé en 2021, est déjà le plus grand du monde en volume couvert. En 2024, la Chine a représenté près de 60 % des ventes mondiales de voitures électriques. Elle produit environ 75 % des batteries lithium-ion mondiales.

Si certains analystes estiment que la Chine pourrait avoir atteint son pic d’émissions en 2024, les autorités, elles, maintiennent le cap officiel d’un pic « avant 2030 » et n’ont pour l’heure annoncé aucune inflexion.

Dans son allocution de 2025 sur la transition juste, Xi associe transition climatique, réduction des inégalités et leadership global. Ce discours achève de consacrer la « civilisation écologique » non seulement comme un objectif de politique publique, mais comme un projet de civilisation, intégré à la trajectoire historique du Parti et présenté comme la voie chinoise vers la modernité durable.

Comprendre la « civilisation écologique » aujourd’hui

Aujourd’hui, la « civilisation écologique » fait partie intégrante du socle idéologique du régime chinois sous Xi Jinping. Si le terme peut paraître abstrait, voire poétique, il renvoie pourtant à un projet très concret, qui structure les politiques publiques, les plans de développement, les discours diplomatiques et l’appareil doctrinal du Parti.




À lire aussi :
Lancement de la mission Tianwen-2 : comprendre la politique spatiale de la Chine. Une conversation avec Isabelle Sourbès-Verger


Il ne s’agit pas d’une écologie citoyenne ou militante, encore moins participative. La « civilisation écologique » telle qu’elle est pensée en Chine propose une transition verte entièrement pilotée par l’État, centralisée, planifiée, hiérarchisée. Elle promet un verdissement du développement sans en transformer les fondements productivistes ni ébranler le monopole du Parti : c’est une transition par le haut, sans rupture. La nature y est conçue comme une ressource stratégique, un capital à valoriser, un levier d’accumulation et de puissance nationale.

Dans ce cadre, protéger l’environnement ne signifie pas ralentir le développement, mais le réorienter. Le mot d’ordre est de produire autrement, pas moins. Miser sur les technologies vertes, les « zones modèles », les villes intelligentes, à l’image de la nouvelle ville de Xiong’an, conçue comme un laboratoire de modernité écologique par les autorités. Une réorganisation qui, tout en intégrant le vocabulaire écologique, préserve les logiques productivistes.

Si l’on peut observer et commenter toute cette mise en action, il n’existe cependant pas, à proprement parler, de définition unique de ce qu’est la « civilisation écologique » dans les textes officiels. Plusieurs tentatives de clarification ont cependant vu le jour dans les médias proches du pouvoir ou dans les textes de vulgarisation. En 2018, un article publié sur des médias officiels la présentent comme une étape éthique et culturelle succédant à la civilisation industrielle. Elle y est décrite comme fondée sur l’harmonie entre l’homme, la nature et la société, et sur une transformation profonde des modes de vie, de production et de gouvernance. Cette vision dépasse le simple cadre chinois : elle se veut universelle, mais en partant d’une base nationalement définie.

Dans ses discours récents, Xi Jinping affirme lui que la civilisation écologique représente la quatrième grande transformation de l’histoire humaine, après les civilisations primitive, agricole et industrielle. Elle naîtrait de la crise écologique mondiale engendrée par l’industrialisation et proposerait un nouveau paradigme, qui n’abolit pas l’industrie, mais l’intègre dans une logique écologique de long terme.

Dans les discours officiels, ce tournant est présenté comme une contribution intellectuelle au marxisme contemporain. Xi insiste sur le fait que la nature ne doit plus être considérée uniquement comme un décor ou une ressource passive, mais comme une force productive à part entière. Le slogan désormais célèbre selon lequel « les eaux limpides et les montagnes verdoyantes sont des montagnes d’or et d’argent » devient dans ce cadre une véritable théorie de la valeur écologique.

La richesse ne se mesure plus uniquement en production humaine, mais aussi en valeur ajoutée naturelle. Une forêt non exploitée, un fleuve propre, un écosystème équilibré deviennent des actifs économiques valorisables. Cette idée traverse aujourd’hui les discours sur la finance verte, la comptabilité environnementale, ou les marchés du carbone, qui prennent une place croissante dans les politiques publiques chinoises. L’instauration en 2021 d’un réseau national de parcs, dont celui du panda géant ou de la forêt tropicale de Hainan, illustre cette volonté de faire du vivant un capital à la fois écologique, économique et symbolique.

Une écologie d’État aux contours mouvants

La « civilisation écologique » n’est donc pas simplement un concept environnemental parmi d’autres. C’est une forme de gouvernance verte aux contours mouvants, qui mêle planification, contrôle, innovation technologique et ambition civilisationnelle. Elle combine gestion centralisée, récit de puissance, et ambitions géopolitiques.

La « civilisation écologique » est autant une promesse de durabilité qu’un projet de souveraineté verte destiné à concurrencer les modèles occidentaux. Mais son avenir, comme celui de la transition écologique mondiale, reste suspendu à une question centrale : jusqu’où peut-on verdir un modèle de développement sans en changer les fondements ?

The Conversation

Virginie Arantes a reçu des financements du Fonds de la Recherche Scientifique – FNRS (Belgique).

ref. Qu’est-ce que la « civilisation écologique » que revendique le pouvoir chinois ? – https://theconversation.com/quest-ce-que-la-civilisation-ecologique-que-revendique-le-pouvoir-chinois-257389

Maladie de Parkinson : les limites des alternatives à l’expérimentation animale

Source: The Conversation – Indonesia – By Service Environnement, The Conversation France

En 1959 les biologistes William Russel et Rex Burch ont proposé des recommandations éthiques en expérimentation animale connues sous le terme de « règle des 3 R ». Egoreichenkov Evgenii/Shutterstock

L’expérimentation animale fait débat. La recherche scientifique est-elle prête à se passer des animaux ? Les alternatives sont-elles suffisantes ? Colin Deransart, Bertrand Favier, Sabrina Boulet et Véronique Coizet de l’Université Grenoble Alpes prennent l’exemple de la maladie de Parkinson. Voici une version courte de leur article publié sur notre site le 28 avril 2025


Régulièrement critiquée, l’expérimentation animale reste nécessaire pour améliorer nos connaissances sur certaines pathologies. Par exemple la maladie de parkinson, qui touche plus de 270 000 personnes en France. Son diagnostic est souvent posé trop tard pour envisager des traitements curatifs.

Notre équipe travaille à identifier des marqueurs précoces de la maladie. L’enjeu, à terme, est de pouvoir prendre en charge les patients avant que les dommages soient irréversibles. L’expérimentation animale permet alors de compléter les données obtenues chez l’humain.

En 1959, les biologistes William Russel et Rex Burch ont proposé la « règle des 3 R » pour encadrer l’éthique de l’expérimentation animale : remplacer, quand c’est possible, l’utilisation d’animaux par des modèles alternatifs, réduire le nombre d’animaux requis et enfin raffiner les expérimentations pour minimiser les contraintes imposées aux animaux (douleur, souffrance, angoisse…).

Dans nos recherches, nous recourons à trois modèles animaux distincts : deux sur le rat et un sur le macaque. Cela peut sembler contraire à la dernière règle, mais cela permet de recouper les données et d’augmenter leur transposabilité à l’humain. Le premier portait ainsi sur des rats traités par une neurotoxine ciblant les neurones producteurs de dopamine. Le second s’intéressait à la production d’une protéine délétère, afin d’étudier la nature progressive de la maladie. Dans le troisième une injection de neurotoxine permettait de reproduire l’évolution des phases cliniques de la maladie, avec une plus grande homologie avec l’humain.

Chaque modèle animal reproduit ainsi un stade précis de la maladie et en constitue bien sûr une simplification. Ceci a permis d’identifier six métabolites potentiellement liés au processus neurodégénératif. En les combinant, on obtient un biomarqueur métabolique composite. En le recherchant chez des patients récemment diagnostiqués mais pas encore traités, on remarque qu’il permet de les distinguer de patients sains. À la clé, la perspective de mieux suivre l’évolution de la maladie de façon moins contraignante que les méthodes d’imagerie médicale actuelle, et un espoir thérapeutique : la dérégulation de plusieurs de ces métabolites pourrait être partiellement corrigée par un médicament mimant les effets de la dopamine.

Au-delà de ces avancées, les détracteurs de l’expérimentation animale mettent souvent en avant la faible transposabilité des résultats de l’animal à l’homme pour justifier le recours exclusif aux modèles in vitro ou in silico (numériques). Or, il n’a pas été démontré que la transposabilité de ces tests soit meilleure en l’état actuel des techniques. Ils sont en réalité les premiers cribles de l’ensemble des tests préclinique, tandis que la contribution des animaux en fin de phase préclinique permet d’exclure 40 % de candidats médicaments, notamment sur la base de risques chez l’humain. Cela permet de garantir des soins de qualité.

Et cela avec un impact limité : on estime qu’au cours de sa vie, un Français moyen ne « consommera » que 2,6 animaux de laboratoire, à comparer aux 1298 animaux consommés pour se nourrir.

Ce texte est la version courte de l’article écrit par Colin Deransart, Bertrand Favier, Sabrina Boulet et Véronique Coizet de l’Université Grenoble Alpes

The Conversation

Cet article a été édité par le service Environnement de The Conversation à partir de la version longue écrite par Colin Deransart, Bertrand Favier, Sabrina Boulet et Véronique Coizet de l’Université Grenoble Alpes.

Colin Deransart a reçu des financements de la Ligue Française Contre les Epilepsies, des Laboratoires GlaxoSmithKline, de la Fondation Electricité de France, de l’ANR et d’un Programme Hospitalier de Recherche Clinique.

Bertrand Favier est membre de l’AFSTAL. Sa recherche actuelle est financée par l’ANR et la Société Française de Rhumatologie en plus de son employeur.

Boulet sabrina a reçu des financements de l’ANR, la Fondation de France, la fondation pour la Rechercher sur le Cerveau, la fondation France Parkinson.

Véronique Coizet a reçu des financements de l’ANR, la fondation France Parkinson, la Fondation de France. Elle est présidente du comité d’éthique de l’Institut des Neurosciences de Grenoble et membre du comité Santé et bien-être des animaux.

ref. Maladie de Parkinson : les limites des alternatives à l’expérimentation animale – https://theconversation.com/maladie-de-parkinson-les-limites-des-alternatives-a-lexperimentation-animale-259285

BD : L’Héritage du dodo (épisode 9)

Source: The Conversation – Indonesia – By Mathieu Ughetti, Illustrateur, vulgarisateur scientifique, Université Paris-Saclay

L’épisode 9 de notre série BD s’intéresse au sauvetage des espèces menacées. Mathieu Ughetti, Fourni par l’auteur

La crise climatique n’avance pas seule : elle est indissociable de la crise de la biodiversité. Découvrez en exclusivité, chaque mercredi, les 10 épisodes de la BD concoctée par Mathieu Ughetti et Franck Courchamp. Au programme de l’épisode 9, le sauvetage d’espèces menacées.


L’Héritage du dodo, c’est une bande dessinée pour tout comprendre à la crise du climat et de la biodiversité. Chaque semaine, on explore la santé des écosystèmes, on parle du réchauffement climatique mais aussi de déforestation, de pollution, de surexploitation… On y découvre à quel point nous autres humains sommes dépendants de la biodiversité, et pourquoi il est important de la préserver. On s’émerveille devant la résilience de la nature et les bonnes nouvelles que nous offrent les baleines, les bisons, les loutres…

On décortique les raisons profondes qui empêchent les sociétés humaines d’agir en faveur de l’environnement. On décrypte les stratégies de désinformation et de manipulation mises au point par les industriels et les climatosceptiques. Le tout avec humour et légèreté, mais sans culpabilisation, ni naïveté. En n’oubliant pas de citer les motifs d’espoir et les succès de l’écologie, car il y en a !

Retrouvez ici le neuvième épisode de la série !

Ou rattrapez les épisodes précédents :

Épisode 1
Épisode 2
Épisode 3
Épisode 4
Épisode 5
Épisode 6
Épisode 7
Épisode 8


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Rendez-vous la semaine prochaine pour l’épisode 10 !
Pour ne pas le rater, laissez-nous votre adresse mail

Ou abonnez-vous à L’Héritage du dodo sur :

Une BD de Franck Courchamp & Mathieu Ughetti
Qui sommes-nous ?

Republication des planches sur support papier interdite sans l’accord des auteurs


Créé en 2007 pour accélérer et partager les connaissances scientifiques sur les grands enjeux sociétaux, le Fonds Axa pour la Recherche a soutenu près de 700 projets dans le monde entier, menés par des chercheurs originaires de 38 pays. Pour en savoir plus, consultez le site Axa Research Fund ou suivez-nous sur X @AXAResearchFund.

The Conversation

Cette BD a pu voir le jour grâce au soutien de l’Université Paris Saclay, La Diagonale Paris-Saclay et la Fondation Ginkgo.

Mathieu Ughetti ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. BD : L’Héritage du dodo (épisode 9) – https://theconversation.com/bd-lheritage-du-dodo-episode-9-259703

Peut-on brûler toutes les réserves d’énergies fossiles et compenser en plantant des arbres ?

Source: The Conversation – Indonesia – By Alain Naef, Assistant Professor, Economics, ESSEC

Lorsque l’on parle d’atténuation du changement climatique, on pense souvent au fait de replanter des arbres, qui consomment du CO2, ou à des solutions techniques consistant à recapturer le gaz carbonique depuis l’atmosphère. Mais ces approches, si elles peuvent être intéressantes, sont irréalistes pour stocker le réchauffement, si on souhaite continuer à brûler des ressources fossiles jusqu’à épuisement.


Quand on prend l’avion, on nous offre souvent la possibilité de planter des arbres à l’autre bout de la planète pour compenser les émissions de notre vol. Un luxe qui permet aux quelques 2 à 4 % des habitants de la planète qui volent chaque année de réduire leur bilan carbone et soulager leur conscience. Mais que se passerait-il si on étendait ce luxe à toute notre économie ? Peut-on vraiment continuer à émettre du CO2 gaiement et espérer le compenser plus tard ? La question devient urgente alors que nous sommes actuellement au-dessus de 1,5 °C d’augmentation de température depuis l’ère industrielle.

Dans une nouvelle étude, nous montrons que compenser les émissions de CO2 coûte trop cher pour être une solution viable. Par exemple, si l’on souhaite capter directement le CO₂ dans l’air, le coût que cela représente est d’environ 1 000 € par tonne, selon les estimations des quelques projets existants, tels que le projet de Climeworks en Islande. La technologie fonctionne avec des ventilateurs géants qui aspirent directement le CO2 de l’air. Pour le mettre où ? Les Norvégiens ont débuté jeudi 12 juin l’installation d’une infrastructure de captage et de stockage du CO₂ sous le plancher océanique, opération marketing à l’appui. Cela parait idéal pour continuer à polluer, tout en n’affectant pas la planète.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Les estimations dans notre étude montrent que les 200 plus grandes entreprises pétrolières produiraient environ 673 gigatonnes de CO2 en brûlant leurs réserves de pétrole, gaz et charbon. Ces réserves sont inscrites dans leurs rapports annuels et il s’agit de la base de leur valorisation financière. Leurs actionnaires savent que c’est grâce à ces réserves qu’ils ont une certaine capitalisation boursière plutôt qu’une autre.

La capture et le stockage du carbone ? Hors de prix

Le problème, comme le montre notre étude, est que pour compenser les réserves actuelles des entreprises de gaz, pétrole et charbon, cela coûterait environ 673 700 milliards d’euros, soit presque sept fois le PIB mondial. Cela implique que si l’on souhaite continuer à polluer jusqu’à avoir épuisé les réserves d’énergies fossiles, nous devrions payer l’équivalent de sept ans de toute la production mondiale. À ce prix là, autant ne pas polluer.

À l’échelle des entreprises fossiles, le calcul ne serait pas rentable non plus. Pour Total Énergie, qui possède des réserves d’environ 4,25 gigatonnes de CO2 en réserves, c’est trop cher. À 1 000 € la tonne, Total devrait payer environ 4 253 milliards d’euros. C’est presque 34 fois sa valeur boursière, qui s’élève aujourd’hui à environ 126 milliards d’euros.

Dans notre étude, nous appelons cela la valeur environnementale nette, c’est-à-dire la valeur d’une entreprise fossile une fois le CO2 contenu dans ses réserves compensées. Dès que le prix pour compenser une tonne de CO2 dépasse les 150 dollars, la valeur environnementale nette des 200 plus grandes entreprises du secteur des énergies fossiles devient négative. En d’autres termes, si les entreprises fossiles devaient compenser leurs émissions, elles mettraient toutes la clé sous la porte. Heureusement pour elles, aucune législation en ce sens ne s’applique pour le moment. Certaines l’ont compris et ont commencé à investir dans des technologies génératrices d’énergie verte.

Planter des arbres ? Il faudrait recouvrir au moins toute l’Amérique du Nord !

Il existe cependant des solutions plus abordables, comme celle qu’on nous propose à bord des avions notamment : planter des arbres. Selon une étude de l’OCDE, le prix est minime puisqu’il s’élève à environ 16 dollars la tonne. Ce coût infime s’entend sans le prix du terrain : planter des arbres à Manhattan est probablement plus cher.

Les arbres sont en effet généralement composés à moitié de carbone. Pour de nombreuses espèces d’arbres, cette séquestration est la plus efficace pendant les vingt premières années de croissance. Mais pour que la plantation d’arbres capture du carbone, il faut bien sûr éviter qu’ils soient ensuite coupés ou brûlés, ce qui relâcherait à nouveau tout le carbone séquestré. Et il faut éviter de les planter dans un lieu où cela pourrait perturber l’écosystème déjà en place… Pouvons-nous donc sauver la planète en plantant des arbres ?

Dans notre étude, nous avons utilisé les moyennes de captures de carbone par les arbres, en fonction des régions où ils seraient plantés, d’ici à 2050. Si l’on voulait compenser les émissions potentielles de l’ensemble des réserves de gaz, pétrole et charbon, il faudrait planter des arbres sur une très grande surface, qui dépend des régions du monde (certaines étant plus propices que d’autres à la séquestration du carbone). Une de nos estimations est qu’il faudrait couvrir environ 27 millions de kilomètres carrés, soit l’entièreté de l’Amérique du Nord et centrale, ainsi qu’une partie de l’Amérique du Sud. Cela impliquerait de remplacer toutes les constructions, les routes, les lacs, et de planter des arbres partout, et sans compter ceux qui poussent déjà.

Bien que l’idée est absurde, la carte ci-dessous permet de se représenter la surface que cela représente. En d’autres termes, même si la plantation d’arbres peut être une bonne forme de capture de carbone, la solution n’est pas viable si on regarde les étendues des réserves de gaz, pétrole et charbon actuellement en possession des entreprises fossiles.

Et si on pousse cette idée encore plus loin, en voulant planter suffisamment d’arbres pour compenser le CO2 déjà émis au cours de l’histoire, il faudrait cette fois transformer en forêt géante non seulement l’Amérique du Nord, mais aussi l’Europe et presque toute l’Afrique, de la côte méditerranéenne jusqu’au Zimbabwe.

Des solutions utiles, mais invraisemblables sans changements profonds de nos émissions

On voit donc que la compensation carbone n’est pas une baguette magique. Si l’on veut le faire avec de la technologie, le prix actuel est bien trop élevé. De plus, il faut transporter le carbone de son lien d’émission vers le lien de stockage, par exemple de la France vers la Norvège, ce qui génère également des émissions. Les solutions naturelles sont bien sûr à favoriser, telles que la plantation d’arbres.

Mais là aussi la place manque. La solution ? Arrêter les émissions, bien sûr. Et pour les secteurs difficiles à décarboner, comme la métallurgie, l’industrie chimique ou l’agriculture, il faut d’abord diminuer les activités polluantes, et compenser pour celles qui demeurent nécessaires. La compensation carbone doit donc rester un joker à utiliser en dernier recours, et non la solution par défaut, pour réduire les émissions humaines dans un monde à +1,5 C° et qui continue de se réchauffer.

The Conversation

Alain Naef a reçu des financements de l’Agence Nationale de la Recherche (ANR).

ref. Peut-on brûler toutes les réserves d’énergies fossiles et compenser en plantant des arbres ? – https://theconversation.com/peut-on-bruler-toutes-les-reserves-denergies-fossiles-et-compenser-en-plantant-des-arbres-259330

Éclairer la ville ou protéger la biodiversité : faux dilemme

Source: The Conversation – Indonesia – By Léa Tardieu, Chercheuse en économie de l’environnement, Inrae

La pollution lumineuse affecte les écosystèmes et la santé humaine, comme le montre cette image satellitaire de l’agglomération de Montpellier de nuit. Image acquise le 26 août 2020 par Jilin-1 de CGsatellite et distribuée par La TeleScop, Fourni par l’auteur

La pollution lumineuse a de nombreux effets délétères. Elle menace la biodiversité, la santé humaine et même les observations astronomiques. Pour être efficaces, les mesures mises en place doivent toutefois dépasser l’opposition binaire entre éclairage ou extinction des feux. L’enjeu est de s’adapter à chaque situation locale.


La pollution lumineuse a considérablement augmenté ces dernières années (d’au moins 49 % entre 1992 et 2017) et continue de croître à un rythme alarmant (7 à 10 % par an). Cette progression rapide est due à la multiplication des sources de lumière artificielle, née de l’expansion urbaine et des changements dans le spectre lumineux des éclairages (couleurs plus froides qui affectent davantage les insectes, par exemple). L’effet rebond du passage à la technologie LED, qui permet d’éclairer davantage pour le même coût, aggrave la situation en multipliant les points lumineux.

Or, la lumière artificielle nocturne a de nombreux effets néfastes, désormais bien démontrés par la communauté scientifique. Elle pèse sur la biodiversité, sur la santé humaine, sur la recherche en astronomie et même, indirectement, sur les émissions de gaz à effet de serre (GES) du fait de la consommation d’énergie accrue que représente l’éclairage.

Les discours autour de l’éclairage sont aujourd’hui réduits à une logique de « tout ou rien » selon que l’on cherche à privilégier les résidents ou la biodiversité. Dépasser cette binarité est tout l’enjeu de l’étude que nous avons publiée dans Nature Cities.

Celle-ci montre que des compromis entre biodiversité et société sont possibles, mais qu’aucune politique uniforme ne sera efficace. Seule une politique d’éclairage nocturne pensée au niveau local, pour chaque point d’éclairage, adaptée au contexte environnemental et social, permettra de concilier les besoins des uns et des autres. Ceux-ci sont parfois concomitants, et parfois antagonistes.

Les multiples ravages de la pollution lumineuse

En matière de biodiversité, tout d’abord, les éclairages nocturnes perturbent une large gamme de taxons (groupes d’espèces) nocturnes comme diurnes.

Ils masquent en effet les cycles naturels d’alternance jour-nuit. La nuit constitue un habitat pour les espèces nocturnes – et représente un temps de repos pour les espèces diurnes. La nuit représente en quelque sorte une face cachée trop souvent oubliée des politiques environnementales.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Les effets de la pollution lumineuse sur la biodiversité ont pourtant été documentés à différents niveaux : à l’échelle individuelle (altérations de la physiologie, du comportement reproductif, alimentaire ou d’orientation), à l’échelle communautaire (impacts sur les interactions de compétition et de prédation), et même à l’échelle des écosystèmes. Elle affecte par exemple les processus de pollinisation, la diversité des plantes ou encore le fonctionnement des récifs coralliens tempérés et tropicaux.

Mais la pollution lumineuse représente aussi un enjeu de santé publique. Elle interfère avec les rythmes circadiens et la production de mélatonine chez l’humain, affectant ainsi les cycles de sommeil, l’éveil, les habitudes alimentaires et le métabolisme.

Elle interfère aussi avec les observations astronomiques en diminuant la visibilité des étoiles à l’œil nu. De 250 aujourd’hui en moyenne, elle pourrait chuter à seulement 100 d’ici dix-huit ans. Lorsqu’on ne peut admirer que 200 étoiles dans une ville comme Milan (Italie), un lieu non pollué en offre à nos yeux environ 2 000. Non seulement cette disparition détériore les observations scientifiques astronomiques, mais elle abîme aussi le lien culturel qui nous unit à la nuit.

La Voie lactée depuis l’observatoire de Paranal (désert d’Atacama, nord du Chili), où se trouve le Very Large Telescope (VLT). La lueur rouge à droite est due au halo de la ville d’Antofagasta, bien visible malgré sa distance, 100 kilomètres plus au nord.
Bruno Gilli/ESO, CC BY, CC BY-NC-SA

Enfin, l’éclairage associé à la pollution lumineuse est une source de consommation excessive d’énergie qui génère des émissions de CO2. La consommation énergétique liée à l’éclairage artificiel représente environ 2 900 térawattheures (TWh), soit 16,5 % de la production mondiale annuelle d’électricité et environ 5 % des émissions de CO2. Cela fait de ce secteur un enjeu incontournable pour tenir les objectifs de l’accord de Paris.

Restaurer les paysages nocturnes, un enjeu politique

La restauration des paysages nocturnes est pourtant possible, et cela, même dans les grandes villes. Cela requiert toutefois une volonté politique : il s’agit à la fois de sensibiliser à ces enjeux, mais aussi de prendre des décisions qui ne soient pas exclusivement dictées par le coût énergétique de l’éclairage et d’orienter l’urbanisme vers des systèmes d’éclairage plus durables.

Des politiques ambitieuses, aux niveaux mondial comme local, sont donc indispensables pour réduire et atténuer significativement la pollution lumineuse. Dans certains pays tels que la France, la législation nationale prescrit des mesures et des seuils d’ajustement de l’éclairage public pour éclairer plus directement les zones cibles et réduire le halo lumineux (arrêté du 27 décembre 2018 ou la nouvelle proposition de loi pour la préservation de l’environnement nocturne).

Certaines sources lumineuses artificielles peuvent avoir une température de couleur (indiquée en Kelvin, comme une température) qui se rapproche de celle de la lumière du jour.
Wikimedia, CC BY-SA

Toutefois, le respect des seuils réglementaires en termes de température de couleur, d’intensité lumineuse ou d’extinction, demeure à ce stade à la discrétion des élus locaux. La proposition de loi envisage de donner cette compétence à l’Office français de la biodiversité (OFB). Ce qui interroge, étant donné les fonctions dont il a déjà la charge, les entraves croissantes que ses agents rencontrent dans l’exercice de leur travail, et les récents appels à sa suppression.

Dépasser les arbitrages du « tout ou rien »

Certes, il ne peut être ignoré que le contexte urbain représente un défi pour les urbanistes. Ces derniers doivent, potentiellement, arbitrer entre les préférences des habitants et les besoins de la biodiversité.

« Potentiellement », car la majeure partie des mesures de réduction de la pollution lumineuse sont reçues positivement par la population. La résistance (ou la perception d’une résistance) au changement, liée à des raisons de sécurité, et cristallisée autour de l’extinction, constitue souvent le principal obstacle à leur mise en œuvre pour les élus locaux. Elle constitue aussi le principal argument pour faire machine arrière.

Notre étude publiée dans Nature Cities a été menée dans la métropole de Montpellier Méditerranée (3M), qui regroupe 31 communes, 507 526 habitants, et qui enregistre la plus forte croissance démographique de France (1,8 % par an).

La pollution lumineuse émise y est particulièrement problématique en raison de sa proximité avec le Parc national des Cévennes, l’un des six parcs français labellisés réserves internationales de ciel étoilé (Rice).

S’adapter localement aux besoins

Nous développons, dans l’étude, une analyse spatiale qui porte sur deux aspects :

  • les besoins des espèces en matière de réduction de la pollution lumineuse, d’une part,

  • et l’acceptabilité des habitants face aux changements d’éclairage de l’espace public, d’autre part.

Les besoins des espèces ont été évalués à partir d’images satellites multispectrales (c’est-à-dire, évalués dans plusieurs longueurs d’onde du spectre lumineux) à très haute résolution spatiale.

Ceci permet de délimiter deux dimensions de la pollution lumineuse :

  • le niveau d’émission lumineuse qu’émet chaque lampadaire vers le haut (la radiance),

  • et le nombre de points lumineux visibles, pour un observateur placé à 6 mètres de haut, compte tenu des objets présents dans l’espace (p.ex. : immeubles, arbres, etc.).

Nous prédisons ensuite, à partir de savoirs d’experts locaux et d’inventaires naturalistes, la connectivité du paysage (c’est-à-dire, la capacité des espèces à traverser le paysage pour passer d’un milieu habitable à un autre), avec et sans pollution lumineuse, pour six groupes d’espèces particulièrement sensibles à la pollution lumineuse ou d’intérêt pour la région. Il s’agissait ici : des insectes inféodés aux milieux humides et des Lampyridae, de deux groupes de chiroptères (chauves-souris), Rhinolophus et Myotis, d’un groupe d’espèces d’amphibiens Pelodytes, Pelobates et Epidalea calamita, et de l’engoulevent d’Europe, (qui appartient à une famille d’oiseaux nocturnes, ndlr).

Ceci a été mené en collaboration avec trois associations d’experts naturalistes : l’Office pour les insectes et leur environnement (Opie), la Ligue pour la protection des oiseaux (LPO) et le Groupe chiroptères du Languedoc-Roussillon.

Cela nous a permis, d’abord, de classer les points d’éclairage selon l’urgence à réduire la pollution lumineuse pour protéger la biodiversité. Les préférences citoyennes face à différentes mesures de réduction de la pollution lumineuse (réduction de l’intensité, extinction sur différentes périodes de la nuit, changement de couleur, etc.) ont ensuite été cartographiées à partir des résultats d’une vaste expérience de choix, c’est-à-dire une enquête durant laquelle les individus sont amenés à choisir, parmi plusieurs scénarios composites, leur option préférée. Celle-ci a été menée auprès de 1 148 habitants de la métropole.

Nous avons, enfin, croisé les besoins de la biodiversité et des citoyens pour identifier les actions sur l’éclairage public mutuellement bénéfiques et celles qui nécessitent des compromis. Les résultats ont été intégrés dans une application interactive, SustainLight, destinée à aider les décideurs et les citoyens à explorer les différentes situations possibles.

Adapter les stratégies à chaque territoire

Trois situations principales ressortent de notre analyse :

  • Certains quartiers comportant des enjeux forts pour la biodiversité peuvent bénéficier de réductions rapides de la pollution lumineuse avec le soutien des habitants.

  • Dans d’autres, situés en zones urbaines centrales avec des enjeux écologiques modérés, certaines mesures de réduction (par exemple le changement de couleur, la baisse de l’intensité, l’ajustement de la directivité/direction des luminaires pour qu’ils éclairent plus directement le sol) semblent être mieux reçues que des extinctions.

  • Des quartiers à forts enjeux écologiques, enfin, sont marqués par une forte résistance du public aux mesures d’extinction. Dans ce cas, il est possible d’avoir un éclairage plus respectueux de la biodiversité en adoptant les mesures mentionnées ci-dessus. Cela peut être accompagné d’actions de sensibilisation pour informer les résidents des multiples effets néfastes de la pollution lumineuse.

Nos travaux confirment que, pour être efficaces dans la préservation de la biodiversité contre la pollution lumineuse, les politiques d’éclairage durable doivent être socialement acceptées et tenir compte des besoins à la fois de la biodiversité et de la société.


Sarah Potin, Vincent Delbar et Julie Chaurand, de la start-up La Telescop, ont contribué à la rédaction de cet article.

The Conversation

Léa Tardieu est chercheuse à l’UMR TETIS et associée à l’UMR CIRED. Elle est membre du GDR 2202 Lumière & environnement nocturne (LUMEN) et de l’Observatoire de l’Environnement Nocturne du CNRS. Léa a reçu des financement de la Région Occitanie (projet Readynov Pollum).

Chloé Beaudet est membre du GDR 2202 Lumière & environnement nocturne (LUMEN) et de l’Observatoire de l’Environnement Nocturne du CNRS. Elle a reçu des financement de la Région Occitanie (projet Readynov Pollum).

Léa Mariton est membre du GDR 2202 Lumière & environnement nocturne (LUMEN) et de l’Observatoire de l’Environnement Nocturne du CNRS.

Maia David a reçu des financements de l’INRAE et AgroParisTech en tant que chercheuse à l’UMR Paris-Saclay Applied Economics (PSAE).

ref. Éclairer la ville ou protéger la biodiversité : faux dilemme – https://theconversation.com/eclairer-la-ville-ou-proteger-la-biodiversite-faux-dilemme-254904

Espaces « no kids » : une discrimination contraire au vivre-ensemble ?

Source: The Conversation – Indonesia – By Sylvain Wagnon, Professeur des universités en sciences de l’éducation, Faculté d’éducation, Université de Montpellier

Depuis les années 2000 se développe une offre de séjours, d’espaces touristiques ou de restaurants estampillés « no kids » dont les pouvoirs publics s’alertent. Que dit ce phénomène de ségrégation générationnelle de notre capacité à faire société ? Comment la place des enfants dans les espaces publics évolue-t-elle ?


Depuis une dizaine d’années fleurissent des initiatives estampillées « no kids » : restaurants, hôtels, avions ou événements festifs déconseillent voire interdisent la présence d’enfants. Encore marginal, le phénomène se développe rapidement en France.

Le 27 mai 2025, Sarah El Haïry, haute-commissaire à l’enfance, a reçu les fédérations du tourisme pour marquer sa désapprobation face à ce courant d’exclusion. Elle annonce à cette occasion la possibilité d’une charte à hauteur d’enfant qui rendrait illégale une telle ségrégation. Cette prise de conscience politique n’est pas nouvelle. En avril 2024, la sénatrice socialiste Laurence Rossignol avait déposé une proposition de loi visant à « reconnaître la minorité comme un facteur de discrimination afin de promouvoir une société ouverte aux enfants ».

Comment définir ce phénomène de ségrégation générationnelle ? En quoi la question de la place accordée aux enfants dans l’espace public devient-elle un révélateur de notre capacité collective à faire société ?

Un « adult only » commercial

La tendance « adult only » est née dans le secteur du tourisme balnéaire international et s’est développée dans les années 2000 en Europe méditerranéenne. En 2023, près de 1 600 hôtels dans le monde auraient été recensés comme « adult only », soit deux fois plus qu’en 2016. Ces établissements visent à exclure les enfants de certains espaces, voire de l’ensemble de l’offre, dans le cadre de stratégies marketing ciblant les adultes sans enfants ou dont les enfants sont devenus grands.

Le concept s’étend désormais au-delà du secteur hôtelier : il touche aussi la restauration, les croisières, les résidences de vacances ou encore certains parcs de loisirs. L’argument est toujours le même : une demande croissante d’adultes en quête de sérénité, qui déplorent les pleurs, le bruit ou les comportements jugés dérangeants des enfants.

« La tendance du “no kids” dans certains établissements fait polémique » (France 24, mai 2025).

C’est la question des droits fondamentaux des enfants dans la société qui est ici posée. Dès 1959, la Déclaration des droits de l’enfant adoptée par l’Assemblée générale des Nations unies affirme la nécessité de protéger les plus jeunes. Ce principe a été renforcé par la Convention relative aux droits de l’enfant, adoptée en 1989, qui précise, notamment dans son article 2, le droit de chaque enfant à la non-discrimination et, dans son article 31, le droit de participer pleinement à la vie culturelle, artistique, récréative et aux loisirs.

Dans cette vision, toute exclusion systématique des enfants de certains lieux publics va à l’encontre de ces engagements internationaux et remet en cause leur pleine intégration dans la société. À cet égard, la chercheuse Zoe Moody insiste sur l’importance de considérer les enfants non seulement comme des êtres à protéger, mais aussi comme des acteurs sociaux à part entière, titulaires de droits, capables de participer à la vie sociale et d’être entendus dans l’espace public.

Les travaux de la pédopsychiatre Laelia Benoit introduisent le concept d’« infantisme », discrimination à l’égard des enfants, qui conduit à les exclure de certains espaces ou à refuser de les considérer comme des sujets de droit à part entière.

« Mioche et gênant » : vers une discrimination ordinaire

Le statut des enfants dans notre société demeure marqué par une forme de discrimination ordinaire, souvent banalisée et peu remise en question.

Cette discrimination se traduit notamment par la persistance et la légitimation de certaines violences éducatives dites « ordinaires », malgré l’entrée en vigueur de la loi du 10 juillet 2019 qui interdit explicitement toute forme de violence éducative. Ces pratiques, parfois tolérées au nom de la tradition ou de l’autorité parentale, contribuent à maintenir l’idée que l’enfant doit être contrôlé et corrigé, plutôt qu’écouté et respecté.

Par ailleurs, l’éducation positive fait régulièrement l’objet de critiques, souvent relayées par des discours plus médiatiques que scientifiques, qui la présentent comme laxiste ou inefficace. Cette défiance à l’égard de méthodes éducatives respectueuses des droits de l’enfant révèle une difficulté persistante à reconnaître l’enfant comme un sujet de droit à part entière.

L’enfant n’est pleinement accepté que s’il reste discret, docile et presque invisible, ce qui limite profondément sa liberté d’expression et d’existence dans l’espace public, « territoire de liberté qui se restreint pour les enfants ». Le 19 février 2024, le quotidien Libération titrait en une « Moi, mioche et gênant », en analysant une exclusion de plus en plus assumée des enfants, depuis les années 1990. L’espace public s’est peu à peu adapté aux besoins de la voiture, les reléguant dans des espaces sécurisés et balisés, tels que les aires de jeux ou les cours d’école, et limitant leur autonomie de déplacement, dans une ville morcelée.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Le constat est clair, depuis plusieurs décennies, du déclin de la présence des enfants dans l’espace public. Les recherches de Clément Rivière ont mis en évidence ce repli des enfants vers l’intérieur. Un repli qui maintient aussi une inégalité de genre face à un extérieur perçu comme dangereux.

En octobre 2024, le Haut conseil de la famille, de l’enfance et de l’âge (HCFEA) posait la question : quelle place des enfants dans les espaces publics et la nature ? Avec un constat alarmant, plus de 37 % des 11-17 ans ont un mode de vie sédentaire très élevé. S’intéresser à la place des enfants dans la ville, c’est donc aborder un véritable enjeu de santé publique, mais aussi de citoyenneté et d’autonomie.

À hauteur d’enfant

Un autre mouvement, celui de « villes à hauteur d’enfant », s’affirme dans de nombreuses collectivités territoriales. Cette démarche vise à repenser la ville en tenant compte des besoins, des droits et de la participation des enfants, afin de leur permettre de se réapproprier l’espace urbain et d’y exercer pleinement leur citoyenneté.

Le concept s’est développé en France et en Europe à partir des années 2010, s’inspirant de démarches pionnières menées notamment en Italie à Fano, sur la côte adriatique, dans les années 1990 par le sociologue Francesco Tonucci. Cette tendance ne constitue pas une réaction directe au phénomène « no kids », mais elle répond plus largement à une prise de conscience des effets négatifs de l’urbanisation, de la domination de la voiture et de la diminution de l’autonomie des enfants dans la ville.

En France, les premières chartes « à hauteur d’enfant » de la métropole lilloise ou de Montpellier reposent sur l’idée que les enfants, comme tous les autres membres d’un territoire, ont le droit de se réapproprier les espaces publics, et que leur participation doit contribuer à repenser la ville.

Le sujet suscite un intérêt grandissant au sein des politiques publiques locales. Le mouvement connaît une diffusion croissante : de nombreuses collectivités, telles que Tours, Nantes, Rennes, Strasbourg, Lyon, Marseille ou Paris, s’engagent dans des démarches participatives associant les enfants à la réflexion sur l’aménagement urbain.

« Rennes, ville et métropole » (2023).

La reconnaissance de la place des enfants en ville se traduit par des aménagements variés, tels que la création de rues scolaires piétonnisées ou apaisées aux abords des écoles pour sécuriser les trajets quotidiens, le développement de parcours ludiques, d’espaces verts accessibles et de terrains d’aventure. Elle passe aussi par l’adaptation du mobilier urbain (bancs à hauteur d’enfant, fontaines, signalétique adaptée) ainsi que par le réaménagement de places publiques pour favoriser les rencontres intergénérationnelles et le jeu libre.

Entre l’essor des espaces « no kids » et le développement de politiques urbaines inclusives pour les enfants, notre société oscille entre deux visions du vivre-ensemble. La première, centrée sur l’exclusion et le confort individualisé, révèle un malaise face à la diversité des usages de l’espace public. La seconde, inclusive et participative, suggère que penser pour et avec les enfants permet de mieux vivre ensemble.

L’enjeu est donc double : reconnaître l’enfant comme sujet social et politique, et questionner les logiques d’exclusion qui fragilisent les liens intergénérationnels. Car une société qui tolère mal ses enfants est peut-être une société qui peine à se projeter dans l’avenir.

The Conversation

Sylvain Wagnon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Espaces « no kids » : une discrimination contraire au vivre-ensemble ? – https://theconversation.com/espaces-no-kids-une-discrimination-contraire-au-vivre-ensemble-258494

Séparation parentale : quelles conséquences sur le temps passé avec les enfants ?

Source: The Conversation – Indonesia – By Hélène Le Forner, Enseignante-chercheuse en économie de la famille , Université de Rennes

Une séparation parentale peut entraîner un choc économique, elle implique également une recomposition des temps partagés avec le père et avec la mère. Quels sont les mécanismes à l’œuvre et les effets observés ?


Les séparations, que les parents soient mariés ou en concubinage, sont de plus en plus fréquentes. En 2020, on estime ainsi que près de quatre millions d’enfants mineurs ont des parents séparés.

En France, les recherches font état d’un effet négatif de la séparation parentale sur la réussite scolaire des enfants, qu’elle soit mesurée par le nombre d’années d’étude ou le rendement scolaire, défini comme le salaire moyen pour un diplôme donné. Cet effet est moins marqué pour les enfants dont la séparation a lieu lorsqu’ils ont 7-9 ans ou 16-18 ans, mais plus marqué pour ceux qui avaient moins de 6 ans ou 10-15 ans au moment de la séparation, ces derniers font en moyenne des études plus courtes d’un semestre (par rapport à ceux dont les parents ne se sont pas séparés).

Ces effets sont cependant moins marqués lorsque l’on considère la réussite professionnelle, mesurée comme le revenu moyen associé à une profession et un niveau d’éducation. Seuls les enfants dont les parents se sont séparés à 4-6 ans ou à 10-12 ans demeurent affectés.

Des pertes économiques

Plusieurs mécanismes sont susceptibles d’expliquer les effets négatifs de la séparation sur les résultats scolaires. Si beaucoup pensent aux conséquences psychologiques de la séparation sur les enfants, elles demeurent incertaines et sont difficiles à quantifier pour les chercheurs en sciences sociales. Une rupture familiale peut entraîner un choc psychologique mais elle peut aussi libérer l’enfant (et ses parents) d’une situation conflictuelle.

Un deuxième mécanisme possible et bien plus étudié par les économistes tient aux pertes économiques engendrées par la séparation. Lors de la séparation, le couple perd les « complémentarités de consommation », c’est-à-dire la possibilité de mutualiser des dépenses (logement, électroménager, voiture). Ces pertes économiques sont en moyenne plus fortes chez les femmes, et notamment chez celles qui appartenaient à des couples spécialisés et dont l’ex-conjoint gagnait une part plus importante du revenu du ménage.

Un troisième mécanisme moins étudié tient à une possible baisse du temps que les enfants passent avec leurs parents. À la suite de la séparation de leurs parents, les enfants risquent de passer moins de temps avec ces derniers, notamment le parent avec lequel ils ne vivent plus. De plus, les parents perdent ce que les économistes appellent les « complémentarités de production » qui permettent de gagner du temps. Par exemple, le temps passé à cuisiner pour deux ne prend pas deux fois plus de temps que de cuisiner pour une personne. Ainsi, le temps de production de ce bien domestique augmente de manière moins que proportionnelle avec le nombre de personnes pouvant en bénéficier.




À lire aussi :
Divorce : comment les enfants gèrent-ils la vie en garde alternée ?


On estime ainsi que, pour avoir le même niveau de bien-être, deux célibataires vivant seuls ont besoin de deux heures quinze de plus que s’ils vivaient en couple. Les parents séparés n’échappent pas à cette règle et sont donc susceptibles d’être davantage contraints par le temps accordé aux tâches domestiques (repas, ménage) que lorsqu’ils étaient en couple. Par ailleurs, certains parents pourraient préférer passer du temps à deux avec leur enfant que seuls avec leur enfant. La séparation diminuerait ainsi le temps que chacun des parents passe avec l’enfant.

Enfin, il est possible que, pour faire face au choc économique que représente la séparation, les parents soient obligés d’augmenter le temps passé dans la sphère du travail, au détriment du temps passé avec leur enfant.

Des emplois du temps recomposés

Aux États-Unis, un enfant qui vit seul avec sa mère voit son temps passé avec au moins un parent présent baisser de trois heures et demie par semaine. Cette baisse concerne plusieurs types d’activité : tâches ménagères, besoins personnels, activités éducatives, tandis que le temps de loisirs n’est pas affecté. En revanche, lorsque l’on considère le temps passé dans une activité à laquelle le parent participe, on n’observe pas de baisse du temps parental, hormis pour le temps passé dans les tâches ménagères. L’enfant ne change pas non plus le temps qu’il passe dans chacune de ses activités.

Lorsque l’on regarde plus précisément la décomposition du temps parental entre le temps passé avec la mère seule, le père seul et les deux parents ensemble, il apparaît que, suite à la séparation, dans les familles où l’enfant vit seul avec sa mère, celle-ci augmente le temps qu’elle passe seule avec l’enfant mais n’arrive pas à compenser la double perte du temps passé avec le père seul et les deux parents. Les résultats sont cohérents avec la perte des complémentarités de production, puisque le temps que les mères passent dans les tâches ménagères augmente après la séparation. En revanche, elles tendent à diminuer le temps qu’elles passent au travail.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Les enfants plus jeunes sont moins affectés par la baisse du temps parental, ce qui est cohérent avec de possibles mécanismes de compensation de la part des mères qui tendent à rogner sur d’autres activités (sommeil ou loisirs), ne voulant pas ou ne pouvant pas diminuer le temps qu’elles passent avec leurs jeunes enfants.

La baisse du temps parental est à nuancer au regard de l’implication d’autres personnes de l’entourage.

Tout d’abord, les résultats cités plus haut se concentrent sur le temps passé avec le parent seul, en l’absence d’autre adulte. Le temps parental défini comme le temps passé avec au moins un parent présent, éventuellement en présence d’un autre adulte, n’est pas affecté par la séparation. Ainsi, les mères de familles monoparentales tendent à s’entourer d’autres personnes lorsqu’elles passent du temps avec leur enfant.

De plus, le temps que l’enfant passe avec au moins un adulte n’est pas affecté par la séparation, les grands-parents peuvent jouer ici un rôle important, puisque le temps que l’enfant passe seul avec l’un de ses grands-parents augmente après la séparation.

The Conversation

Hélène Le Forner a reçu des financements de Rennes Métropole et de l’Institut du Genre.

ref. Séparation parentale : quelles conséquences sur le temps passé avec les enfants ? – https://theconversation.com/separation-parentale-quelles-consequences-sur-le-temps-passe-avec-les-enfants-258235

Jouer en plein air comporte des risques – et c’est bon pour les enfants

Source: The Conversation – Indonesia – By Adele Doran, Principal Lecturer/Research & Innovation Lead, Sheffield Hallam University

sirtravelalot/Shutterstock

Lorsqu’ils grimpent aux arbres, font du vélo à vive allure ou partent en exploration en forêt, les enfants s’initient à la prise de risque et apprennent à gérer les incertitudes.


Nous traversons aujourd’hui une période de crise en ce qui concerne la santé mentale chez les jeunes. L’un des moyens d’améliorer le bien-être des enfants est de les laisser s’aventurer plus souvent hors de chez eux et participer à des jeux de plein air.

Lorsqu’ils grimpent aux arbres, bâtissent des cabanes, roulent à vélo à vive allure, construisent des radeaux ou explorent une forêt, les enfants doivent évaluer par eux-mêmes les risques à prendre et ceux à éviter. Cela leur permet d’apprendre à prendre des décisions et les prépare à être autonomes dans d’autres situations – comme l’entrée au collège puis au lycée – plutôt que de dépendre des incitations ou des directives d’un adulte.

L’exposition progressive à l’incertitude et au risque renforce la résilience et améliore le bien-être général des jeunes. Dans une recherche auprès de 622 adolescents, nous avons utilisé des questionnaires pour mesurer ces aspects avant et après leur participation à un voyage scolaire tourné vers les activités en plein air. Nous avons constaté que leur score de bien-être avait augmenté de 23 % et leur résilience de 36 %.

Les jeux de plein air favorisent l’expérimentation et l’exploration. Ils aident les enfants à développer des compétences sociales telles que la répartition des rôles et la coopération, et leur donnent ainsi des outils pour surmonter de futurs défis. Il nourrit leur curiosité. Les enfants peuvent se sentir revitalisés par le fait d’être dans la nature et de pouvoir jouer librement, sans prévoir ce qui va se passer.

Se confronter à l’inconnu

La fréquentation régulière d’une « forest school » ou classe à l’extérieur est un moyen pour les enfants de s’aventurer à l’extérieur tout en bénéficiant d’un soutien pour apprivoiser le risque et nouer une relation saine avec la nature.

L’école de la forêt ou classe à l’extérieur offre aux enfants la possibilité d’entrer en contact avec la nature, de faire l’expérience du risque, de développer des compétences sociales et d’être actifs dans leurs apprentissages. Il peut s’agir d’activités telles que cuisiner sur un feu de camp, faire de l’art et de l’artisanat dans la nature ou construire une cabane. Il peut s’agir d’une activité hebdomadaire à laquelle les enfants participent pendant quelques heures.

Les camps de vacances ou autres séjours de plus longue durée offrent d’autres occasions d’expérimenter l’apprentissage en plein air. Ils peuvent être organisés par une école ou un club et inclure une variété d’activités, telles que la course d’orientation, l’escalade, la descente en rappel et les expéditions terrestres et maritimes. Celles-ci visent à développer les compétences de leadership, la résilience, l’autonomie et la confiance. Les enfants sont stimulés par l’exploration d’environnements inconnus.

Children riding bikes outside
En jouant à l’extérieur, les enfants doivent apprendre à évaluer par eux-mêmes les risques à prendre.
Sergey Novikov/Shutterstock

Cependant, pour être bénéfiques, les jeux de plein air doivent être fréquents, progressifs et se dérouler tout au long de la vie de l’enfant. Les avantages qu’ils procurent ne peuvent pas être obtenus par une expérience unique.

Faire évoluer nos conceptions de l’école

Une option serait que la classe à l’extérieur et les jeux de plein air soient partie intégrante de la vie scolaire des enfants.

Or aujourd’hui, la valeur d’une école reste principalement mesurée par ses résultats dans quelques matières principales. Les établissements n’ont qu’une marge de manœuvre restreinte pour mettre en œuvre une gamme d’activités et de jeux qui stimulant le bien-être des élèves.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Un changement de mentalité est nécessaire pour que les écoles reconnaissent la valeur des jeux de plein air et pour que les enseignants aient les moyens de cultiver cette culture de la prise de risque à l’intérieur et au-delà des murs de l’école.

Il y a eu des appels des pouvoirs publics pour donner à tous les enfants l’opportunité de passer du temps dans la nature. Mais les progrès réels tardent.

À une époque où les enfants sont confrontés à des bouleversements sans précédent, il n’a jamais été aussi important de leur offrir des occasions quotidiennes de renforcer leur capacité à faire face aux incertitudes, et l’expérience du plein air est fondamentale en ce sens.

The Conversation

John Allan est chercheur invité à l’université de Sheffield Hallam et occupe le poste de Head of Impact and Breakthrough Learning chez PGL Beyond, un opérateur de programmes d’éducation à l’aventure.

Adele Doran et Josephine Booth ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. Jouer en plein air comporte des risques – et c’est bon pour les enfants – https://theconversation.com/jouer-en-plein-air-comporte-des-risques-et-cest-bon-pour-les-enfants-256345

À quoi sert le doctorat ? Ce que nous apprend l’histoire du diplôme le plus élevé de l’université

Source: The Conversation – Indonesia – By Pierre Verschueren, Maître de conférences en histoire contemporaine, Université Marie et Louis Pasteur (UMLP)

Dans le paysage des diplômes, le doctorat occupe une place particulière. Non seulement il s’agit du grade universitaire le plus élevé mais il ne se contente pas d’attester de la maîtrise de compétences, il prouve aussi la capacité à produire des savoirs nouveaux. Comment s’est-il fait reconnaître sur le marché de l’emploi ?


Par mesure d’économie, la loi de finances 2025 a brutalement supprimé le dispositif « Jeune docteur », qui permettait aux entreprises proposant un premier CDI à des docteurs de bénéficier d’un crédit impôt recherche (CIR) particulièrement avantageux pendant deux ans.

Une intense mobilisation s’est alors structurée, visant au rétablissement d’un système qui a permis une hausse spectaculaire du nombre de titulaires de doctorat embauchés depuis sa réforme en 2008 : on note une augmentation de 32 % en pharmacie, de 28 % en informatique.




À lire aussi :
Les chercheurs et leur évaluation : une histoire passionnelle


Cet épisode rappelle que l’apport du doctorat au monde de l’entreprise ne va toujours pas de soi, en France du moins : alors qu’il s’agit du titre le plus élevé de l’enseignement supérieur, il reste très mal connu, en particulier des recruteurs du secteur privé.

Il est vrai que le doctorat n’est pas un diplôme comme les autres : puisque la thèse sert aujourd’hui à prouver la capacité à produire des savoirs nouveaux, la soutenance est le seul examen où le jury en sait moins sur le sujet traité que la candidate ou le candidat. Or, du point de vue d’un recruteur, un diplôme sert avant tout à prouver la conformité et la maîtrise de savoirs acquis.

Comment dès lors un titre en est-il venu à prétendre certifier l’incertifiable, c’est-à-dire l’originalité et la nouveauté ? Quel est le rôle du doctorat dans l’organisation des mondes savants, dans la structuration des disciplines – et, partant, peut-il constituer un levier de politique scientifique pour certains acteurs, pour l’État mais aussi pour les entreprises ? Et au fond, qui s’engage dans une telle aventure, avec quels objectifs et pour quels résultats ?

Entre spécialisation et érudition, la jeunesse du doctorat

Pour peser ces enjeux du doctorat, le projet Ès lettres – Corpus des thèses de doctorat ès lettres en France au XIXe siècle s’est penché sur son histoire, en partant de la création de l’Université impériale en 1806-1808 : c’est à ce moment-là que le doctorat acquiert sa place de sommet des études dans les facultés des sciences et des lettres. Il est alors conçu comme une barrière et un niveau régulant l’accès au sommet de la hiérarchie universitaire. Il répond là à un besoin, délimiter le sommet de la nouvelle corporation enseignante laïque que Napoléon Ier veut au service de l’État.

Les thèses ne font alors qu’une ou deux dizaines de pages, puisqu’il n’est pas question de faire progresser le savoir ou la science : le doctorat doit surtout permettre de démontrer une certaine habileté rhétorique, une maîtrise des savoirs et pratiques canoniques.


Tous les quinze jours, nos auteurs plongent dans le passé pour y trouver de quoi décrypter le présent. Et préparer l’avenir. Abonnez-vous gratuitement dès aujourd’hui !


Mais les fonctions concrètes du titre dépassent rapidement cet objectif. À partir des années 1830, à la suite de l’action de Joseph-Victor Leclerc, doyen de la faculté des lettres de Paris de 1832 à 1865, les thèses deviennent des livres, de plus en plus épais. Ce n’est que dans un second temps que les règlements actent cette évolution de fait, en 1840 pour les facultés des lettres et en 1848 pour celles des sciences. On comprend ainsi mieux que Louis Pasteur, dans une lettre au ministre de l’instruction publique du 1er septembre 1848, tienne encore à préciser : « mes thèses pour le doctorat sont des thèses de recherche ».

À partir des années 1860, la quête de distinction pousse non seulement les impétrants à soumettre des savoirs nouveaux, mais aussi à chercher l’érudition et l’exhaustivité. La IIIᵉ République achève de canoniser la thèse, autour de ces valeurs de spécialisation, de nouveauté et d’érudition, ce que marque par exemple la création en 1885 d’un Catalogue des thèses et écrits académiques, national et officiel, dont la publication est assurée par le ministère de l’instruction publique – première initiative mondiale de ce type.

Diversifier les profils et attirer des étudiants étrangers

Le titre monte en puissance mais n’intéresse alors que les carrières universitaires. La question d’éventuels autres usages du titre ne se pose pas au XIXe siècle, où le nombre de doctorats décernés ne dépasse guère les besoins de la reproduction du système, dans un contexte où l’immense majorité des candidats, en sciences comme en lettres, préparent leur thèse en enseignant dans le secondaire. On compte ainsi, pour la totalité de ce siècle, un peu plus de 1 000 docteurs ès sciences, pour autant de docteurs ès lettres.

Au début du XXe siècle, lorsque le développement des laboratoires de sciences expérimentales, dans le secteur public comme dans l’industrie, exige un afflux de main-d’œuvre, sans élargissement des possibilités de carrière académique, cet apport est assuré par le biais de titres nouveaux, qui ne donnent aucun droit professionnel.

Le doctorat d’université, créé en 1897, est ainsi destiné à attirer des étudiants étrangers dans les laboratoires français, en allégeant les prérequis à la soutenance, mais sans leur ouvrir la carrière universitaire française. Soulignons que les étudiantes vont se saisir de cette opportunité pour renforcer leur présence dans les études doctorales : si les deux premières docteures ès lettres, Léontine Zanta et Jeanne Duportal, soutiennent en 1914, 14 femmes ont obtenu un doctorat d’université auparavant, en commençant par Charlotte Cipriani en 1901.

Le titre d’ingénieur-docteur, créé en 1923, entend quant à lui certifier des stages de deux ou trois ans dans des laboratoires de recherche académique par d’anciens élèves d’écoles d’ingénieur.

Le doctorat de troisième cycle, enfin, créé à partir de 1954, est destiné à mettre en place une formation à la recherche. S’il n’accorde officiellement que des prérogatives limitées, sa création constitue sans doute la réforme la plus discrète et la plus profonde de l’enseignement supérieur au XXe siècle. Jusque-là le doctorat gardait de ses origines l’absence d’ambition de formation, se limitant à la rédaction et à la soutenance des thèses, l’idée fondamentale étant que le talent savant apparaît aléatoirement, qu’il ne se cultive ni ne se renforce, que la thèse est et ne peut être qu’une œuvre personnelle.

Avec la massification de l’activité scientifique, cette conception recule, à mesure que le développement du travail en équipe impose l’existence d’une formation commune aux chercheurs, à des vitesses variables selon les disciplines.

Les doctorants, indispensables aux laboratoires

Tout laisse à penser que c’est l’expansion et la massification de l’enseignement supérieur et de la recherche opérées dans les années 1950-1960 dans un contexte de plein emploi qui ont transformé le rôle des candidats et candidates au doctorat.

Les sciences, en particulier les sciences physiques, sont là au premier plan : entre 1944 et 1968, si le nombre d’étudiants des facultés des sciences quintuple, celui des docteurs ès sciences est multiplié par treize. Leur rôle devient alors indispensable à l’activité scientifique elle-même. Depuis cette période, les laboratoires ont besoin d’un apport constant de doctorants et doctorantes, tout en ne pouvant leur offrir de perspectives de carrière académique stable qu’en période de croissance du système d’enseignement supérieur et de recherche.

Chaque période de ralentissement de la croissance universitaire provoque dès lors, mécaniquement, des désajustements entre anticipations des doctorants d’une part, nécessités de l’enseignement et de la recherche d’autre part, et, enfin, réalités des opportunités d’emplois.

Les premiers constats concernant les difficultés d’insertion des docteurs et docteures sur le marché du travail datent ainsi du début des années 1970. Ces difficultés sont provoquées par la fermeture brutale des recrutements : la création nette d’emplois dans l’enseignement supérieur et dans la recherche publique passe de 15 à 2 % entre 1968 et 1973, alors que le nombre de docteurs augmente de 60 %.

Pour sortir de cette impasse, dès 1971, le doctorat commence à être présenté comme une formation « par » et non seulement « pour » la recherche, afin de faciliter le passage de ses détenteurs et détentrices vers l’extra-académique. L’Association nationale des docteurs ès sciences (Andès), créée en octobre 1970, se fait le fer de lance de cette conception, avec comme objectif de jouer un rôle dans le rapprochement entre docteurs et industries.

Dans son orbite apparaissent progressivement des associations d’aide au placement dans les entreprises, appelées « bourses de l’emploi », à l’initiative des physiciens de Grenoble et d’Orsay. Ces structures se fédèrent en juin 1980 au sein de l’Association Bernard-Grégory (ABG).

Tout laisse à penser que la création du doctorat unique en 1984, soutenue par l’Andès, l’ABG et en particulier son président Jacques Friedel, avait ainsi pour objectif d’ouvrir le champ des possibles des jeunes chercheurs, en mettant en commun les avenirs offerts par des titres aussi différents que le titre d’ingénieur-docteur, le doctorat de troisième cycle et le doctorat d’État, tout en réservant à un autre titre, créé pour l’occasion, l’habilitation à diriger des recherches (HDR), la reproduction du sommet de la hiérarchie universitaire.

Mais l’image du doctorat s’en trouve dès lors durablement brouillée, tant il apparaît dès lors destiné à des secteurs d’emplois variés. La question qui se pose dès lors est de savoir comment cristalliser à nouveau une identité claire pour ce diplôme – indépendamment des coups de barre ministériels.

The Conversation

Pierre Verschueren a reçu des financements de GIS CollEx Persée.

ref. À quoi sert le doctorat ? Ce que nous apprend l’histoire du diplôme le plus élevé de l’université – https://theconversation.com/a-quoi-sert-le-doctorat-ce-que-nous-apprend-lhistoire-du-diplome-le-plus-eleve-de-luniversite-257918