Séparation parentale : quelles conséquences sur le temps passé avec les enfants ?

Source: The Conversation – Indonesia – By Hélène Le Forner, Enseignante-chercheuse en économie de la famille , Université de Rennes

Une séparation parentale peut entraîner un choc économique, elle implique également une recomposition des temps partagés avec le père et avec la mère. Quels sont les mécanismes à l’œuvre et les effets observés ?


Les séparations, que les parents soient mariés ou en concubinage, sont de plus en plus fréquentes. En 2020, on estime ainsi que près de quatre millions d’enfants mineurs ont des parents séparés.

En France, les recherches font état d’un effet négatif de la séparation parentale sur la réussite scolaire des enfants, qu’elle soit mesurée par le nombre d’années d’étude ou le rendement scolaire, défini comme le salaire moyen pour un diplôme donné. Cet effet est moins marqué pour les enfants dont la séparation a lieu lorsqu’ils ont 7-9 ans ou 16-18 ans, mais plus marqué pour ceux qui avaient moins de 6 ans ou 10-15 ans au moment de la séparation, ces derniers font en moyenne des études plus courtes d’un semestre (par rapport à ceux dont les parents ne se sont pas séparés).

Ces effets sont cependant moins marqués lorsque l’on considère la réussite professionnelle, mesurée comme le revenu moyen associé à une profession et un niveau d’éducation. Seuls les enfants dont les parents se sont séparés à 4-6 ans ou à 10-12 ans demeurent affectés.

Des pertes économiques

Plusieurs mécanismes sont susceptibles d’expliquer les effets négatifs de la séparation sur les résultats scolaires. Si beaucoup pensent aux conséquences psychologiques de la séparation sur les enfants, elles demeurent incertaines et sont difficiles à quantifier pour les chercheurs en sciences sociales. Une rupture familiale peut entraîner un choc psychologique mais elle peut aussi libérer l’enfant (et ses parents) d’une situation conflictuelle.

Un deuxième mécanisme possible et bien plus étudié par les économistes tient aux pertes économiques engendrées par la séparation. Lors de la séparation, le couple perd les « complémentarités de consommation », c’est-à-dire la possibilité de mutualiser des dépenses (logement, électroménager, voiture). Ces pertes économiques sont en moyenne plus fortes chez les femmes, et notamment chez celles qui appartenaient à des couples spécialisés et dont l’ex-conjoint gagnait une part plus importante du revenu du ménage.

Un troisième mécanisme moins étudié tient à une possible baisse du temps que les enfants passent avec leurs parents. À la suite de la séparation de leurs parents, les enfants risquent de passer moins de temps avec ces derniers, notamment le parent avec lequel ils ne vivent plus. De plus, les parents perdent ce que les économistes appellent les « complémentarités de production » qui permettent de gagner du temps. Par exemple, le temps passé à cuisiner pour deux ne prend pas deux fois plus de temps que de cuisiner pour une personne. Ainsi, le temps de production de ce bien domestique augmente de manière moins que proportionnelle avec le nombre de personnes pouvant en bénéficier.




À lire aussi :
Divorce : comment les enfants gèrent-ils la vie en garde alternée ?


On estime ainsi que, pour avoir le même niveau de bien-être, deux célibataires vivant seuls ont besoin de deux heures quinze de plus que s’ils vivaient en couple. Les parents séparés n’échappent pas à cette règle et sont donc susceptibles d’être davantage contraints par le temps accordé aux tâches domestiques (repas, ménage) que lorsqu’ils étaient en couple. Par ailleurs, certains parents pourraient préférer passer du temps à deux avec leur enfant que seuls avec leur enfant. La séparation diminuerait ainsi le temps que chacun des parents passe avec l’enfant.

Enfin, il est possible que, pour faire face au choc économique que représente la séparation, les parents soient obligés d’augmenter le temps passé dans la sphère du travail, au détriment du temps passé avec leur enfant.

Des emplois du temps recomposés

Aux États-Unis, un enfant qui vit seul avec sa mère voit son temps passé avec au moins un parent présent baisser de trois heures et demie par semaine. Cette baisse concerne plusieurs types d’activité : tâches ménagères, besoins personnels, activités éducatives, tandis que le temps de loisirs n’est pas affecté. En revanche, lorsque l’on considère le temps passé dans une activité à laquelle le parent participe, on n’observe pas de baisse du temps parental, hormis pour le temps passé dans les tâches ménagères. L’enfant ne change pas non plus le temps qu’il passe dans chacune de ses activités.

Lorsque l’on regarde plus précisément la décomposition du temps parental entre le temps passé avec la mère seule, le père seul et les deux parents ensemble, il apparaît que, suite à la séparation, dans les familles où l’enfant vit seul avec sa mère, celle-ci augmente le temps qu’elle passe seule avec l’enfant mais n’arrive pas à compenser la double perte du temps passé avec le père seul et les deux parents. Les résultats sont cohérents avec la perte des complémentarités de production, puisque le temps que les mères passent dans les tâches ménagères augmente après la séparation. En revanche, elles tendent à diminuer le temps qu’elles passent au travail.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Les enfants plus jeunes sont moins affectés par la baisse du temps parental, ce qui est cohérent avec de possibles mécanismes de compensation de la part des mères qui tendent à rogner sur d’autres activités (sommeil ou loisirs), ne voulant pas ou ne pouvant pas diminuer le temps qu’elles passent avec leurs jeunes enfants.

La baisse du temps parental est à nuancer au regard de l’implication d’autres personnes de l’entourage.

Tout d’abord, les résultats cités plus haut se concentrent sur le temps passé avec le parent seul, en l’absence d’autre adulte. Le temps parental défini comme le temps passé avec au moins un parent présent, éventuellement en présence d’un autre adulte, n’est pas affecté par la séparation. Ainsi, les mères de familles monoparentales tendent à s’entourer d’autres personnes lorsqu’elles passent du temps avec leur enfant.

De plus, le temps que l’enfant passe avec au moins un adulte n’est pas affecté par la séparation, les grands-parents peuvent jouer ici un rôle important, puisque le temps que l’enfant passe seul avec l’un de ses grands-parents augmente après la séparation.

The Conversation

Hélène Le Forner a reçu des financements de Rennes Métropole et de l’Institut du Genre.

ref. Séparation parentale : quelles conséquences sur le temps passé avec les enfants ? – https://theconversation.com/separation-parentale-quelles-consequences-sur-le-temps-passe-avec-les-enfants-258235

Jouer en plein air comporte des risques – et c’est bon pour les enfants

Source: The Conversation – Indonesia – By Adele Doran, Principal Lecturer/Research & Innovation Lead, Sheffield Hallam University

sirtravelalot/Shutterstock

Lorsqu’ils grimpent aux arbres, font du vélo à vive allure ou partent en exploration en forêt, les enfants s’initient à la prise de risque et apprennent à gérer les incertitudes.


Nous traversons aujourd’hui une période de crise en ce qui concerne la santé mentale chez les jeunes. L’un des moyens d’améliorer le bien-être des enfants est de les laisser s’aventurer plus souvent hors de chez eux et participer à des jeux de plein air.

Lorsqu’ils grimpent aux arbres, bâtissent des cabanes, roulent à vélo à vive allure, construisent des radeaux ou explorent une forêt, les enfants doivent évaluer par eux-mêmes les risques à prendre et ceux à éviter. Cela leur permet d’apprendre à prendre des décisions et les prépare à être autonomes dans d’autres situations – comme l’entrée au collège puis au lycée – plutôt que de dépendre des incitations ou des directives d’un adulte.

L’exposition progressive à l’incertitude et au risque renforce la résilience et améliore le bien-être général des jeunes. Dans une recherche auprès de 622 adolescents, nous avons utilisé des questionnaires pour mesurer ces aspects avant et après leur participation à un voyage scolaire tourné vers les activités en plein air. Nous avons constaté que leur score de bien-être avait augmenté de 23 % et leur résilience de 36 %.

Les jeux de plein air favorisent l’expérimentation et l’exploration. Ils aident les enfants à développer des compétences sociales telles que la répartition des rôles et la coopération, et leur donnent ainsi des outils pour surmonter de futurs défis. Il nourrit leur curiosité. Les enfants peuvent se sentir revitalisés par le fait d’être dans la nature et de pouvoir jouer librement, sans prévoir ce qui va se passer.

Se confronter à l’inconnu

La fréquentation régulière d’une « forest school » ou classe à l’extérieur est un moyen pour les enfants de s’aventurer à l’extérieur tout en bénéficiant d’un soutien pour apprivoiser le risque et nouer une relation saine avec la nature.

L’école de la forêt ou classe à l’extérieur offre aux enfants la possibilité d’entrer en contact avec la nature, de faire l’expérience du risque, de développer des compétences sociales et d’être actifs dans leurs apprentissages. Il peut s’agir d’activités telles que cuisiner sur un feu de camp, faire de l’art et de l’artisanat dans la nature ou construire une cabane. Il peut s’agir d’une activité hebdomadaire à laquelle les enfants participent pendant quelques heures.

Les camps de vacances ou autres séjours de plus longue durée offrent d’autres occasions d’expérimenter l’apprentissage en plein air. Ils peuvent être organisés par une école ou un club et inclure une variété d’activités, telles que la course d’orientation, l’escalade, la descente en rappel et les expéditions terrestres et maritimes. Celles-ci visent à développer les compétences de leadership, la résilience, l’autonomie et la confiance. Les enfants sont stimulés par l’exploration d’environnements inconnus.

Children riding bikes outside
En jouant à l’extérieur, les enfants doivent apprendre à évaluer par eux-mêmes les risques à prendre.
Sergey Novikov/Shutterstock

Cependant, pour être bénéfiques, les jeux de plein air doivent être fréquents, progressifs et se dérouler tout au long de la vie de l’enfant. Les avantages qu’ils procurent ne peuvent pas être obtenus par une expérience unique.

Faire évoluer nos conceptions de l’école

Une option serait que la classe à l’extérieur et les jeux de plein air soient partie intégrante de la vie scolaire des enfants.

Or aujourd’hui, la valeur d’une école reste principalement mesurée par ses résultats dans quelques matières principales. Les établissements n’ont qu’une marge de manœuvre restreinte pour mettre en œuvre une gamme d’activités et de jeux qui stimulant le bien-être des élèves.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Un changement de mentalité est nécessaire pour que les écoles reconnaissent la valeur des jeux de plein air et pour que les enseignants aient les moyens de cultiver cette culture de la prise de risque à l’intérieur et au-delà des murs de l’école.

Il y a eu des appels des pouvoirs publics pour donner à tous les enfants l’opportunité de passer du temps dans la nature. Mais les progrès réels tardent.

À une époque où les enfants sont confrontés à des bouleversements sans précédent, il n’a jamais été aussi important de leur offrir des occasions quotidiennes de renforcer leur capacité à faire face aux incertitudes, et l’expérience du plein air est fondamentale en ce sens.

The Conversation

John Allan est chercheur invité à l’université de Sheffield Hallam et occupe le poste de Head of Impact and Breakthrough Learning chez PGL Beyond, un opérateur de programmes d’éducation à l’aventure.

Adele Doran et Josephine Booth ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. Jouer en plein air comporte des risques – et c’est bon pour les enfants – https://theconversation.com/jouer-en-plein-air-comporte-des-risques-et-cest-bon-pour-les-enfants-256345

À quoi sert le doctorat ? Ce que nous apprend l’histoire du diplôme le plus élevé de l’université

Source: The Conversation – Indonesia – By Pierre Verschueren, Maître de conférences en histoire contemporaine, Université Marie et Louis Pasteur (UMLP)

Dans le paysage des diplômes, le doctorat occupe une place particulière. Non seulement il s’agit du grade universitaire le plus élevé mais il ne se contente pas d’attester de la maîtrise de compétences, il prouve aussi la capacité à produire des savoirs nouveaux. Comment s’est-il fait reconnaître sur le marché de l’emploi ?


Par mesure d’économie, la loi de finances 2025 a brutalement supprimé le dispositif « Jeune docteur », qui permettait aux entreprises proposant un premier CDI à des docteurs de bénéficier d’un crédit impôt recherche (CIR) particulièrement avantageux pendant deux ans.

Une intense mobilisation s’est alors structurée, visant au rétablissement d’un système qui a permis une hausse spectaculaire du nombre de titulaires de doctorat embauchés depuis sa réforme en 2008 : on note une augmentation de 32 % en pharmacie, de 28 % en informatique.




À lire aussi :
Les chercheurs et leur évaluation : une histoire passionnelle


Cet épisode rappelle que l’apport du doctorat au monde de l’entreprise ne va toujours pas de soi, en France du moins : alors qu’il s’agit du titre le plus élevé de l’enseignement supérieur, il reste très mal connu, en particulier des recruteurs du secteur privé.

Il est vrai que le doctorat n’est pas un diplôme comme les autres : puisque la thèse sert aujourd’hui à prouver la capacité à produire des savoirs nouveaux, la soutenance est le seul examen où le jury en sait moins sur le sujet traité que la candidate ou le candidat. Or, du point de vue d’un recruteur, un diplôme sert avant tout à prouver la conformité et la maîtrise de savoirs acquis.

Comment dès lors un titre en est-il venu à prétendre certifier l’incertifiable, c’est-à-dire l’originalité et la nouveauté ? Quel est le rôle du doctorat dans l’organisation des mondes savants, dans la structuration des disciplines – et, partant, peut-il constituer un levier de politique scientifique pour certains acteurs, pour l’État mais aussi pour les entreprises ? Et au fond, qui s’engage dans une telle aventure, avec quels objectifs et pour quels résultats ?

Entre spécialisation et érudition, la jeunesse du doctorat

Pour peser ces enjeux du doctorat, le projet Ès lettres – Corpus des thèses de doctorat ès lettres en France au XIXe siècle s’est penché sur son histoire, en partant de la création de l’Université impériale en 1806-1808 : c’est à ce moment-là que le doctorat acquiert sa place de sommet des études dans les facultés des sciences et des lettres. Il est alors conçu comme une barrière et un niveau régulant l’accès au sommet de la hiérarchie universitaire. Il répond là à un besoin, délimiter le sommet de la nouvelle corporation enseignante laïque que Napoléon Ier veut au service de l’État.

Les thèses ne font alors qu’une ou deux dizaines de pages, puisqu’il n’est pas question de faire progresser le savoir ou la science : le doctorat doit surtout permettre de démontrer une certaine habileté rhétorique, une maîtrise des savoirs et pratiques canoniques.


Tous les quinze jours, nos auteurs plongent dans le passé pour y trouver de quoi décrypter le présent. Et préparer l’avenir. Abonnez-vous gratuitement dès aujourd’hui !


Mais les fonctions concrètes du titre dépassent rapidement cet objectif. À partir des années 1830, à la suite de l’action de Joseph-Victor Leclerc, doyen de la faculté des lettres de Paris de 1832 à 1865, les thèses deviennent des livres, de plus en plus épais. Ce n’est que dans un second temps que les règlements actent cette évolution de fait, en 1840 pour les facultés des lettres et en 1848 pour celles des sciences. On comprend ainsi mieux que Louis Pasteur, dans une lettre au ministre de l’instruction publique du 1er septembre 1848, tienne encore à préciser : « mes thèses pour le doctorat sont des thèses de recherche ».

À partir des années 1860, la quête de distinction pousse non seulement les impétrants à soumettre des savoirs nouveaux, mais aussi à chercher l’érudition et l’exhaustivité. La IIIᵉ République achève de canoniser la thèse, autour de ces valeurs de spécialisation, de nouveauté et d’érudition, ce que marque par exemple la création en 1885 d’un Catalogue des thèses et écrits académiques, national et officiel, dont la publication est assurée par le ministère de l’instruction publique – première initiative mondiale de ce type.

Diversifier les profils et attirer des étudiants étrangers

Le titre monte en puissance mais n’intéresse alors que les carrières universitaires. La question d’éventuels autres usages du titre ne se pose pas au XIXe siècle, où le nombre de doctorats décernés ne dépasse guère les besoins de la reproduction du système, dans un contexte où l’immense majorité des candidats, en sciences comme en lettres, préparent leur thèse en enseignant dans le secondaire. On compte ainsi, pour la totalité de ce siècle, un peu plus de 1 000 docteurs ès sciences, pour autant de docteurs ès lettres.

Au début du XXe siècle, lorsque le développement des laboratoires de sciences expérimentales, dans le secteur public comme dans l’industrie, exige un afflux de main-d’œuvre, sans élargissement des possibilités de carrière académique, cet apport est assuré par le biais de titres nouveaux, qui ne donnent aucun droit professionnel.

Le doctorat d’université, créé en 1897, est ainsi destiné à attirer des étudiants étrangers dans les laboratoires français, en allégeant les prérequis à la soutenance, mais sans leur ouvrir la carrière universitaire française. Soulignons que les étudiantes vont se saisir de cette opportunité pour renforcer leur présence dans les études doctorales : si les deux premières docteures ès lettres, Léontine Zanta et Jeanne Duportal, soutiennent en 1914, 14 femmes ont obtenu un doctorat d’université auparavant, en commençant par Charlotte Cipriani en 1901.

Le titre d’ingénieur-docteur, créé en 1923, entend quant à lui certifier des stages de deux ou trois ans dans des laboratoires de recherche académique par d’anciens élèves d’écoles d’ingénieur.

Le doctorat de troisième cycle, enfin, créé à partir de 1954, est destiné à mettre en place une formation à la recherche. S’il n’accorde officiellement que des prérogatives limitées, sa création constitue sans doute la réforme la plus discrète et la plus profonde de l’enseignement supérieur au XXe siècle. Jusque-là le doctorat gardait de ses origines l’absence d’ambition de formation, se limitant à la rédaction et à la soutenance des thèses, l’idée fondamentale étant que le talent savant apparaît aléatoirement, qu’il ne se cultive ni ne se renforce, que la thèse est et ne peut être qu’une œuvre personnelle.

Avec la massification de l’activité scientifique, cette conception recule, à mesure que le développement du travail en équipe impose l’existence d’une formation commune aux chercheurs, à des vitesses variables selon les disciplines.

Les doctorants, indispensables aux laboratoires

Tout laisse à penser que c’est l’expansion et la massification de l’enseignement supérieur et de la recherche opérées dans les années 1950-1960 dans un contexte de plein emploi qui ont transformé le rôle des candidats et candidates au doctorat.

Les sciences, en particulier les sciences physiques, sont là au premier plan : entre 1944 et 1968, si le nombre d’étudiants des facultés des sciences quintuple, celui des docteurs ès sciences est multiplié par treize. Leur rôle devient alors indispensable à l’activité scientifique elle-même. Depuis cette période, les laboratoires ont besoin d’un apport constant de doctorants et doctorantes, tout en ne pouvant leur offrir de perspectives de carrière académique stable qu’en période de croissance du système d’enseignement supérieur et de recherche.

Chaque période de ralentissement de la croissance universitaire provoque dès lors, mécaniquement, des désajustements entre anticipations des doctorants d’une part, nécessités de l’enseignement et de la recherche d’autre part, et, enfin, réalités des opportunités d’emplois.

Les premiers constats concernant les difficultés d’insertion des docteurs et docteures sur le marché du travail datent ainsi du début des années 1970. Ces difficultés sont provoquées par la fermeture brutale des recrutements : la création nette d’emplois dans l’enseignement supérieur et dans la recherche publique passe de 15 à 2 % entre 1968 et 1973, alors que le nombre de docteurs augmente de 60 %.

Pour sortir de cette impasse, dès 1971, le doctorat commence à être présenté comme une formation « par » et non seulement « pour » la recherche, afin de faciliter le passage de ses détenteurs et détentrices vers l’extra-académique. L’Association nationale des docteurs ès sciences (Andès), créée en octobre 1970, se fait le fer de lance de cette conception, avec comme objectif de jouer un rôle dans le rapprochement entre docteurs et industries.

Dans son orbite apparaissent progressivement des associations d’aide au placement dans les entreprises, appelées « bourses de l’emploi », à l’initiative des physiciens de Grenoble et d’Orsay. Ces structures se fédèrent en juin 1980 au sein de l’Association Bernard-Grégory (ABG).

Tout laisse à penser que la création du doctorat unique en 1984, soutenue par l’Andès, l’ABG et en particulier son président Jacques Friedel, avait ainsi pour objectif d’ouvrir le champ des possibles des jeunes chercheurs, en mettant en commun les avenirs offerts par des titres aussi différents que le titre d’ingénieur-docteur, le doctorat de troisième cycle et le doctorat d’État, tout en réservant à un autre titre, créé pour l’occasion, l’habilitation à diriger des recherches (HDR), la reproduction du sommet de la hiérarchie universitaire.

Mais l’image du doctorat s’en trouve dès lors durablement brouillée, tant il apparaît dès lors destiné à des secteurs d’emplois variés. La question qui se pose dès lors est de savoir comment cristalliser à nouveau une identité claire pour ce diplôme – indépendamment des coups de barre ministériels.

The Conversation

Pierre Verschueren a reçu des financements de GIS CollEx Persée.

ref. À quoi sert le doctorat ? Ce que nous apprend l’histoire du diplôme le plus élevé de l’université – https://theconversation.com/a-quoi-sert-le-doctorat-ce-que-nous-apprend-lhistoire-du-diplome-le-plus-eleve-de-luniversite-257918

Espaces « no kids » : une discrimination contraire au vivre-ensemble ?

Source: The Conversation – Indonesia – By Sylvain Wagnon, Professeur des universités en sciences de l’éducation, Faculté d’éducation, Université de Montpellier

Depuis les années 2000 se développe une offre de séjours, d’espaces touristiques ou de restaurants estampillés « no kids » dont les pouvoirs publics s’alertent. Que dit ce phénomène de ségrégation générationnelle de notre capacité à faire société ? Comment la place des enfants dans les espaces publics évolue-t-elle ?


Depuis une dizaine d’années fleurissent des initiatives estampillées « no kids » : restaurants, hôtels, avions ou événements festifs déconseillent voire interdisent la présence d’enfants. Encore marginal, le phénomène se développe rapidement en France.

Le 27 mai 2025, Sarah El Haïry, haute-commissaire à l’enfance, a reçu les fédérations du tourisme pour marquer sa désapprobation face à ce courant d’exclusion. Elle annonce à cette occasion la possibilité d’une charte à hauteur d’enfant qui rendrait illégale une telle ségrégation. Cette prise de conscience politique n’est pas nouvelle. En avril 2024, la sénatrice socialiste Laurence Rossignol avait déposé une proposition de loi visant à « reconnaître la minorité comme un facteur de discrimination afin de promouvoir une société ouverte aux enfants ».

Comment définir ce phénomène de ségrégation générationnelle ? En quoi la question de la place accordée aux enfants dans l’espace public devient-elle un révélateur de notre capacité collective à faire société ?

Un « adult only » commercial

La tendance « adult only » est née dans le secteur du tourisme balnéaire international et s’est développée dans les années 2000 en Europe méditerranéenne. En 2023, près de 1 600 hôtels dans le monde auraient été recensés comme « adult only », soit deux fois plus qu’en 2016. Ces établissements visent à exclure les enfants de certains espaces, voire de l’ensemble de l’offre, dans le cadre de stratégies marketing ciblant les adultes sans enfants ou dont les enfants sont devenus grands.

Le concept s’étend désormais au-delà du secteur hôtelier : il touche aussi la restauration, les croisières, les résidences de vacances ou encore certains parcs de loisirs. L’argument est toujours le même : une demande croissante d’adultes en quête de sérénité, qui déplorent les pleurs, le bruit ou les comportements jugés dérangeants des enfants.

« La tendance du “no kids” dans certains établissements fait polémique » (France 24, mai 2025).

C’est la question des droits fondamentaux des enfants dans la société qui est ici posée. Dès 1959, la Déclaration des droits de l’enfant adoptée par l’Assemblée générale des Nations unies affirme la nécessité de protéger les plus jeunes. Ce principe a été renforcé par la Convention relative aux droits de l’enfant, adoptée en 1989, qui précise, notamment dans son article 2, le droit de chaque enfant à la non-discrimination et, dans son article 31, le droit de participer pleinement à la vie culturelle, artistique, récréative et aux loisirs.

Dans cette vision, toute exclusion systématique des enfants de certains lieux publics va à l’encontre de ces engagements internationaux et remet en cause leur pleine intégration dans la société. À cet égard, la chercheuse Zoe Moody insiste sur l’importance de considérer les enfants non seulement comme des êtres à protéger, mais aussi comme des acteurs sociaux à part entière, titulaires de droits, capables de participer à la vie sociale et d’être entendus dans l’espace public.

Les travaux de la pédopsychiatre Laelia Benoit introduisent le concept d’« infantisme », discrimination à l’égard des enfants, qui conduit à les exclure de certains espaces ou à refuser de les considérer comme des sujets de droit à part entière.

« Mioche et gênant » : vers une discrimination ordinaire

Le statut des enfants dans notre société demeure marqué par une forme de discrimination ordinaire, souvent banalisée et peu remise en question.

Cette discrimination se traduit notamment par la persistance et la légitimation de certaines violences éducatives dites « ordinaires », malgré l’entrée en vigueur de la loi du 10 juillet 2019 qui interdit explicitement toute forme de violence éducative. Ces pratiques, parfois tolérées au nom de la tradition ou de l’autorité parentale, contribuent à maintenir l’idée que l’enfant doit être contrôlé et corrigé, plutôt qu’écouté et respecté.

Par ailleurs, l’éducation positive fait régulièrement l’objet de critiques, souvent relayées par des discours plus médiatiques que scientifiques, qui la présentent comme laxiste ou inefficace. Cette défiance à l’égard de méthodes éducatives respectueuses des droits de l’enfant révèle une difficulté persistante à reconnaître l’enfant comme un sujet de droit à part entière.

L’enfant n’est pleinement accepté que s’il reste discret, docile et presque invisible, ce qui limite profondément sa liberté d’expression et d’existence dans l’espace public, « territoire de liberté qui se restreint pour les enfants ». Le 19 février 2024, le quotidien Libération titrait en une « Moi, mioche et gênant », en analysant une exclusion de plus en plus assumée des enfants, depuis les années 1990. L’espace public s’est peu à peu adapté aux besoins de la voiture, les reléguant dans des espaces sécurisés et balisés, tels que les aires de jeux ou les cours d’école, et limitant leur autonomie de déplacement, dans une ville morcelée.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Le constat est clair, depuis plusieurs décennies, du déclin de la présence des enfants dans l’espace public. Les recherches de Clément Rivière ont mis en évidence ce repli des enfants vers l’intérieur. Un repli qui maintient aussi une inégalité de genre face à un extérieur perçu comme dangereux.

En octobre 2024, le Haut conseil de la famille, de l’enfance et de l’âge (HCFEA) posait la question : quelle place des enfants dans les espaces publics et la nature ? Avec un constat alarmant, plus de 37 % des 11-17 ans ont un mode de vie sédentaire très élevé. S’intéresser à la place des enfants dans la ville, c’est donc aborder un véritable enjeu de santé publique, mais aussi de citoyenneté et d’autonomie.

À hauteur d’enfant

Un autre mouvement, celui de « villes à hauteur d’enfant », s’affirme dans de nombreuses collectivités territoriales. Cette démarche vise à repenser la ville en tenant compte des besoins, des droits et de la participation des enfants, afin de leur permettre de se réapproprier l’espace urbain et d’y exercer pleinement leur citoyenneté.

Le concept s’est développé en France et en Europe à partir des années 2010, s’inspirant de démarches pionnières menées notamment en Italie à Fano, sur la côte adriatique, dans les années 1990 par le sociologue Francesco Tonucci. Cette tendance ne constitue pas une réaction directe au phénomène « no kids », mais elle répond plus largement à une prise de conscience des effets négatifs de l’urbanisation, de la domination de la voiture et de la diminution de l’autonomie des enfants dans la ville.

En France, les premières chartes « à hauteur d’enfant » de la métropole lilloise ou de Montpellier reposent sur l’idée que les enfants, comme tous les autres membres d’un territoire, ont le droit de se réapproprier les espaces publics, et que leur participation doit contribuer à repenser la ville.

Le sujet suscite un intérêt grandissant au sein des politiques publiques locales. Le mouvement connaît une diffusion croissante : de nombreuses collectivités, telles que Tours, Nantes, Rennes, Strasbourg, Lyon, Marseille ou Paris, s’engagent dans des démarches participatives associant les enfants à la réflexion sur l’aménagement urbain.

« Rennes, ville et métropole » (2023).

La reconnaissance de la place des enfants en ville se traduit par des aménagements variés, tels que la création de rues scolaires piétonnisées ou apaisées aux abords des écoles pour sécuriser les trajets quotidiens, le développement de parcours ludiques, d’espaces verts accessibles et de terrains d’aventure. Elle passe aussi par l’adaptation du mobilier urbain (bancs à hauteur d’enfant, fontaines, signalétique adaptée) ainsi que par le réaménagement de places publiques pour favoriser les rencontres intergénérationnelles et le jeu libre.

Entre l’essor des espaces « no kids » et le développement de politiques urbaines inclusives pour les enfants, notre société oscille entre deux visions du vivre-ensemble. La première, centrée sur l’exclusion et le confort individualisé, révèle un malaise face à la diversité des usages de l’espace public. La seconde, inclusive et participative, suggère que penser pour et avec les enfants permet de mieux vivre ensemble.

L’enjeu est donc double : reconnaître l’enfant comme sujet social et politique, et questionner les logiques d’exclusion qui fragilisent les liens intergénérationnels. Car une société qui tolère mal ses enfants est peut-être une société qui peine à se projeter dans l’avenir.

The Conversation

Sylvain Wagnon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Espaces « no kids » : une discrimination contraire au vivre-ensemble ? – https://theconversation.com/espaces-no-kids-une-discrimination-contraire-au-vivre-ensemble-258494

Les vacances scolaires en France : deux siècles de réformes et de controverses

Source: The Conversation – Indonesia – By Julien Cahon, Professeur des universités, Université de Picardie Jules Verne (UPJV)

Comment répartir sur l’année les périodes de vacances et dans quel sens réajuster les horaires scolaires pour qu’ils se calquent au mieux sur les besoins des plus jeunes ? La question est au cœur de la Convention citoyenne sur les temps de l’enfant qui va se réunir à partir du 20 juin jusque fin novembre 2025. Mais elle agite de longue date la société française.


« L’opinion du pays est qu’on donne trop de congés dans les établissements scolaires. » Cette affirmation ne fait pas suite aux récentes déclarations de l’actuelle ministre de l’éducation nationale Élisabeth Borne et du président de la République Emmanuel Macron, qui souhaitent raccourcir le temps des vacances scolaires, mais vient d’une lettre du principal du collège communal de Beauvais au recteur de l’académie d’Amiens, datée du 21 octobre 1835 !

Le sujet, sur lequel doit réfléchir la Convention citoyenne sur les temps de l’enfant qui s’ouvre le 20 juin prochain, est en effet aussi ancien que complexe. La durée et l’échelonnement des vacances scolaires ont-ils toujours été les mêmes depuis deux siècles ? Quelle est l’importance des vacances d’été dans ce calendrier annuel ? Celui-ci a-t-il beaucoup changé au cours des XIXe et XXe siècles ?

Au XIXᵉ siècle, des vacances d’été aux dates fluctuantes

Au XIXe siècle, la vie scolaire et le temps des vacances sont essentiellement rythmés par des repères agricoles et religieux. À la suite de la loi Guizot sur l’organisation de l’instruction primaire (1833), la durée des vacances est fixée à six semaines (maximum) par le statut du 25 avril 1834, premier règlement général sur les écoles élémentaires.

Les dates de début et de fin des vacances sont déterminées par les préfets, en lien avec les conseils départementaux de l’instruction publique à partir de 1854, puis par les recteurs à partir de 1887. Elles varient donc localement entre mi-août (après le 15, fête catholique de l’Assomption) et début octobre.

Jusqu’à la fin du XIXe siècle, les nouveaux règlements confirment ces modalités. Dans une circulaire ministérielle du 1er août 1866, Victor Duruy estime qu’il n’est « pas possible de fixer une date uniforme pour l’ouverture des vacances dans toute la France : le climat, les cultures ne sont pas les mêmes partout, et […] il y a un grand intérêt à faire coïncider les vacances avec l’époque où les enfants abandonneraient les écoles pour les travaux des champs ».

Dans l’enseignement secondaire, les vacances sont également de six semaines puis passent à huit et à douze semaines, en 1891 et en 1912 : elles s’étalent ainsi du 1er août puis du 14 juillet au 30 septembre et correspondent de cette manière aux périodes de loisirs des familles bourgeoises de l’enseignement secondaire et au moment des gros travaux agricoles (moissons, vendanges) dans l’enseignement primaire (école du peuple).

Création de « petites vacances » dans l’entre-deux-guerres

Jusqu’à la fin du XIXe siècle, il n’existe par ailleurs pas de « petites vacances », seulement un jour de congé le 1er janvier, le 14 juillet et lors des principales fêtes catholiques : Noël, Toussaint, Pentecôte, « Mardi Gras » et Pâques.

Dans l’entre-deux-guerres, la tendance est à la convergence des calendriers scolaires annuels des établissements primaires et secondaires. La durée des vacances estivales est ainsi allongée à deux mois dans les écoles primaires en 1922, du 31 juillet au 30 septembre. Les vacances de Pâques durent désormais une semaine et demie, soit deux jours avant Pâques et la semaine suivante.


Tous les quinze jours, nos auteurs plongent dans le passé pour y trouver de quoi décrypter le présent. Et préparer l’avenir. Abonnez-vous gratuitement dès aujourd’hui !


À compter du début des années 1930, les autorités locales tendent à aligner au moins les dates de départ pour tous les ordres d’enseignement. En 1933, le député André Cornu organise un référendum auprès de tous les conseillers généraux de France qu’il consulte sur la question de fixer le début des vacances au 1er juillet pour l’enseignement secondaire et au 14 juillet pour l’enseignement primaire. Il justifie une telle mesure par des arguments sanitaires : la fatigue des jeunes élèves et les conséquences des fortes chaleurs de juillet qui les accablent, alors que ce sont les jours les plus longs et les plus profitables pour « revivifier des organismes surmenés ».

Il existe par ailleurs des enjeux économiques : la fixation des dates des vacances peut être « préjudiciable aux affaires et au commerce » selon la Chambre de commerce de Bretagne et le syndicat général des cidres et fruits à cidre – les enfants constituant toujours une main-d’œuvre agricole d’appoint. Des inspecteurs d’académie avancent, eux, des arguments d’ordre pédagogique, concernant notamment l’organisation des examens de fin d’année.

La durée des vacances d’été des écoles primaires est alignée sur celles des collèges et lycées par Jean Zay, en 1938, et portée à dix semaines (du 14 juillet au 30 septembre) pour tous les niveaux d’enseignement, suite à la loi sur les congés payés. Cet alignement est aussi révélateur d’enjeux pédagogiques et sociaux, comme l’explique Jean Zay dans ses mémoires (Souvenirs et Solitudes) :

« Les éducateurs signalaient depuis longtemps que, dans la deuxième quinzaine de juillet, sous la canicule, le travail scolaire devenait nul ; on se bornait à somnoler sur les bancs et à soupirer en regardant les fenêtres. Les familles, de leur côté, se plaignaient de ne pouvoir organiser leurs vacances à leur guise, pour peu qu’elles eussent un enfant au lycée et un autre à l’école primaire. Le premier était libre au 15 juillet, le second au 31. Je décidai que tous deux s’en iraient ensemble le 15. Mais comme il ne convenait pas que cette unification eût pour résultat de laisser dans la rue les enfants pauvres, elle fut accompagnée d’une nouvelle et large organisation de garderies et de colonies de vacances. »

En 1938-1939, le calendrier scolaire annuel, désormais national, officialise les vacances de Noël, du 23 décembre au 3 janvier, inclut des vacances la semaine du « Mardi Gras » (en février) tandis que celles de Pâques durent désormais deux semaines.

Depuis les années 1950, allongement et multiplication des temps de vacances

À partir des années 1950 se met peu à peu en place le système actuel, dans un contexte de massification et de réforme du système éducatif. En 1959, les vacances d’été sont déplacées de quinze jours, du 1er juillet au 15 septembre. Elles durent toujours 10 semaines à tous les niveaux (pour 37 semaines de cours) mais, en réalité, l’année scolaire est souvent écourtée par l’organisation des examens et procédures d’orientation dans le second degré. À partir de 1959 également, cinq semaines de congés jalonnent l’année scolaire de tous les élèves, dont une libérée et partagée entre la Toussaint et la mi-février pour aérer deux premiers trimestres allongés. Les quatre autres sont réparties entre Noël et Pâques.




À lire aussi :
Les jeunes Français ont-ils trop de vacances scolaires ?


À partir de 1965, les académies sont réparties en deux zones afin d’organiser des départs décalés (de dix jours) pour les vacances d’été, mais ce zonage est abandonné dès 1969. En 1967-1968 est créé le premier zonage pour les vacances de février. En 1969-1970, les vacances de février (comme celles de la Toussaint) sont doublées à huit jours, puis ramenées à quatre jours dès 1970-1971. Il s’agit de répondre « au vœu de la majorité des parents que leurs occupations professionnelles empêchent de s’occuper de leurs enfants les jours ouvrables », selon les mots du ministre de l’éducation nationale Olivier Guichard.

C’est en 1972, après les Jeux olympiques d’hiver de Grenoble, que les vacances d’hiver (une semaine) sont créées et durablement instaurées, ainsi que le découpage des académies en trois zones. Pour certains chefs d’établissement, cette semaine de vacances est « une aberration pédagogique si l’on se place du point de vue des enfants », car les « petits congés démobilisent les élèves ».

Zones de vacances : cinquante ans d’ajustement (INA Actu, 2019).

Ce débat met aussi en jeu de puissants intérêts économiques, avec l’industrie touristique et les transports. Leur objectif est double : éviter l’engorgement sur les routes et la concentration de l’occupation des lieux de vacances.

En 1986, le rapport du recteur Magnin, remis au ministre René Monory, préconise également une réduction des vacances compensée par un allégement des journées de classe. Le débat sur l’organisation des vacances scolaires rejoint celui de l’organisation de la journée et de la semaine, jusqu’alors pensées séparément. C’est à partir des années 1990, dans le cadre du débat sur la semaine de 4, 4,5 ou 5 jours, que les vacances d’été sont réduites de douze jours pour les écoles ayant choisi la semaine de 4 jours et effectuant une rentrée anticipée fin août (le volume horaire annuel de cours doit, en effet, rester le même pour tous).

Auparavant, le calendrier annuel 7/2 – c’est-à-dire sept semaines de travail et deux semaines de vacances – a été adopté par Jean-Pierre Chevènement pour l’année scolaire 1986-1987 avec des vacances d’été de neuf semaines programmées du 30 juin au 3 septembre. La loi d’orientation sur l’éducation de 1989, dite loi Jospin, précise que l’année scolaire comporte désormais 36 semaines, réparties en cinq périodes de travail de durée comparable, séparées par quatre périodes de vacances. Cette loi prévoit aussi un calendrier scolaire fixé pour un cycle de trois années. Les vacances de la Toussaint oscillent entre une semaine et dix jours jusqu’en 2013 : elles passent alors à deux semaines et celles d’été à huit semaines.

C’est aussi dans les années 1980-1990 que la question de l’organisation des vacances scolaires est reliée à la qualité des apprentissages des élèves et aux enjeux de lutte contre l’échec scolaire, qui s’est affirmé comme problème social et politique. C’est notamment l’une des mesures phares du programme de Jacques Chirac lors de la campagne présidentielle de 1995, que le candidat RPR mène sur le thème de « la fracture sociale » : réduire de trois semaines les vacances estivales afin de mettre en place une semaine scolaire de cinq jours aux horaires allégés.

En 2013, le ministre de l’éducation nationale Vincent Peillon préconise aussi de raccourcir les vacances d’été de huit à six semaines après la difficile mise en œuvre de sa réforme des rythmes scolaires hebdomadaires et quotidiens.

En rouvrant un débat qu’il avait lui-même clos en 2017 et en annonçant une énième concertation sur le sujet (après celles de 2011 et de 2012 notamment), Emmanuel Macron vient probablement de relancer la controverse… dans l’intérêt des élèves ?

The Conversation

Julien Cahon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les vacances scolaires en France : deux siècles de réformes et de controverses – https://theconversation.com/les-vacances-scolaires-en-france-deux-siecles-de-reformes-et-de-controverses-257196

Crises énergétiques en Europe : le grand retour du « refoulé »

Source: The Conversation – Indonesia – By Patrice Geoffron, Professeur d’Economie, Université Paris Dauphine – PSL

Du mouvement des gilets jaunes à la guerre en Ukraine, aux menaces sur le détroit d’Ormuz, les crises récentes ont révélé les vulnérabilités énergétiques de l’Union européenne. Dans un monde où la géopolitique domine à nouveau les marchés d’hydrocarbures, le Green Deal constitue tout autant une assurance collective pour les Européens, qu’un impératif climatique.


Les chocs pétroliers des années 1970 ont marqué profondément le paysage économique mondial. Les effets socio-économiques durables qui en ont découlé n’ont jamais été totalement effacés. La combinaison d’une inflation et d’un chômage élevés, conceptualisée sous le terme de « stagflation », ont notamment provoqué une fragilisation de l’industrie lourde européenne et une montée structurelle du chômage. À partir du milieu des années 1980, et pendant une quinzaine d’années s’est installé un « contre choc pétrolier », avec un reflux massif des prix jusqu’à 10 dollars en 1999, soit quatre fois moins qu’au moment des records atteints durant la décennie 1970.

Mais ce reflux n’aura été qu’une parenthèse car, depuis le début des années 2000, les marchés énergétiques se caractérisent par une volatilité extrême, illustrée par le caractère erratique du prix du pétrole qui a varié de 20 à 150 dollars le baril depuis le début de notre siècle. Cette instabilité reflète les soubresauts de la globalisation économique et débouche sur une incertitude permanente. Elle constitue un défi majeur pour les politiques énergétiques et économiques des États, rendant difficile la planification à long terme, en particulier pour l’UE qui est particulièrement dépendante en importation d’hydrocarbures. La France, qui importe 99 % de son pétrole et 96 % de son gaz, ne fait pas exception. Et, à l’évidence, l’affirmation d’une domination énergétique des États-Unis, sous Trump 2, renforce les menaces sur l’Europe.

Nouveaux risques énergétiques

Au-delà de l’instabilité des prix, de nouveaux risques énergétiques sont apparus ces dernières années. Les dérèglements climatiques affectent directement les infrastructures énergétiques, fragilisant les réseaux électriques face aux événements météorologiques extrêmes et perturbant le cycle de l’eau essentiel au fonctionnement de nombreuses installations. Parallèlement, la numérisation croissante des systèmes énergétiques expose à des menaces de cybersécurité. Ajoutée à cela, la transition énergétique est sous contrainte d’approvisionnement en minerais dits « critiques », du cuivre au lithium, essentiels au déploiement des technologies bas-carbone.

Dans ce contexte, la politique de décarbonation de l’UE, avec le Green Deal comme fer de lance, doit être considérée comme une assurance collective des Européens contre de nouveaux chocs. Pour le comprendre, il est important de revenir sur les chocs énergétiques récents, de la crise des gilets jaunes à la guerre en Ukraine, et sur la crise latente résultant de la géopolitique mondiale sous la nouvelle administration Trump.




À lire aussi :
Trump 2.0 : l’occasion pour l’Europe de bâtir une vraie politique de sobriété ?


Retour sur la crise des gilets jaunes

Le mouvement des gilets jaunes, qui a émergé en France en octobre 2018, offre un cas d’étude révélateur des mécanismes à l’œuvre dans les crises énergétiques contemporaines. Cette mobilisation sociale sans précédent a été déclenchée par une conjonction de facteurs énergétiques et fiscaux. Entre 2016 et 2018, le cours du baril de pétrole a pratiquement doublé sur les marchés internationaux, de 40 à 80 $. S’est exercée alors une forte pression à la hausse sur les prix à la pompe.

Simultanément, le gouvernement français poursuivait la montée en puissance de la taxe carbone, mise en place en 2014 sous le gouvernement Ayrault et inscrite dans la loi relative à la transition énergétique pour la croissance verte en 2015. Cette taxe, intégrée à la TICPE (Taxe Intérieure de Consommation sur les Produits Énergétiques) vise à faire payer les pollueurs, mais se répercute dans les faits jusqu’au consommateur final par une hausse des prix. Elle devait suivre une trajectoire d’augmentation programmée, passant de 7 € par tonne de CO2, lors de sa création, à 100 € par tonne en 2030.

Des effets redistributifs ignorés

L’erreur fondamentale commise par les autorités a été l’absence de prise en compte des effets redistributifs de cette politique fiscale. La hausse des prix des carburants, dans ce contexte de fort rebond du cours de l’or noir, a frappé particulièrement les ménages des zones périurbaines et rurales, fortement dépendants de l’automobile pour leurs déplacements quotidiens. Cette situation a mis en lumière le retard considérable dans la mise en œuvre des efforts de transition environnementale, notamment l’efficacité thermique des logements (en particulier pour les ménages chauffés au fioul) et la décarbonation des transports. Ces habitants, souvent modestes et contraints à l’usage d’un véhicule individuel, se sont retrouvés dans une situation de pression budgétaire accrue, voire de précarité énergétique, ce qui a alimenté un sentiment d’injustice sociale et d’iniquité territoriale. Face à l’ampleur de la contestation, le gouvernement a dû renoncer à la poursuite des augmentations prévues de la taxe carbone, qui est ainsi restée figée à 45 euros par tonne de CO2 depuis 2019.

La réponse politique joue un rôle crucial dans la transformation des chocs énergétiques en crise sociale et économique. Une taxation « élastique », fixée en fonction des prix des carburants, aurait amorti les effets des fluctuations du prix du baril au lieu d’en accentuer le mouvement comme c’est le cas actuellement. Un tel système aurait pu amoindrir cette crise. Il permettrait d’abaisser efficacement les pics de prix à la pompe et les menaces pour la stabilité sociale qui en découlent, tout en ayant un impact limité, voire positif, sur les finances publiques.

Une reconfiguration brutale

Trois ans après la crise des gilets jaunes, c’est un choc international qui a cette fois bouleversé le paysage énergétique européen. Le conflit en Ukraine, déclenché en février 2022, est non seulement une rupture pour le marché énergétique européen, mais, très au-delà, a débouché sur une restructuration mondiale des flux fossiles. L’Union européenne s’est rapidement engagée dans une prise de distance avec la Russie, avec des embargos sur le charbon, le pétrole et ses dérivés, et en réduisant massivement les importations de gaz. Cette reconfiguration brutale des flux d’approvisionnement a produit un choc économique d’une ampleur considérable : la facture des approvisionnements énergétiques a bondi à plus de 9 % du PIB de l’UE, contre 2 % en 2020, soit un niveau proche du second choc pétrolier de 1979-1980.

L’impact macroéconomique a nécessité des interventions massives des gouvernements européens sous forme de boucliers tarifaires et autres amortisseurs. Le coût total de ces mesures pour l’Union européenne (et le Royaume-Uni) en 2022 a été estimé à plus de 600 milliards d’euros, pesant sur des dettes publiques déjà fragilisées par la pandémie de Covid-19. Malgré ces efforts, l’inflation des prix énergétiques, combinée à celle des prix alimentaires, a conduit à une aggravation de la précarité dans de nombreux pays européens, tout particulièrement dans l’est de l’Union. Le ralentissement de la croissance s’est avéré particulièrement prononcé dans les pays proches de l’Ukraine, comme la Pologne et la Hongrie, qui ont également dû faire face à un afflux massif de personnes réfugiées. L’Italie et l’Allemagne, fortement dépendantes du pétrole et du gaz russes, ont également subi de plein fouet les conséquences de cette crise.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Au-delà de ces effets immédiats, cette crise a soulevé des inquiétudes concernant la compétitivité industrielle européenne, notamment face à la réaction américaine promouvant l’Inflation Reduction Act. Ce plan massif d’investissement dans les technologies vertes, lancé par l’administration Biden, a créé une asymétrie concurrentielle avec l’Europe, dont les industries étaient déjà fragilisées par les coûts énergétiques élevés. Cette situation a mis en lumière les risques de désindustrialisation du continent européen et catalysé les discussions sur la nécessité d’une politique industrielle plus affirmée, intégrant pleinement la dimension énergétique de la compétitivité. Le “détricotage” de cette politique par l’administration Trump 2 ne lève pas toutes les hypothèques qui pèsent sue l’industrie européenne dans cette bataille transatlantique.

Un paysage énergétique mondial plus que jamais instable

La poursuite du conflit en Ukraine continue de redessiner le paysage énergétique mondial. La Russie a réalloué une partie significative de ses capacités d’exportation vers l’Asie, notamment la Chine et l’Inde, créant de nouveaux axes d’échanges énergétiques qui modifient les équilibres géopolitiques mondiaux. Cette reconfiguration s’inscrit dans ce que certains qualifient de « déglobalisation énergétique », où les échanges tendent à se régionaliser et à s’organiser entre pays partageant des affinités géopolitiques, créant ainsi des blocs énergétiques distincts.

Parallèlement, la persistance de l’instabilité au Moyen-Orient ravive un risque traditionnel de perturbation du commerce pétrolier et gazier. Les tensions dans cette région sont particulièrement élevées autour du détroit d’Ormuz, marquant l’entrée du Golfe Persique au large de l’Iran (au nord) et des Émirats arabes unis (au sud). Par ce détroit, transite une part considérable du commerce mondial de pétrole et, de façon accrue, de gaz liquéfié en provenance du Qatar. Les tensions actuelles constituent une menace lancinante pour la sécurité énergétique.

Ces foyers de tensions géopolitiques créent un environnement d’incertitude chronique qui complique la planification énergétique à long terme pour les pays importateurs, tels que ceux de l’Union européenne. Cette situation renforce la perception de l’énergie comme un enjeu de sécurité collective, au-delà de sa dimension purement économique ou environnementale.

Un autre facteur d’incertitude majeur réside dans l’orientation des politiques énergétiques des grandes puissances. En 2025, l’évolution de la politique américaine sous l’administration Trump 2 suscite des préoccupations, notamment concernant son impact sur les marchés mondiaux et sur la dynamique de la transition énergétique. La défiance américaine vis-à-vis du processus onusien de l’Accord de Paris reste un facteur déterminant pour l’avancement de la coopération internationale en matière de lutte contre le changement climatique. Toute fragilisation de ce processus affaiblit les efforts nécessaires à une transition énergétique mondiale coordonnée.

Une vulnérabilité européenne structurelle

L’Europe présente une vulnérabilité énergétique structurelle qui la distingue des autres grandes puissances économiques. Composée des premiers pays ayant connu l’industrialisation au XIXe siècle (les premiers “émergents”), elle a largement épuisé ses ressources fossiles autochtones au cours de son développement. Cette réalité géologique place le continent dans une situation de dépendance chronique en matière d’importations énergétiques. Contrairement aux États-Unis, qui ont atteint une large autonomie grâce notamment à la révolution des gaz et pétroles de schiste, ou à la Chine, qui dispose encore d’importantes ressources charbonnières, l’Europe doit composer avec une dépendance structurelle aux fournisseurs extérieurs pour satisfaire ses besoins énergétiques fondamentaux.

Les importations massives de produits énergétiques fossiles pèsent lourdement sur la balance commerciale européenne et exposent les économies de l’Union aux fluctuations erratiques des prix sur les marchés mondiaux. Ces variations peuvent déclencher des chocs inflationnistes, comme l’a cruellement rappelé la crise consécutive à l’invasion de l’Ukraine. La dépendance énergétique devient ainsi un facteur de fragilité macroéconomique qui peut compromettre la stabilité socio-économique des pays européens. Les chocs de prix du pétrole et du gaz contribuent à miner les démocraties européennes, créant un terreau favorable à la montée des populismes qui exploitent le mécontentement social lié aux difficultés économiques résultantes.

France24 2024.

Une réponse stratégique

Le Pacte vert pour l’Europe, ou Green Deal, lancé par la Commission européenne fin 2019, constitue la réponse stratégique à cette double contrainte environnementale et sécuritaire. Initialement conçu dans une perspective climatique, avec un objectif de réduction des émissions de gaz à effet de serre de 40 % à l’horizon de 2030 (par rapport à 1990), ce plan a vu ses ambitions rehaussées. L’acte II du Green Deal, baptisé « Fit for 55 »](https://www.consilium.europa.eu/fr/policies/fit-for-55/), adopté en juillet 2021, a relevé cet objectif à 55 %, marquant un accroissement significatif des efforts de décarbonation de l’économie européenne.

Le Green Deal représente bien plus qu’une simple politique environnementale en visant à réduire drastiquement la dépendance aux énergies fossiles importées, induisant des vulnérabilités stratégiques, tout en fixant une ambition dans les technologies vertes à forte valeur ajoutée.

La poursuite d’objectifs ambitieux à court terme, avec le Fit for 55, ne sera soutenable que si elle s’accompagne d’une attention particulière à la question de la précarité énergétique. Le risque est réel que l’accroissement des efforts de transition, notamment à travers l’extension du marché de permis d’émission aux logements et aux transports (dit « EU ETS 2 »), aggrave cette précarité en augmentant les coûts énergétiques pour les ménages les plus vulnérables. L’expérience de la crise des gilets jaunes a démontré qu’une transition, qui néglige les impacts redistributifs, produit des résistances sociales majeures capables de compromettre l’ensemble du processus. L’enjeu pour les décideurs européens est donc de concevoir des mécanismes permettant d’atténuer l’impact de la transition sur les populations vulnérables, tout en maintenant le cap sur les objectifs climatiques. Ce chemin étroit est pourtant le seul pour l’Europe.


Cet article (dans sa version intégrale) fait partie du dossier publié par Dauphine Éclairages Conflits géopolitiques : penser au-delà du réflexe, le média scientifique en ligne de l’Université Paris Dauphine (PSL).

The Conversation

Patrice Geoffron est membre fondateur de l’Alliance pour la Décarbonation de la Route.

ref. Crises énergétiques en Europe : le grand retour du « refoulé » – https://theconversation.com/crises-energetiques-en-europe-le-grand-retour-du-refoule-259160

Investir dans l’art contemporain : comment est déterminée la valeur d’un artiste ?

Source: The Conversation – Indonesia – By Benoît Faye, Full Professor Inseec Business School, Chercheur associé LAREFI Université de Bordeaux Economiste des marchés du vin, de l’art contemporain et Economiste urbain, INSEEC Grande École

Comment est déterminée la valeur d’un artiste sur le marché de l’art ? Une variable joue un rôle non négligeable. Qui de l’artiste hyperspécialisé ou du touche à tout a le plus de chance d’avoir la cote la plus élevée ? Une étude indique des pistes à explorer.


Le marché de l’art contemporain a retrouvé des couleurs. En 2024, selon l’observatoire d’Artprice, les ventes aux enchères ont retrouvé leur niveau d’avant la pandémie. Pourtant, investir dans l’art reste une aventure semée d’incertitudes, où le rendement dépend uniquement du prix futur de l’œuvre.

Dans ce contexte, un choix stratégique se pose aux artistes comme aux investisseurs : faut-il miser sur des artistes aux pratiques diversifiées ou sur des créateurs profondément ancrés dans une seule discipline ? Cette question touche à la valeur même de l’œuvre, à sa reconnaissance, et bien sûr… à son prix.




À lire aussi :
De l’atelier au marché de l’art : les ressorts du succès de POUSH, un jeune lieu créatif


Creuser… ou s’éparpiller ?

Deux philosophies s’affrontent. La première, défendue notamment par Gilles Deleuze, célèbre la maîtrise d’un médium unique, poussée à son plus haut niveau d’expertise. Deborah Butterfield et ses sculptures équines, Chéri Samba et ses scènes de vie colorées, Lynette Yiadom-Boakye et ses portraits peints à la palette brune, ou encore Desiree Dolron et ses portraits photographiques sombres, incarnent cette fidélité à une esthétique, à une grammaire artistique. Associant la création à une forme d’expertise radicale, ils creusent un sillon, affirment un langage, un style.

À l’opposé, une seconde école, incarnée par Mathias Fuchs, défend l’interdisciplinarité comme moteur de créativité. L’artiste y devient un explorateur, franchissant sans cesse les frontières entre peinture, sculpture, photographie, installation ou design. Rosemarie Trockel, Jan Fabre ou Maurizio Cattelan illustrent cette logique : des trajectoires multiples comme autant de réceptacles d’un même processus créatif.

Mais, au-delà de ces postures créatives, que disent les données sur la reconnaissance artistique et la valeur marchande que ces choix impliquent ? Une récente étude publiée en avril 2025 dans la revue académique Finance Recherche Letters, menée auprès de 945 artistes vivants, issus du Top 1 000 du classement Artprice apporte des réponses inédites à ce dilemme.

Un marché peut être irrationnel… mais pas sans logique

Dans un monde où l’art reste un actif faiblement rentable et coûteux à acquérir et détenir, comprendre ce qui fait (ou défait) la valeur d’un artiste est crucial. Sociologues et économistes s’accordent à dire que la reconnaissance artistique ne se mesure pas objectivement. Elle repose sur une convention entre trois parties : les instances artistiques (musées, galeries, institutions, collectifs d’artistes), le marché (enchères, galeries) et les médias (presse spécialisée ou généraliste, réseaux).

Tous contribuent à établir, à maintenir ou à contester la légitimité d’un artiste. Les parties ne sont pas nécessairement exclusives et partagent certains de leurs membres (galeries et experts des maisons d’enchères, par exemple). Reste qu’un accord dans la convention, favorable ou défavorable à l’artiste, définit la qualité et qu’un désaccord crée une incertitude. C’est aussi dans cet espace indéfini que la spéculation peut prendre place.


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Notre étude, s’est intéressée à l’impact de la diversification artistique sur deux indicateurs clés : la valeur marchande cumulée (somme des valeurs de vente entre 2000 et 2020), mesurée par Artprice, et la reconnaissance artistique, mesurée par le classement ArtFacts. La diversification artistique est mesurée grâce aux données provenant d’Artnet sur la répartition des ventes de l’artiste par discipline. Nous avons contrôlé de nombreuses variables (âge, genre, origine, volume de production, mouvement artistique, etc.) et utilisé les données de Google Trends comme indicateur de notoriété médiatique.

La diversité paie… mais pas pour tout le monde

Premier constat : plus un artiste pratique de disciplines différentes, plus il est reconnu par les instances artistiques et valorisé par le marché. Ce lien est quasi linéaire, à une exception notable : chez les photographes, la concentration sur un seul médium renforce la légitimité.

Cependant, la diversité des disciplines n’est pas dissémination de la production. Explorer plusieurs médiums tout en restant centré sur un seul n’a pas le même effet que de répartir équitablement sa production. Globalement, cette dissémination, mesurée par un indice de concentration, n’a pas d’impact significatif sur la valeur marchande, mais accroît la reconnaissance artistique.

Explorer ces relations entre dissémination et valeur ou reconnaissance artistique, selon le niveau de prix ou la discipline d’origine, ajoute quelques nuances. L’effet de la dissémination sur la valeur marchande se révèle significativement positif pour les peintres, les photographes et les artistes les moins valorisés. En revanche, la relation croissante entre dissémination et reconnaissance artistique reste vraie, quelle que soit la discipline d’origine ou le niveau de reconnaissance.

B smart 2025.

L’interdisciplinarité est donc un levier de reconnaissance artistique voire pour certains de valorisation marchande. Mais de tels résultats soulèvent de nombreuses questions. D’une part, l’artiste n’est pas seul à établir une stratégie créative, et une approche plus qualitative, relationnelle, des déterminants de ses choix de carrière s’avère nécessaire. D’autre part, dans un monde où les frontières de l’art se déplacent sans cesse – avec l’émergence de l’art numérique, des NFT ou de la création assistée par intelligence artificielle –, la question de l’interdisciplinarité ne fera que gagner en importance.


Avec la précieuse collaboration de Jeanne Briquet et d’Ylang Dahilou.

The Conversation

Benoît Faye ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Investir dans l’art contemporain : comment est déterminée la valeur d’un artiste ? – https://theconversation.com/investir-dans-lart-contemporain-comment-est-determinee-la-valeur-dun-artiste-257381

La semaine de 4 jours : une bouffée d’oxygène pour des salariés à bout de souffle ?

Source: The Conversation – Indonesia – By Clara Bouchet, Doctorante en sciences de gestion, Université Jean Moulin Lyon 3

Si la charge de travail n’est pas repensée, les salariés pourraient être contraints d’effectuer 5 jours en 4. Cette surcharge de travail quotidienne serait susceptible d’avoir l’effet inverse que celui escompté. Sinseeho/Shutterstock

Testée en Islande, au Royaume-Uni et en Allemagne, la semaine de 4 jours trace son sillon en France : 77 % des actifs s’y montrent favorables. À quel prix ? Sous quelles modalités ? Et quelle efficacité pour l’organisation ?


« J’ai raté des anniversaires et des dîners entre amis. Pourquoi ? Des slides à préparer… Plus jamais ça ! »

Ces propos illustrent la volonté de ce salarié de prendre de la distance avec son travail. Loin d’être un cas isolé, 42 % des salariés considèrent que le travail a perdu de son importance dans leur vie.

Depuis la pandémie de Covid-19, le rapport au travail s’est profondément transformé. Pour le décrypter, nous avons mené une étude démontrant que les salariés sont plus que jamais en quête de sens, au nom de leur bien-être. En 2024, 54 % d’entre eux affirmaient vouloir reprendre la main sur leur travail, pour mieux concilier vie professionnelle et personnelle. Nombreux sont ceux qui se désengagent progressivement de leurs tâches, voire de leurs responsabilités afin de limiter la pression quotidienne.

À ce titre, la semaine de 4 jours est-elle la solution idoine ?

Testée en Islande, au Royaume-Uni et en Espagne

Tout droit venue d’Islande, la semaine de 4 jours s’impose comme la solution en vue d’améliorer la qualité de vie des salariés.

Les premiers résultats vont dans ce sens. Ils montrent que les salariés islandais participants à l’expérimentation bénéficient d’un meilleur équilibre entre vie professionnelle et personnelle ; ils passent plus de temps en famille, prennent davantage de temps pour eux et sont moins stressés.

Si la démarche a également porté ses fruits dans des pays voisins tels que le Royaume-Uni ou l’Espagne, elle fait de plus en plus parler d’elle en France. Interrogés à ce sujet, 77 % des actifs français se montrent favorables à une semaine de 4 jours, 81 % de femmes actives, 73 % des hommes actifs, 80 % des salariés du privé et 74 % du public.


Abonnez-vous dès aujourd’hui !

Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH, marketing, finance…).


Si l’initiative semble prometteuse, elle questionne néanmoins sur les défis posés par une transition réussie et sur son efficacité réelle.

Bien-être des salariés

Un reportage diffusé le 4 mai dernier, « Travailler moins ou autrement, ils ont trouvé la solution pour vivre mieux », explore le cas d’entreprises qui bouleversent les codes traditionnels du travail en France. Parmi elles, la PME industrielle iséroise SDCEM a complètement repensé l’organisation du temps de travail en vue d’intégrer pleinement la question du bien-être. Les salariés profitent désormais d’un week-end de 3 jours sans diminution de leur salaire.

« Dans un monde compétitif, SDCEM, forte de ses 80 salariés, veut se distinguer et attirer les meilleurs talents tout en préservant le bien-être de ses équipes, son impact écologique et la performance collective. Voilà pourquoi nous prenons la décision de nous lancer dans la semaine de 4 jours ! »,

rappelle Daniel Torrents, ancien dirigeant de l’entreprise SDCEM.

Les salariés de SDCEM profitent désormais d’un week-end de 3 jours sans diminution de leur salaire.
SDCEM

Les modalités de mise en œuvre de la semaine de quatre jours restent toutefois encadrées par la loi. Si un nombre maximum d’heures et de jours travaillés est défini par la législation française, des aménagements sont néanmoins envisageables. Lorsque l’activité relève d’un décret d’application concernant la semaine de 39 heures (postérieur à l’ordonnance du 16 janvier 1982) ou la semaine de 35 heures (postérieur aux lois Aubry du 13 juin 1998 et du 19 janvier 2000), la semaine de quatre jours peut être mise en place au regard des modalités prévues par les textes.

Toute dérogation doit alors prendre la forme d’une convention ou d’un accord collectif. À défaut, d’une convention ou d’un accord d’entreprise ou d’établissement (en référence à l’article L.3121-68 du Code du travail).

Semaine allégée, salariés réengagés

Grâce à cette nouvelle organisation du temps de travail, les salariés deviennent maîtres de leur emploi du temps. Ils parviennent à mieux équilibrer vie privée et vie professionnelle, tout en renforçant leur efficacité au travail. Les entreprises sont alors plus attractives aux yeux des salariés désireux de bien-être au travail et bénéficient directement de cette productivité accrue, comme démontré en Islande.

Des entreprises françaises pionnières ont mené l’expérience. C’est le cas de LDLC, spécialisée dans l’informatique. Son dirigeant Laurent de la Clergerie vante les mérites de la semaine de 4 jours. Les résultats sont au rendez-vous : le chiffre d’affaires est passé de 497 à 730 millions d’euros en deux ans, avec 20 salariés de moins. La particularité de cette entreprise repose sur son choix de réduire le temps de travail à 32 heures afin d’éviter les journées surchargées. Le constat est sans appel : les salariés sont moins stressés et plus engagés. Laurent de la Clergerie affirme :

« Nous aurions dû en théorie embaucher davantage pour traiter les commandes et les appels téléphoniques. Alors que s’est-il passé ? La réponse se trouve sans doute dans le bien-être que, vous comme moi, nous ne pouvons pas quantifier, mais qui se traduit bel et bien par une hausse de la productivité. »

S’impose alors une remise en jeu de l’idée selon laquelle la valeur d’un travailleur se mesure à son temps passé au bureau. Cet exemple représente donc un premier pas vers une culture managériale plus humaine.

Cinq jours en 4

Si la charge de travail n’est pas repensée, les salariés pourraient être contraints d’effectuer 5 jours en 4. Cette surcharge de travail quotidienne serait susceptible d’avoir l’effet inverse escompté.

Entre une augmentation du stress et de la fatigue, les salariés seraient d’autant plus enclins à se désengager afin de préserver leur bien-être. Elle pourrait même fragiliser l’équilibre vie privée et vie professionnelle en allongeant les journées de travail.




À lire aussi :
La semaine de quatre jours : un progrès en trompe-l’œil ?


Pour certaines entreprises, l’expérience a même tourné au cauchemar à l’image d’YZ, une agence de communication de 20 personnes. Dans un livre intitulé Jour Off, son co-fondateur Julien Le Corre revient sur la liquidation financière de son entreprise en 2023, soit moins d’un an et demi après avoir mis en place la semaine de 4 jours. Malgré la volonté initiale de « libérer ses salariés », la dynamique de groupe s’est progressivement effritée entraînant une perte de clients et un déclin de la croissance. Dans un entretien, Julien Le Corre se confie à ce sujet :

« Dans une entreprise de services comme la mienne, il fallait maintenir la disponibilité cinq jours sur sept et faire la différence entre la semaine de quatre jours pour les collaborateurs, et la semaine de cinq jours pour les clients. Il ne faut pas créer un jour supplémentaire de fermeture de l’entreprise. C’est l’une des erreurs les plus graves qui ont été faites dans la mise en place du dispositif dans ma société. »

Repenser l’organisation de la semaine

Une transition réussie vers une semaine de 4 jours pose des défis spécifiques à chaque organisation qu’il convient d’intégrer avant de se lancer.

La semaine de 4 jours peut être une bouffée d’oxygène pour des salariés à bout de souffle. Elle est une piste sérieuse, mais ne se suffit pas à elle-même. Cette transformation ne s’attaque pas aux racines du problème liées dans certains cas à l’ennui ou à la perte de sens. Il ne faut pas uniquement repenser l’organisation de la semaine. Les attentes des salariés et les spécificités des métiers doivent davantage être prises en compte afin de réparer une relation fragilisée avec le travail.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. La semaine de 4 jours : une bouffée d’oxygène pour des salariés à bout de souffle ? – https://theconversation.com/la-semaine-de-4-jours-une-bouffee-doxygene-pour-des-salaries-a-bout-de-souffle-258647

Taxis volants : à la veille d’un boom, vraiment ?

Source: The Conversation – Indonesia – By Raymond Woessner, Professeur honoraire de géographie, Sorbonne Université

Attendus pour les Jeux olympiques de Paris, les taxis volants sont restés à terre. Derrière les promesses d’entrepreneurs et de start-ups, qu’en est-il vraiment ? Les taxis volants ont-ils un modèle économique à même de garantir leur développement ? Pour quels trajets ? Et quelle réglementation ?


Dans bien des médias, le taxi volant autonome et électrique est souvent présenté comme une réalité à portée de main. Mais le Volocity a dû renoncer à la desserte qui lui semblait acquise lors des Jeux olympiques de Paris. Et son fabricant Volocopter a déposé son bilan dans la foulée alors que son concurrent Lilium Jet a peut-être été sauvé de justesse par un consortium d’investisseurs. Puis la start-up israélo-américaine Eviation a, elle aussi, renoncé à son projet Alice après dix ans de développement. S’agit-il d’incidents de parcours ou d’une crise profonde pour l’advenue de ce nouveau mode de transport ?

Du drone au taxi volant

L’importance du drone a brusquement été révélée par les guerres en Ukraine et au Proche-Orient. En 2024, le chiffre d’affaires mondial du marché du drone était de 35 milliards de dollars (USD). Vers 2030, il devrait atteindre 50 milliards à 70 milliard USD selon différentes projections. Le drone ne coûte pas très cher à produire. Il se faufile partout. Sa taille comme son utilisation sont très variées depuis l’observation aérienne jusqu’au transport de colis. La livraison express par drone avait commencé dès 2018, notamment entre des hôpitaux comme à Zurich.

De nombreux facteurs militent en faveur des VTOL (Vertical Take off and Landing) électriques et autonomes. Beaucoup de gens pressés – chefs d’entreprises, politiciens, services médicaux, pièces de rechange, maintenance… – ont besoin d’un accès rapide à des lieux mal desservis, faute de connexion terrestre ou à cause d’un réseau routier saturé. Par ailleurs, l’électrification a le vent en poupe avec la lutte contre les énergies fossiles.

Une vieille histoire

Relier un aéroport directement au centre-ville par les airs est un vieux rêve. Dès 1932, l’architecte André Lurçat avait projeté de construire Aéroparis, un petit aéroport qui aurait été implanté à Paris, au pied de la tour Eiffel, sur l’île aux Cygnes. Dans les années 1950, lorsque fut construite la nouvelle gare ferroviaire de Bruxelles-Central en vis-à-vis du siège de la Sabena qui était alors la compagnie nationale aérienne belge, le toit de l’immeuble avait été prévu pour l’accueil des hélicoptères venant de l’aéroport de Bruxelles-National. Un temps, à Paris, on songeait à ce genre de desserte entre Orly et la place des Invalides.

Mais le bruit généré par les hélicoptères ainsi que les problèmes de coût et de sécurité ont eu raison de ces projets. Aujourd’hui, rares sont les villes comme São Paulo (Brésil) où sont autorisés les hélicoptères taxis (ou même privés) qui permettent de survoler les bouchons routiers. La Chine veut prendre tout le monde de court : elle a sélectionné six villes pilotes, à la fin de 2024, pour ses VTOL. À Guangzhou, la start-up Ehang met au point une machine autonome avec un ou peut-être deux passagers pour des temps de vol d’une vingtaine de minutes.

L’innovation par les machines

De type VTOL, les concepts de taxis volants électriques et autonomes sont nécessairement « out of the box ». Leur design technique hésite entre plusieurs solutions plus ou moins intermédiaires entre l’avion et l’hélicoptère. De grandes entreprises comme Boeing ou Airbus collaborent volontiers avec des start-ups. Certaines de ces start-ups préfèrent se lancer seules dans l’aventure. Le transport par taxi volant ne sera pas très capacitaire, somme toute à l’image des taxis qui sillonnent les routes et les rues.




À lire aussi :
Images de science : Rotor retors


Le problème des nouvelles entreprises est de lever des fonds alors que le marché n’existe pas encore. Sur la base d’informations fracassantes, Internet abonde d’images et de vidéos, à la fois futuristes, oniriques et réalistes, qui veulent démontrer que le taxi volant électrique serait prêt à l’emploi alors qu’en réalité, beaucoup reste à faire. En particulier, l’idée du vol sans pilote semble bien chimérique.

Près de 70 millions levés et une dette de 1,3 milliard

Ainsi, la société Lilium (GmbH) était apparue dans la grande banlieue de Munich (Allemagne) en 2017, avec une commercialisation annoncée pour 2025. Lilium a levé 70 millions USD pour commencer. Le premier appareil a volé le 4 mai 2019. Lilium a été cotée au Nasdaq en 2021. En mai 2024, sa dette est de plus de 1,35 milliard d’euros. En octobre, l’État de Bavière lui refuse un prêt de 50 millions. En décembre, Lilium s’effondre et Mobile Uplift Corporation (GmbH), une holding munichoise, en reprend les restes. L’histoire de Volocopter (GmbH), basée elle aussi en Allemagne du Sud, dans le Bade-Wurtemberg, est parallèle à celle de Lilium. Les Jeux olympiques de Paris avaient été la dernière chance de Volocopter de se relancer.

Le modèle économique français sera-t-il plus robuste ? À Toulouse, le projet Ascendance est porté par une start-up). Il s’agit d’un VTOL hybride transportant quatre passagers et un pilote.

La propulsion en partie thermique lui assure un grand rayon d’action (environ 400 km), ce qui se paye par une moindre décarbonation. Son premier vol est toujours attendu, mais sa commercialisation est prévue pour 2027. L’Ȋle-de-France apparaît comme un marché clé. Airbus et la RATP ont signé un accord de coopération en vue d’y développer les taxis volants.

L’obstacle réglementaire

Le survol des villes pose des problèmes réglementaires peut-être insurmontables. Il faudrait pouvoir découper l’espace aérien urbain en trois couches verticales. Jusque vers 100/150 mètres de haut, la première strate serait le domaine des drones de fret. Jusqu’à plusieurs centaines de mètres circuleraient les taxis autonomes.

Au-delà, le ciel serait réservé à l’aviation civile proprement dite. Aux États-Unis, un programme pilote a réuni Wing Aviation, FedEx Express et le groupe pharmaceutique Walgreens en 2019. Il a été certifié par la Federal Aviation Administration (FAA), dans le cadre du programme Unmanned Aircraft System Integration Pilot Program (IPP)) du ministère américain des transports. Une zone test a été activée à Christiansburg (Virginie).


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


En 2021, l’Agence européenne de la sécurité aérienne (EASA) a rédigé un cadre réglementaire pour les taxis volants VTOL pouvant embarquer jusqu’à neuf passagers et ne pesant pas plus de 3175 kg. Le Volocity, par exemple, avait reçu un agrément qui lui permet d’« être exploité dans une zone à faible risque clairement délimitée ».

Une amende et un avertissement

Mais, à Paris, le survol par des drones est interdit depuis 2018, sauf accord préalable avec la préfecture de police pour des vols ponctuels. Et, depuis 1948, les avions doivent voler à plus de 1 950 mètres d’altitude au-dessus de la ville. Dès 1919, Jules Védrines s’était posé sur le toit des Galeries Lafayette et Charles Godefroy s’était faufilé sous l’Arc de Triomphe ; le premier avait dû payer une amende et le second, un militaire, avait reçu un avertissement de ses supérieurs.

En 2023, l’Autorité environnementale (AE) a jugé « incomplète » l’étude d’ADP pour l’implantation du vertiport de Paris-Austerlitz), attendu pour les Jeux olympiques. Cette « hélistation » avait été autorisée le 1er juillet avant d’être finalement « suspendue ») le 24. Peur du nouveau ou prudence justifiée par rapport au bruit (65 db pour Volocity), voire la sécurité ?

Brut 2024.

Une nouvelle géographie

Selon le cabinet Oliver Wyman, en 2035, 50 à 90 métropoles pourraient adopter le taxi volant avec 40 000 à 60 000 véhicules en opération qui généreraient des revenus estimés entre 35 milliards et 40 milliards USD.

Au-delà de l’espace métropolitain, les ambitions vont elles aussi bon train. Tout comme l’ascendance hybride, le Lilium-Jet électrique pourrait atteindre les petites villes éloignées des grands centres urbains.

« Nous pouvons créer une accessibilité à grande vitesse pour des milliers de communes », explique son dirigeant Daniel Wiegand.

Lilium ambitionnait de commercialiser des « centaines d’appareils » à partir de 2025. Cette opportunité est séduisante puisque les réseaux de TGV laissent subsister de nombreuses zones d’ombre que les VTOL électriques pourraient effacer, en tout cas, pour des clients aisés. S’agit-il d’une occasion rêvée pour desserrer les métropoles et favoriser l’accessibilité des lieux isolés dans la ruralité ? De même, les transports sanitaires auraient beaucoup à gagner, d’abord dans les régions pauvres, mais également dans les petites villes souvent en déclin des pays riches.

The Conversation

Raymond Woessner ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Taxis volants : à la veille d’un boom, vraiment ? – https://theconversation.com/taxis-volants-a-la-veille-dun-boom-vraiment-254896

Soldes : les commerçants sont-ils d’honnêtes manipulateurs ?

Source: The Conversation – Indonesia – By Stéphane Amato, Maître de conférences en sciences de l’information et de la communication, Université de Toulon

Les techniques utilisées par les commerçants pour augmenter la probabilité de déclencher les comportements d’achat attendus sont légion : leurre, pied-dans-la-porte, porte-au-nez, amorçage, ce-n’est-pas-tout, acquiescement répété, activation normative ou indisponibilité présumée. Larysa Krokhmal/Shutterstock

C’est le début des soldes d’été. Du mercredi 25 juin 2025 à 8 heures du matin au mardi 22 juillet 2025 inclus, vous pourrez profiter de réductions avantageuses. Mais comment résister à la tentation de ne pas acheter un produit non soldé ? Quels sont les mécanismes infocommunicationnels et psychologiques en œuvre ? Explications avec l’expérience du leurre et du pied-dans-la-porte.


Vous êtes attiré par une paire de chaussures au centre de la devanture d’un magasin : -50 %. Vous pénétrez dans le magasin et vous demandez à la vendeuse, venue vous accueillir, si vous pouvez l’essayer. Après s’être informée de votre pointure, elle vous prie de vous asseoir, le temps d’aller la chercher en réserve. À son retour, elle vous apprend que votre pointure n’est, malheureusement, plus disponible.

Elle vous invite alors à essayer « juste pour voir » d’autres paires de chaussures, qu’elle a apportées. Elles sont à votre pointure et ressemblent beaucoup à celle qui vous a attiré dans le magasin. Elles ne sont toutefois pas soldées. Il s’agit de la nouvelle collection. Imaginons que vous achetiez une des paires de chaussures qu’on vous a invité à essayer.

Deux cas de figure. Soit vous auriez, de toute façon, acheté ces chaussures, même en sachant d’emblée qu’elles n’étaient pas soldées ; elles vous plaisent vraiment beaucoup. Soit, à ce prix-là, vous ne seriez même pas entré dans le magasin pour les essayer. Dans le deuxième cas, vous avez été manipulé. Honnêtement manipulé, mais manipulé quand même. Honnêtement, car la stratégie utilisée par le commerçant n’a rien de répréhensible. Manipulé quand même, car vous avez été conduit à votre décision d’achat par une procédure d’influence dont les ressorts vous échappent peu ou prou.

Alors quels sont les mécanismes infocommunicationnels et psychologiques en œuvre ? Comment éviter d’être manipulé ? Pour ce faire, illustration avec deux expériences de psychologie sociale : le leurre et le pied-dans-la-porte.

Technique d’influence

Vous préférez penser (et le commerçant aussi) que votre décision d’achat s’explique par la qualité des chaussures, leur look ou leur confort, ou encore par les arguments de vente qui ont pu vous être donnés lors de l’essayage. On peut avoir une tout autre explication, plus conforme aux connaissances issues de la psychologie sociale expérimentale. Le commerçant, quoi qu’il puisse en dire ou en penser, a bel et bien utilisé une technique d’influence – une technique d’engagement, disent les chercheurs –, dont l’efficacité est expérimentalement démontrée : le leurre. Le principe de cette procédure consiste précisément à :

  • amener quelqu’un à prendre une décision intéressante pour lui : acheter une paire de chaussures soldée à 50 % ;

  • lui faire savoir que, malheureusement, sa décision ne pourra pas se concrétiser : la pointure demandée est non disponible ;

  • lui proposer un comportement de substitution : acheter d’autres chaussures non soldées.

Expérience du leurre

Le spécialiste français de psychologie sociale Robert-Vincent Joule a détaillé le principe du comportement leurre, qui influence le choix d’un consommateur en créant une distorsion cognitive – pensée irrationnelle. Il montre que les personnes ayant pris une première décision avantageuse – par exemple, acheter une paire de chaussures soldées à 50 % – ont tendance à poursuivre dans le même « cours d’action » – acheter une paire de chaussures non soldées. Même après avoir été informées de l’impossibilité de faire ce qu’elles avaient initialement décidé de faire.

Cette tendance les pousse à prendre une nouvelle décision. C’est le « comportement de substitution »… moins avantageux, voire pas avantageux du tout. Tout se passe comme si elles étaient « engagées » à faire ce qu’on attend d’elles, malgré elles, tout en ayant le sentiment de se comporter librement.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Une première expérience sur le leurre est menée en 1989. Les participants sont conduits à prendre une décision avantageuse : gagner de l’argent en participant à une recherche intéressante. Concrètement, visionner un film très attrayant. En arrivant au laboratoire quelques jours plus tard, ils apprennent que cette expérience est finalement déprogrammée. Au moment où ils s’apprêtent à repartir, on leur propose, à la place, de prendre part à une autre recherche non rémunérée ; de surcroît, plutôt fastidieuse, car il s’agit de mémoriser des chiffres. Les résultats sont édifiants : les personnes leurrées sont trois fois plus nombreuses (47,4 %) à accepter de participer à la recherche non rémunérée que celles qui ne l’étaient pas (15,4 %).




À lire aussi :
Pourquoi ne peut-on pas s’empêcher de toucher les produits en magasin ?


Il va sans dire que les leurres commerciaux sont légion. Vous avez besoin d’un nouvel aspirateur. Vous vous déplacez donc, après avoir vu une publicité (appât) pour acheter un aspirateur, haute performance, d’une certaine marque à un prix promotionnel très intéressant : 120 euros – comportement leurre. Arrivé dans le magasin, on vous apprend que ce produit est, malheureusement, en rupture de stock. On vous propose un produit de substitution qui ne présente pas du tout les mêmes avantages. L’aspirateur disponible ayant les mêmes caractéristiques – le plus souvent d’une autre marque – vaut 195 euros – comportement de substitution. Que faites-vous ?

Marquer une pause

Depuis sa première édition, en 1987, le Petit Traité de manipulation à l’usage des honnêtes gens, de Robert-Vincent Joule et Jean-Léon Beauvois, est devenu, selon son éditeur, « un best-seller en psychologie sociale ».
Presses universitaires de Grenoble

Un conseil, surtout pour vos achats les plus onéreux : marquer une pause afin d’interrompre le processus d’engagement et éviter d’acheter tout de suite. Idéalement, prendre le temps d’en parler à quelqu’un comme un proche ou un ami, afin d’avoir un avis extérieur. Pourquoi pas par téléphone ?

Le leurre n’est, évidemment, pas la seule technique utilisée par les commerçants pour augmenter la probabilité de déclencher les comportements d’achat attendus. Robert-Vincent Joule et Jean-Léon Beauvois en ont dénombré une dizaine dans leur best-seller Petit Traité de manipulation à l’usage des honnêtes gens : le pied-dans-la-porte que nous allons détailler ci-dessous, la porte-au-nez, l’amorçage, l’acquiescement répété, l’activation normative, l’indisponibilité présumée, etc. Autant connaître ces techniques d’influence et être en mesure de mieux déjouer les honnêtes manipulations commerciales auxquelles nous sommes confrontés ici ou là, en périodes de soldes ou pas.

Expérience du pied-dans-la-porte

Le pied-dans-la-porte revient à obtenir dans un premier temps un comportement très peu coûteux. Dans un second temps, en formulant – pied-dans-la-porte avec demande explicite – ou sans formuler – pied-dans-la-porte avec demande implicite –, la demande qui porte sur le comportement attendu.

On doit aux chercheurs nord-américains en psychologie sociale Jonathan Freedman et Scott Fraser la première illustration expérimentale du pied-dans-la-porte avec demande explicite (formulée). Les sujets répondent au téléphone à quelques questions anodines sur leurs habitudes de consommation. Sollicités quelques jours plus tard, ils reçoivent chez eux une équipe de plusieurs enquêteurs pendant deux heures. En utilisant cette technique en deux temps, les chercheurs obtiennent un taux d’acceptation de 52,8 %. Il n’est que de 22,2 % dans le groupe témoin, c’est-à-dire parmi les personnes n’étant pas préalablement sollicitées pour l’enquête téléphonique.

Le pied-dans-la-porte revient à obtenir, dans un premier temps, un comportement très peu coûteux avant le comportement attendu – que la demande en ait été formulée ou non.
Pu_kibun/Shutterstock

La première illustration expérimentale du pied-dans-la-porte avec demande implicite – sans requête portant sur le comportement attendu – est menée par le psychologue S. W; Uranowitz. À des passants dans un centre commercial, un expérimentateur demande de surveiller son sac, le temps de chercher un billet d’un dollar qu’il dit avoir perdu. Tous acceptent. Plus tard, un complice fait mine de laisser tomber un petit paquet. 80 % des personnes ayant rendu ce service le préviennent, contre 35 % dans un autre groupe, qui n’avaient reçu aucune sollicitation préalable.

Soumission librement consentie

Dans le domaine commercial, le comportement peu coûteux est appelé « acte préparatoire » par les chercheurs. Il consiste le plus souvent à faire un essai, évidemment gratuit, à s’inscrire à une newsletter, à répondre à un petit sondage, à remplir un formulaire, à accepter de prendre une carte de fidélité, une documentation, un échantillon, à goûter un produit, etc.

Sur la base des travaux réalisés par les psychologues sociaux, rapportés dans le Petit Traité de manipulation à l’usage des honnêtes gens, on peut considérer que ce n’est pas parce que nous avons trouvé bon le produit que nous venons de goûter – tous les produits qu’on nous invite à goûter sont évidemment bons –, que nous l’achetons. Ce qui est déterminant, c’est l’acte – en tant que tel – de le goûter, « acte préparatoire » que le démonstrateur a su préalablement obtenir de nous.

Ces techniques d’influence douce, étudiées par les psychologues sociaux Robert-Vincent Joule et Jean-Léon Beauvois depuis plus d’un demi-siècle, relèvent d’un même paradigme de recherche : la soumission librement consentie.

Ces procédures sont étudiées de longue date en marketing, notamment s’agissant des transactions réalisées sur Internet. Les travaux des Français Stéphane Amato et Agnès Helme-Guizon, en 2003 et en 2004, fournissent d’excellentes illustrations. Ces techniques peuvent aussi, on s’en doute, être utilisées à d’autres fins qu’à des fins commerciales. Elles peuvent être mises et, fort heureusement, sont mises aussi au service de la promotion de comportements pro-sociaux, pro-environnementaux, éducatifs, sanitaires, etc.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Soldes : les commerçants sont-ils d’honnêtes manipulateurs ? – https://theconversation.com/soldes-les-commercants-sont-ils-dhonnetes-manipulateurs-249618