Porcelaine de Limoges : un héritage célébré… mais peu revendiqué par les habitants

Source: The Conversation – Indonesia – By Valentina Montalto, Professeure associée – économie de la culture et politique européeenne de la culture, Kedge Business School

L’engouement d’une population pour son patrimoine ne se décrète pas. À Limoges, l’héritage de l’industrie de la porcelaine est mis en avant pour attirer les touristes. Mais les Limougeauds n’y sont pas particulièrement attachés.


Lorsque nous pensons au patrimoine culturel, nous imaginons souvent des villes pittoresques, de majestueux bâtiments historiques et des festivals animés qui rassemblent les communautés. Pourtant, la réalité est bien plus complexe. Le patrimoine culturel n’est pas toujours un symbole d’unité – il peut parfois être source de tensions, d’indifférence, voire de déconnexion.

Alors que la littérature académique s’est de plus en plus intéressée au « patrimoine contesté » – des paysages et monuments porteurs de mémoires conflictuelles ou de luttes politiques –, un autre phénomène, plus subtil, a reçu bien moins d’attention : le décalage silencieux entre les récits patrimoniaux promus par les autorités et les émotions des communautés locales.

Quand le patrimoine et les sentiments locaux divergent

Tout patrimoine culturel n’est pas ouvertement contesté. Dans de nombreuses zones périphériques ou économiquement en difficulté, des initiatives patrimoniales sont lancées avec de bonnes intentions, mais ne trouvent pas d’écho auprès des populations locales. Ce décalage discret peut poser de sérieux problèmes aux stratégies de tourisme durable et à la revitalisation économique locale.

Le musée du Four des Casseaux, à Limoges
Le musée du four des Casseaux, à Limoges, retrace l’histoire de la porcelaine.
Valentina Montalto, CC BY

Selon une nouvelle étude en cours de publication, menée par des chercheuses de KEDGE Business School (Paris) et de l’Université de Bologne, la fierté locale diverge souvent des récits promus par les décideurs publics. En utilisant Limoges comme étude de cas et en analysant les données d’enquête recueillies auprès de 510 résidents, les chercheuses ont constaté que, si l’héritage de la porcelaine est reconnu comme un atout distinctif par les habitants et célébré par les autorités locales comme pilier du tourisme, beaucoup de résidents n’y sont pas émotionnellement attachés.

La porcelaine à Limoges

Ce fossé est important. L’étude montre en effet que la fierté locale joue un rôle de médiation significatif entre la manière dont les habitants perçoivent leur ville et leur volonté de la recommander comme destination. Toutefois, si cet effet médiateur est positif pour des aspects de l’image de la ville jugés moins distinctifs – comme le paysage naturel ou l’offre de loisirs –, il ne l’est pas lorsqu’il s’agit de la porcelaine, pourtant véritable atout distinctif de la ville.

La porcelaine à Limoges trouve son origine dans une conjonction favorable de facteurs naturels, économiques et politiques.

C’est la découverte du kaolin – argile blanche indispensable à la fabrication de la porcelaine – dans les environs de Limoges, en 1767, qui marque le point de départ de cette aventure industrielle. À cette ressource locale rare s’ajoute la volonté de l’intendant Turgot de développer une activité économique dans un territoire alors pauvre, en s’appuyant sur les atouts du Limousin : forêts pour alimenter les fours, eau pure sans calcaire, rivières pour actionner les moulins…

Une part essentielle du patrimoine

Cette industrie florissante connaît son apogée à la fin du XIXe siècle, avec des dizaines de manufactures et des milliers d’emplois. Mais le XXesiècle est marqué par une profonde crise : la concurrence internationale, les transformations industrielles et les difficultés sociales entraînent une chute de la production. Aujourd’hui, seules quelques manufactures historiques – comme Bernardaud, Haviland, Royal Limoges ou Raynaud – poursuivent l’activité, souvent avec une forte spécialisation ou un positionnement haut de gamme.

Malgré cette contraction, acteurs publics et privés cherchent à maintenir vivante cette part essentielle du patrimoine limougeaud. Des institutions, comme le Musée national Adrien-Dubouché ou le plus petit, mais très actif, musée des Casseaux, valorisent les aspects techniques, artistiques et sociaux de cet héritage. En parallèle, la tradition se perpétue dans les entreprises labellisées « Entreprises du patrimoine vivant », qui associent excellence artisanale et création contemporaine.

Nommée « ville créative », pour les arts du feu, par l’Unesco depuis 2017, Limoges fait vivre cette mémoire à travers un jalonnement urbain de céramique initié en 2019. L’art contemporain y dialogue avec l’histoire industrielle pour ancrer la porcelaine dans l’espace public comme élément actif de l’identité culturelle actuelle de la ville.

Le rôle des émotions dans l’action collective

Des travaux s’appuyant sur la théorie des émotions dite « élargir-et-construire » (« Broaden-and-Build Theory of Emotions ») permettent de mieux comprendre ce phénomène. Comme l’ont démontré de nombreuses recherches récentes sur les comportements pro-environnementaux s’appuyant sur cette théorie, ce sont les émotions positives, comme la fierté, qui stimulent la découverte de nouvelles actions, idées et liens sociaux.

Une étude publiée en 2023 montre que les personnes attachées à leur environnement local sont plus susceptibles d’adopter des comportements favorables à l’environnement, et que la fierté renforce cette probabilité.

L’investissement émotionnel des habitants, puissant levier

En appliquant ce cadre théorique au domaine du tourisme culturel, cette recherche fournit des enseignements précieux pour les territoires périphériques ou marginalisés économiquement, comme celui étudié, mais aussi pour de nombreux autres à travers l’Europe (et au-delà), qui misent sur le patrimoine culturel pour reconfigurer leur tissu social et économique.

Contrairement aux grandes villes bénéficiant de visibilité et d’investissements globaux, les petites villes s’appuient fortement sur l’engagement local pour faire vivre leurs politiques de régénération urbaine. Ici, la fierté n’est pas qu’un sentiment agréable – elle peut être un puissant levier de mobilisation civique. Dans des zones aux ressources limitées, l’investissement émotionnel des habitants peut faire la différence entre un site culturel florissant et un patrimoine délaissé.

Comprendre la déconnexion émotionnelle au patrimoine local

Notre analyse statistique, basée sur un modèle de médiation causale, démontre le rôle central de la fierté locale en tant que facteur amplificateur des comportements protouristiques. En effet, la fierté a un impact positif et significatif sur les recommandations de visite. L’environnement naturel, social et urbain local devient digne d’une visite dès lors qu’il contribue à la fierté locale.

Cependant, un résultat contraire apparaît pour l’artisanat d’art : la fierté ne constitue pas un médiateur significatif pour l’artisanat d’art. Nous interprétons ce résultat comme une illustration des deux voies – cognitive et émotionnelle – qui sous-tendent les processus de prise de décision : d’une part, les habitants sont bien conscients du patrimoine distinctif de Limoges (connaissance) ; de l’autre, n’en sont pas fiers – mais c’est justement la fierté (ou le manque de fierté) qui influence leur volonté de (ne pas) recommander la ville pour une visite (intention comportementale).

Cette dualité est illustrée par les propos des habitants, dont certains déclarent par exemple : « Je suis heureuse (plutôt que fière) de vivre à Limoges, car c’est un peu une ville à la campagne », mettant en lumière un attachement émotionnel qui ne relève pas d’un sentiment de fierté.

Dans le cas spécifique de Limoges, le décalage révélé entre (l’absence de) fierté pour le patrimoine porcelainier et l’engagement citoyen nécessite une exploration plus approfondie des dynamiques socio-économiques.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Une image de produit bourgeois

La porcelaine de Limoges n’est pas seulement un symbole d’artisanat artistique ; c’est aussi une industrie créative porteuse d’un savoir-faire millénaire. Pourtant, son image de produit bourgeois peut ne pas résonner avec une population majoritairement ouvrière ayant connu des difficultés économiques. De plus, bien que la porcelaine soit emblématique, elle est souvent perçue comme éloignée du quotidien, cantonnée au marché du luxe, et non comme une partie vivante de l’économie locale.

Elément de rampe d’escalier en céramique bleue
La ville de Limoges a lancé fin 2016 une commande publique artistique pour créer un jalonnement céramique dans le centre-ville.
V. Montalto, CC BY

Sans oublier le déclin brutal de l’industrie porcelainière et les pertes d’emplois massives depuis les années 1930. Un chiffre parle de lui-même : entre 1930 et 1939, la production de porcelaine s’effondre, passant de 10 000 à 3 400 tonnes.

Bien que très spécifiques, ces couches de complexité permettent de mieux comprendre pourquoi la fierté locale à l’égard des atouts de la ville est si inégalement répartie.

En même temps, elles peuvent s’appliquer à de nombreuses autres zones post-industrielles cherchant à revitaliser leur identité et leur économie en s’appuyant sur des ressources naturelles (comme le kaolin pour la porcelaine) et des savoir-faire locaux.

Repenser les politiques patrimoniales descendantes

Les résultats de l’étude remettent en question le paradigme dominant – mais en évolution, notamment depuis l’adoption de la Convention de Faro en 2005 – des politiques patrimoniales descendantes. Dans de nombreuses régions, les initiatives culturelles sont conçues et mises en œuvre sans réelle concertation avec les populations locales, en partant du principe que les retombées économiques suffiront à susciter leur adhésion.

Pourtant, comme le montre le cas de Limoges, l’absence de fierté peut saper même les projets les mieux financés. Pour que le tourisme durable et la revitalisation industrielle réussissent, les récits locaux doivent être non seulement reconnus, mais intégrés activement dans les politiques publiques.

Par ailleurs, les stratégies qui ignorent le paysage émotionnel d’une communauté risquent d’exacerber le sentiment de dépossession, particulièrement problématique dans les zones rurales ou post-industrielles où les perspectives économiques sont limitées. Plutôt que d’imposer une vision du patrimoine venue d’en haut, les collectivités locales et les organisations de gestion des destinations (OGD) devraient engager les communautés dans la co-construction de récits patrimoniaux qui reflètent à la fois la signification historique et la fierté contemporaine – non pas uniquement comme atout touristique, mais comme ressource économique vivante.

Au-delà de la façade du patrimoine culturel

Cette recherche – que les auteurs étendent actuellement à d’autres villes moyennes dotées d’un patrimoine culturel distinctif, comme Biella et le textile en Italie, Grasse et le parfum ou encore Périgueux et l’art du mime – suggère que, lorsque les savoirs communautaires et les politiques institutionnelles ne s’alignent pas, le patrimoine risque de devenir un simple objet de musée – observé, mais pas nécessairement « ressenti » au point de susciter une action collective. La fierté civique apparaît ici comme un facteur déterminant pour transformer le patrimoine en un bien vivant, porté par la communauté, capable d’alimenter à la fois le tourisme et l’économie locale.

Pour les décideurs publics et les urbanistes, cela implique de repenser les approches traditionnelles descendantes au profit de modèles participatifs et ancrés dans le territoire, qui favorisent une connexion émotionnelle entre les communautés et leur héritage culturel. Le patrimoine culturel peut en effet être un levier de tourisme durable et de revitalisation économique – mais seulement s’il résonne réellement avec celles et ceux qui l’ont façonné.

The Conversation

Valentina Montalto est membre du Lab Culture et Industries Créatives de KEDGE Arts School – Centre d’Expertise de KEDGE Business School.

ref. Porcelaine de Limoges : un héritage célébré… mais peu revendiqué par les habitants – https://theconversation.com/porcelaine-de-limoges-un-heritage-celebre-mais-peu-revendique-par-les-habitants-258083

« Les Dents de la mer » ont 50 ans : comment deux notes de musique ont terrifié toute une génération

Source: The Conversation – Indonesia – By Alison Cole, Composer and Lecturer in Screen Composition, Sydney Conservatorium of Music, University of Sydney

Inutile de voir le requin pour sentir la peur. Des images troubles et une musique au motif simple suffisent. Universal Pictures

Cinquante ans après la sortie en salles des Dents de la mer, la musique de John Williams parvient encore à instaurer une tension intense avec deux simples notes.


Notre expérience du monde passe souvent par l’ouïe avant la vue. Qu’il s’agisse du bruit de quelque chose remuant dans l’eau ou du bruissement d’une végétation proche, la peur de ce que nous ne voyons pas est ancrée dans nos instincts de survie.

Le son et la musique au cinéma exploitent ces instincts troublants. Et c’est précisément ce que le réalisateur Steven Spielberg et le compositeur John Williams ont réussi à faire dans le thriller emblématique les Dents de la mer (Jaws, 1975). La conception sonore et la partition musicale s’unissent pour confronter le spectateur à un animal tueur aussi mystérieux qu’invisible.

Dans ce qui est sans doute la scène la plus célèbre du film – les jambes des nageurs battant l’eau sous la surface –, le requin reste quasiment invisible, mais le son communique parfaitement la menace qui rôde.

Créer de la tension dans une bande originale

Les compositeurs de musique de film cherchent à créer des paysages sonores capables de bouleverser et d’influencer profondément le public. Ils s’appuient pour cela sur différents éléments musicaux : rythme, harmonie, tempo, forme, dynamique, mélodie et texture.

Dans les Dents de la mer, la première apparition du requin commence innocemment avec le son d’une bouée au large et une cloche qui tinte. Musicalement et atmosphériquement, la scène établit une sensation d’isolement autour des deux personnages qui nagent de nuit sur une plage déserte.

Mais dès que retentissent les cordes graves, suivies du motif central à deux notes joué au tuba, on comprend qu’un danger menaçant approche.

Cette technique consistant à alterner deux notes de plus en plus rapidement est utilisée depuis longtemps par les compositeurs – on la retrouve notamment dans la Symphonie du Nouveau Monde (1893) d’Antonín Dvořák.

John Williams, le compositeur, aurait mobilisé six contrebasses, huit violoncelles, quatre trombones et un tuba pour créer ce mélange de basses fréquences qui allait devenir la signature sonore des Dents de la mer.

Spectre sonore

Ces instruments mettent l’accent sur le bas du spectre sonore, générant un timbre sombre, profond et intense. Les musiciens à cordes peuvent employer différentes techniques d’archet, comme le staccato ou le marcato, pour produire des sonorités sombres, voire inquiétantes, surtout dans les registres graves.

Par ailleurs, les deux notes répétées (mi et fa) ne forment pas un ton clairement défini : elles sont jouées sans véritable tonalité, avec une dynamique croissante, ce qui renforce l’impression d’un danger imminent avant même qu’il ne se manifeste, stimulant ainsi notre peur instinctive de l’inconnu.

Steven Spielberg et John Williams parlent du travail de composition de la musique des Dents de la mer.

L’utilisation de ce motif minimaliste et de cette orchestration grave illustre un style de composition pensé pour déstabiliser et désorienter. On retrouve un effet similaire dans la bande-son de la scène d’accident de voiture de la Mort aux trousses (North by Northwest, 1959), composée par Bernard Herrmann pour Hitchcock.

De même, dans la Suite scythe de Serge Prokofiev, le début du deuxième mouvement (« la Danse des dieux païens ») repose sur un motif alternant deux notes proches ( dièse et mi).

La souplesse du motif de Williams permet de le faire jouer par différents instruments tout au long de la bande originale, explorant ainsi une palette de timbres capables d’évoquer tour à tour la peur, la panique ou l’angoisse.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


La psychologie de notre réaction

Mais qu’est-ce qui rend la bande originale des Dents de la mer si perturbante, même sans les images ? Les chercheurs en musique avancent plusieurs hypothèses.

Certains estiment que les deux notes évoquent le bruit de la respiration humaine, d’autres suggèrent qu’elles rappelleraient les battements de cœur… du requin.

Dans une interview au Los Angeles Times, John Williams expliquait :

« Je voulais créer quelque chose de très… primaire. Quelque chose de très répétitif, viscéral, qui vous saisit aux tripes plutôt qu’à l’esprit. […] Une musique qu’on pourrait jouer très doucement, ce qui signifierait que le requin est encore loin, quand on ne voit que l’eau. Une musique “sans cerveau” qui devient plus forte à mesure qu’elle se rapproche de vous. »

Tout au long de la bande-son du film, Williams joue avec les émotions du spectateur, jusqu’à la scène de l’homme contre le requin – véritable apogée du développement thématique et de l’orchestration.

Cette bande originale mythique a laissé une empreinte qui dépasse le simple accompagnement visuel. Elle agit comme un personnage à part entière.

En utilisant la musique pour dévoiler ce qui est caché, Williams construit une expérience émotionnelle intense, marquée par l’anticipation et la tension. Le motif à deux notes incarne à lui seul son génie – une signature sonore qui, depuis des générations, fait frissonner les baigneurs avant même qu’ils ne mettent un pied dans l’eau.

The Conversation

Alison Cole ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. « Les Dents de la mer » ont 50 ans : comment deux notes de musique ont terrifié toute une génération – https://theconversation.com/les-dents-de-la-mer-ont-50-ans-comment-deux-notes-de-musique-ont-terrifie-toute-une-generation-259293

Deux mille ans plus tard, enquête sur une possible fraude au vin dans la Rome antique

Source: The Conversation – Indonesia – By Conor Trainor, Ad Astra Research Fellow / Assistant Professor, University College Dublin

L’emplacement de la Crète sur la route des importations romaines de blé explique une partie du succès de son vin. Dan Henson/Shutterstock

Le passum, ce vin de raisins secs, était une douceur prisée des Romains. Son succès a-t-il encouragé des viticulteurs crétois de l’époque à le contrefaire ? Un chercheur de l’Université de Warwick mène l’enquête.


Avant l’apparition des édulcorants artificiels, les gens satisfaisaient leur envie de sucré avec des produits naturels, comme le miel ou les fruits secs. Les vins de raisins secs, élaborés à partir de raisins séchés avant fermentation, étaient particulièrement prisés. Les sources historiques attestent que ces vins, dont certains étaient appelés passum, étaient appréciés dans l’Empire romain et dans l’Europe médiévale. Le plus célèbre de l’époque était le malvoisie, un vin produit dans de nombreuses régions méditerranéennes.

Séchage et fermentation

Aujourd’hui, ces vins sont moins populaires, bien que certains soient toujours très recherchés. Les plus connus sont les vins italiens dits « appassimento » (une technique vinicole également connue sous le nom de passerillage), comme l’Amarone della Valpolicella. Dans la région de Vénétie, les meilleurs vins de ce type sont issus de raisins séchés pendant trois mois avant d’être pressés et fermentés – un procédé long et exigeant.

Les sources antiques décrivent des techniques similaires. Columelle, auteur romain spécialisé dans l’agriculture, indique que le séchage et la fermentation duraient au minimum un mois. Pline l’Ancien, quant à lui, décrit une méthode consistant à faire sécher les grappes partiellement sur la vigne, puis sur des claies, avant de les presser huit jours plus tard.

Depuis dix ans, j’étudie la fabrication de ce vin sur le site archéologique de Cnossos, en Crète. Si l’île est surtout connue pour ses vestiges minoens, elle était aussi célèbre à l’époque romaine pour ses vins doux de raisins secs, exportés à grande échelle.

Les vins de raisins secs de haute qualité demandaient du temps et de la patience, mais il semble que les producteurs de Cnossos aient parfois contourné les méthodes traditionnelles. Mes recherches sur un site de production vinicole et sur des sites de fabrication d’amphores indiquent que les vignerons crétois ont peut-être trompé leurs clients romains avec une version contrefaite du passum.

L’héritage viticole de la Crète

Les vestiges d’un site de production de vin à Cnossos montrent les pratiques en vigueur une génération avant la conquête romaine. Plus intéressant encore, les études en cours sur des fours de potiers de l’époque romaine révèlent une production concentrée sur quatre types d’objets : des amphores pour le vin, des supports pour leur remplissage, de grandes cuves de mélange en céramique et des ruches en terre cuite.

La Crète, plus grande île grecque, produit du vin depuis des millénaires. Des indices retrouvés à Myrtos attestent de la vinification dès 2170 avant notre ère. Grâce à sa position stratégique entre la Grèce et l’Afrique du Nord, l’île était âprement convoitée. En 67 av. n. è., après une campagne militaire de trois ans, les Romains en prirent le contrôle.

Après la conquête, l’économie crétoise a subi des changements profonds. Les Romains ont fondé une colonie à Cnossos, réorganisant le pouvoir et développant massivement la production vinicole. L’activité rurale a augmenté, et des fouilles archéologiques ont mis au jour un grand nombre d’amphores, preuve que le vin crétois était largement exporté.

Des raccourcis pour la production

Si les Romains achetaient autant de vin crétois, c’était en partie à cause des routes maritimes. Les navires chargés de blé en provenance d’Alexandrie, à destination de Rome, faisaient souvent escale en Crète, ce qui permettait aux marchands de charger d’autres produits. Mais la demande était aussi stimulée par la réputation du vin crétois, considéré comme un produit de luxe, à l’instar des vins appassimento italiens actuels. Il était aussi apprécié pour ses vertus médicinales supposées. Le médecin militaire Pedanius Dioscoride écrivait dans son traité De Materia Medica que ce vin soignait les maux de tête, expulsait les vers intestinaux et favorisait la fertilité.

L’explosion soudaine de la demande à Rome et dans la baie de Naples a pu inciter les producteurs à accélérer la fabrication.

Pline l’Ancien décrit ainsi un raccourci pour obtenir ce type de vin : faire bouillir le jus de raisin dans de grandes cuves. Mais les cuves retrouvées à Cnossos ne portent aucune trace de chauffe. Une autre hypothèse se dessine : l’ajout de miel au vin avant sa mise en amphore. Les ruches retrouvées dans les fours de potiers romains – reconnaissables à leur surface intérieure rugueuse favorisant la fixation des rayons de cire – suggèrent un lien entre viticulture et apiculture. Des découvertes similaires sur d’autres sites grecs laissent penser que vin et miel pouvaient être mélangés avant expédition.

Cette méthode était plus rapide et moins coûteuse que le séchage des raisins. Mais dans ce cas, pouvait-on encore parler de vin de raisins secs ? Et les consommateurs romains étaient-ils au courant ? Les quantités massives de vin crétois importées à Rome indiquent que cela ne les préoccupait guère. Vu le nombre d’amphores vides retrouvées à Rome, je pense que la population se souciait bien moins de l’authenticité que nous ne le ferions aujourd’hui.

The Conversation

Conor Trainor a reçu des financements de l’University College Dublin, de la British School at Athens, et, auparavant pour cette recherche, de l’Université de Warwick.

ref. Deux mille ans plus tard, enquête sur une possible fraude au vin dans la Rome antique – https://theconversation.com/deux-mille-ans-plus-tard-enquete-sur-une-possible-fraude-au-vin-dans-la-rome-antique-258849

« Les Trois Mousquetaires » : comment l’œuvre d’Alexandre Dumas influence la perception de l’Histoire de France

Source: The Conversation – Indonesia – By Philippe Ilial, Professeur de Lettres-Histoire. Chargé de cours en Histoire Moderne. Chercheur associé au CMMC, Université Côte d’Azur

Avec sa trilogie les Trois Mousquetaires, Alexandre Dumas mêle réalité historique et fiction héroïque, contribuant à façonner une perception populaire et parfois idéalisée de certaines époques de l’Histoire de France.


La trilogie composée par les Trois Mousquetaires (1844), Vingt ans après (1845) et le Vicomte de Bragelonne (1850), se déroule dans la France du XVIIe siècle, une période tumultueuse marquée par des intrigues de cour, des conflits politiques et des guerres.

Alexandre Dumas père (1802–1870) transforme cette époque en un décor épique où les mousquetaires, figures de loyauté et d’héroïsme, incarnent des valeurs de bravoure, d’amitié et de fidélité.

Ces ouvrages ont diverti les lecteurs, mais ont aussi nourri la perception de l’Histoire française des lecteurs puis plus tard des spectateurs – dès qu’Hollywood s’est emparé du thème. Entre fidélité historique et liberté créative, cette œuvre a profondément marqué l’imaginaire culturel collectif.




À lire aussi :
« Le Comte de Monte-Cristo », un conte moderne des Mille et une Nuits


Entre fidélité historique et liberté créative

Dumas utilise l’Histoire comme une toile de fond, un canevas sur lequel il brode des intrigues souvent complexes. Pour écrire les Trois Mousquetaires, il s’appuie sur des documents tels que les Mémoires de Monsieur d’Artagnan, rédigées par Courtilz de Sandras en 1700, un polygraphe et ancien mousquetaire lui-même, une source qui lui permet de s’imprégner des événements et personnages de l’époque. Cependant, Dumas ne se soucie pas de la précision historique au sens strict. Il est romancier et choisit de sacrifier la rigueur historique à la vivacité de son récit, comme en témoigne la chronologie très libre de certains événements ou l’invention de personnages qui n’ont jamais existé.

La démarche de Dumas se situe à mi-chemin entre le roman historique et le roman d’aventures. Certains faits sont authentiques comme la rivalité entre Richelieu et Buckingham au siège de la Rochelle, point d’orgue de l’opposition entre la France et l’Angleterre soutien des protestants, mais l’auteur se permet d’ajouter des éléments fictifs pour mieux captiver son lecteur, n’oublions pas que l’œuvre est avant tout conçue comme un feuilleton littéraire (paru dans le journal La Presse dès 1844). Il préfère dramatiser les faits plutôt que de les relater avec exactitude. Il insiste, par exemple, sur les rivalités et les duels alors que le fameux siège de la ville est avant tout un évènement militaire.

Ce parti pris témoigne de son ambition : donner à l’histoire une dimension romanesque où l’action, le suspense et l’émotion priment sur la véracité des événements. Ainsi sa trilogie n’est surtout pas à prendre comme un livre d’histoire.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Les figures historiques telles que Richelieu, Louis XIII ou encore Anne d’Autriche sont au cœur de la trilogie. Dumas les adapte à son intrigue, créant des personnages plus grands que nature. Richelieu, par exemple, devient un symbole de manipulation politique et d’intrigues secrètes, bien plus machiavélique dans le roman que ce qu’il fut en réalité. D’Artagnan, Athos, Porthos et Aramis, bien qu’inspirés de personnages ayant peut-être existé, sont eux aussi construits comme des archétypes de l’honneur, du courage et de l’amitié.

Dumas construit ses personnages comme des mythes, des incarnations de vertus ou de vices. En cela, il contribue à une perception de l’histoire où l’héroïsme prend le pas sur le réel. Bien que complexes, les antagonistes sont réduits à une dimension presque « monomaniaque », ils deviennent des stéréotypes comme celui du méchant, du comploteur, de l’espion…

Portrait de l’écrivain français Alexandre Dumas (1802–1870)
Alexandre Dumas père (1802–1870) par Nadar (1855).
Wikicommons

Les sauts temporels entre les Trois Mousquetaires et Vingt ans après ou encore le Vicomte de Bragelonne permettent à Dumas d’aborder des époques distinctes tout en conservant une continuité narrative. Les romans couvrent ainsi plusieurs décennies d’Histoire française et donnent au lecteur une impression d’enchaînement logique mais cette liberté narrative conduit à une vision linéaire et simplifiée de l’Histoire.

Une vision héroïque de l’Histoire de France

Par le biais de ses mousquetaires, Dumas construit une vision héroïque et valorisante de l’Histoire de France. D’Artagnan et ses compagnons représentent l’esprit français, capable de résister aux complots et aux conflits pour défendre des idéaux de justice et de loyauté. À travers les aventures des mousquetaires, Dumas véhicule aussi une forme de patriotisme : il montre des personnages qui, malgré les querelles et les luttes de pouvoir, restent attachés à leur pays et à leur roi.

Dumas invente et diffuse une version accessible et romancée de l’Histoire de France. Cette popularisation s’est amplifiée avec les nombreuses adaptations cinématographiques qui ont fait des trois mousquetaires des personnages mondialement reconnus. De Douglas Fairbanks incarnant D’Artagnan en 1921 à Gene Kelly en 1948 dans le film de George Sidney, la trilogie de Dumas compte à ce jour plus de 50 adaptations cinématographiques.

Bande annonce des Trois Mousquetaires, de George Sidney, sorti en 1948.

Le succès de ces adaptations a créé une familiarité avec cette période de l’Histoire chez le grand public. Mais cette popularisation a considérablement simplifié la perception du public concernant des événements comme la Fronde ou les intrigues de Richelieu, négligeant la complexité réelle de ces épisodes historiques dans le sens d’un mythe national comme la rivalité entre Richelieu et Buckingham.

Le but premier de Dumas restait de distraire, passionner son lectorat, pas de lui faire un cours d’histoire. Mais c’est parce que l’histoire est omniprésente, à la fois comme cadre et pourvoyeuse d’intrigues et de personnages, que le lecteur/spectateur à l’impression que tout est vrai.

Dumas s’est permis de nombreux anachronismes en même temps que de grandes libertés avec les faits historiques – comme l’histoire d’amour adultérine entre Anne d’Autriche et Buckingham qui n’a pas existé. Ces inexactitudes sont des choix de narration qui servent l’intrigue. Certains faits sont condensés ou déplacés pour accentuer les tensions dramatiques, comme la surreprésentation de Richelieu dans certaines intrigues. Si ces libertés ont été critiquées par des historiens, elles n’ont pas empêché le public d’adhérer aux aventures des mousquetaires.

Les mousquetaires : figures emblématiques du patrimoine français ?

Les personnages de d’Artagnan, Athos, Porthos et Aramis sont devenus des figures emblématiques du patrimoine culturel français. Ils incarnent des idéaux nobles tels que la bravoure, la camaraderie, et le sens de l’honneur, ce qui fait d’eux des héros intemporels. Dumas a créé des archétypes qui dépassent la littérature et sont devenus des symboles dans l’imaginaire collectif.

Au moment de leur parution, au XIXe siècle, les aventures des mousquetaires font écho aux préoccupations sociales de l’époque, période de bouleversements politiques et sociaux pour la France (révolutions de 1830 et de 1848 notamment). La loyauté des mousquetaires envers leur roi, même en dépit de leurs différends personnels, peut être lue comme une réflexion sur le patriotisme et la fidélité envers l’État dans un contexte postrévolutionnaire.

Enfin, la trilogie des Trois Mousquetaires a exercé une influence durable sur le genre du roman historique, non seulement en France mais aussi à l’international. Dumas a su créer une forme de littérature où l’histoire devient une aventure palpitante sans être pour autant un simple prétexte. Il a en quelque sorte fondé un modèle de fiction historique romancée, qui sera repris et adapté par de nombreux auteurs ; on pense à Paul Féval et son Bossu !

Aujourd’hui encore, cette approche influence la manière dont l’histoire est abordée dans les romans, et même dans les médias audiovisuels comme le cinéma et la télévision. La trilogie des Trois Mousquetaires reste une référence incontournable pour quiconque veut mêler l’histoire à la fiction.

The Conversation

Philippe Ilial est enseignant au lycée ainsi qu’à l’université Côte-d’Azur, il est également rédacteur en chef de plusieurs revues de vulgarisation historique.

ref. « Les Trois Mousquetaires » : comment l’œuvre d’Alexandre Dumas influence la perception de l’Histoire de France – https://theconversation.com/les-trois-mousquetaires-comment-loeuvre-dalexandre-dumas-influence-la-perception-de-lhistoire-de-france-255995

Espérance de vie : peut-on gagner six heures par jour indéfiniment ?

Source: – By Gilles Pison, Anthropologue et démographe, professeur au Muséum national d’histoire naturelle et chercheur associé à l’INED, Muséum national d’histoire naturelle (MNHN)

En 2004 en France, l’espérance de vie a passé le seuil des 80 ans. Marie-Sophie Tekian/Unsplash

En France, au milieu du XVIIIe siècle, l’espérance de vie à la naissance était de moins de 30 ans ; elle a presque triplé depuis (voir la figure 1 ci-dessous). Au cours de la période récente, c’est-à-dire depuis le milieu du XXe siècle, elle a progressé de près de trois mois en moyenne par an – soit six heures par jour –, passant de 66,4 ans en 1950 à 82,5 ans en 2017.

Va-t-elle continuer à augmenter ? Jusqu’où ? Elle progresse en effet moins vite depuis quelque temps, de deux mois en moyenne par an. Est-ce le signe qu’elle se rapproche des limites ? Pour y voir plus clair, analysons son évolution passée et les facteurs expliquant sa formidable progression jusqu’ici.

Évolution de l’espérance de vie en France.
Gilles Pison (à partir de reconstitutions historiques et des données de l’Insee), CC BY-NC-ND

Le recul de la mortalité infantile, un facteur déterminant

La progression de l’espérance de vie n’a pas été régulière au cours des deux siècles et demi passés. Elle a été interrompue par les conflits (guerres napoléoniennes, guerres de 1870, 1914-1918 et 1939-1945) qui ont entraîné des reculs importants. Mais ceux-ci n’ont duré que le temps du conflit, la progression reprenant ensuite la tendance de fond.

Les progrès s’accélèrent à certaines périodes, comme au tournant du XVIIIe et du XIXe siècle, ou cent ans plus tard, à la fin du XIXe siècle. Ils ralentissent à d’autres, comme entre 1850 et 1870. Ces variations sont parallèles à celles de la mortalité des enfants, encore très élevée à ces époques, et qui pèse beaucoup sur la durée de vie moyenne.

Ainsi, la moitié des enfants mourait avant l’âge de 10 ans en France au milieu du XVIIIe siècle, ce qui explique la très faible espérance de vie (25 ans). Autour de 1800 la mortalité des enfants recule fortement grâce en partie à la vaccination contre la variole : le risque pour un nouveau-né de mourir dans sa première année diminue d’un tiers en deux décennies, passant de 275 pour mille à 185 pour mille, comme le montre la figure 2. L’espérance de vie fait un bond de 10 ans.

Évolution de la mortalité infantile en France.
Gilles Pison (à partir de reconstitutions historiques et des données de l’Insee), CC BY-NC-ND

Au milieu du XIXe siècle, la mortalité infantile remonte du fait de l’industrialisation et l’urbanisation qui dégradent les conditions de vie des enfants, notamment dans les villes. L’espérance de vie stagne. À l’inverse, à la fin du XIXe siècle et dans la première moitié du XXe siècle, les progrès de l’hygiène et de la médecine liés à la révolution pastorienne, dont les enfants ont été les premiers bénéficiaires, et aussi la mise en place des premières politiques de protection de la petite enfance, entraînent une forte augmentation de l’espérance de vie.

Au sortir de la Deuxième Guerre mondiale, l’espérance de vie récupère la tendance de fond et atteint 66,4 ans en 1950. Elle poursuit ensuite sa progression au rythme de près de 3 mois en plus par an en moyenne.

Mais le rythme a un peu baissé depuis 2010, deux mois en plus par an seulement en moyenne comme déjà mentionné, laissant penser que l’allongement de la vie pourrait bientôt atteindre ses limites.

Un précédent ralentissement il y a 50 ans

Un phénomène similaire de ralentissement des progrès s’est produit il y a 50 ans, visible à la figure 3 qui zoome sur la période récente. Alors que l’espérance de vie à la naissance (sexes confondus) a augmenté de 4 ans au cours de la décennie 1950, elle n’a crû que de 1,7 an au cours de la décennie 1960.

Durant ces décennies, la progression de l’espérance de vie vient encore pour partie du recul de la mortalité infantile. Elle a baissé de moitié entre 1950 et 1960, passant de 51 décès d’enfants de moins d’un an pour mille naissances, à 27 ‰, et a continué de diminuer pendant la décennie suivante pour atteindre 18 ‰ en 1970. Mais le niveau atteint est si bas qu’elle ne représente plus désormais qu’une faible part de la mortalité, et même si son recul se poursuit (elle est de 4 ‰ en 2017), il n’a pratiquement plus d’effet sur l’espérance de vie.

Celle-ci ne peut progresser qu’en raison des succès remportés dans la lutte contre la mortalité adulte, en particulier aux âges élevés où se concentrent de plus en plus les décès.

En France, la progression de l’espérance de vie marque le pas dans les années 1960.
Gilles Pison (à partir des données de l’Insee), CC BY-NC-ND

Des scénarios pessimistes démentis par la réalité, l’idée du plafonnement abandonnée

Les possibilités de diminution de la mortalité à ces âges ne peuvent être que limitées, pense-t-on il y a 50 ans, et l’espérance de vie va rapidement buter sur un plafond biologique.

Le ralentissement des années 1960 vient conforter cette vision. Celle-ci se reflète dans les scénarios d’évolution de l’espérance de vie qu’élabore l’Insee pour projeter la population de la France (voir la figure 3 ci-dessus).

Ainsi, la projection publiée en 1979 considère que l’espérance de vie va plafonner à 73,8 ans en 2000, or ce seuil a été dépassé l’année même où elle a été publiée, l’espérance de vie ayant atteint 74,1 ans en 1979. Tenant compte de l’énorme décalage entre les projections précédentes et la réalité, la projection de 1986 fait progresser l’espérance de vie nettement plus rapidement tout en conservant l’hypothèse d’un ralentissement puis d’un plafonnement à terme.

Mais, comme dans les projections antérieures, le plafond de la projection de 1986 est atteint puis dépassé (en 1997). Le constat que les plafonds même rehaussés sont régulièrement dépassés au bout de quelques années conduit à l’abandon de l’idée même de plafonnement dans les projections suivantes.

Celles-ci extrapolent la tendance courante sur toute la période de projection, se contentant de l’infléchir très progressivement sans toutefois fixer de limite. Elles correspondent assez bien à l’évolution observée pour l’instant.

Les succès de la lutte contre la mortalité des personnes âgées

Si les projections ont longtemps sous-estimé les progrès de l’espérance de vie, c’est qu’elles n’ont pas anticipé la forte baisse de la mortalité des adultes et des personnes âgées. Il faut dire que les progrès dans ce domaine sont relativement récents, comme le montre l’évolution de l’espérance de vie à 60 ans sur la figure 4 ci-dessous.

Au milieu du XXe siècle, elle était encore proche de son niveau du XIXe siècle, notamment du côté masculin : un homme de 60 ans pouvait espérer vivre encore 13 à 14 ans. Ce n’est qu’à partir de la fin de la Deuxième Guerre mondiale qu’elle commence à augmenter chez les hommes, les progrès s’accélérant ensuite jusqu’à ce qu’elle atteigne 23,2 ans en 2017, soit 7,3 ans de plus qu’en 1967. La progression a commencé plus tôt chez les femmes, dès les premières décennies du XXe siècle, et elle s’est aussi accélérée à partir de la fin de la guerre jusqu’à 27,6 ans en 2017, soit 7,2 ans de plus qu’en 1967.

Évolution de l’espérance de vie des personnes âgées en France.
Gilles Pison (à partir des données de l’Insee et de Vallin et Meslé 2001), CC BY-NC-ND

La révolution cardiovasculaire

Au milieu du XXe siècle, les maladies infectieuses étaient encore la cause d’une partie importante des décès d’adultes et de personnes âgées, et leur recul a entraîné une augmentation sensible de l’espérance de vie à 60 ans. Mais, comme pour les enfants, la part de ces maladies dans la mortalité totale a beaucoup régressé et les gains à attendre de la poursuite de leur recul sont faibles.

Les maladies cardiovasculaires et les cancers sont désormais les principales causes de décès à ces âges, comme le montre la figure 5 ci-dessous. Et ce sont les succès rencontrés dans la lutte contre ces maladies qui ont permis à la mortalité des adultes et des personnes âgées de poursuivre sa baisse à partir des années 1970, et à l’espérance de vie de continuer à augmenter.

La mortalité due aux maladies du cœur et des vaisseaux a énormément diminué depuis un demi-siècle grâce à la « révolution cardiovasculaire » qu’ont constitué les progrès de la prévention et des traitements dans ce domaine. Quant à la mortalité par cancer, qui avait augmenté, elle régresse maintenant grâce aux diagnostics plus précoces et à la réduction des comportements à risques comme le tabagisme.

Évolution de la mortalité par causes de décès en France.
Gilles Pison (à partir des données de l’Inserm, Meslé 2006 et Breton et coll. 2017), CC BY-NC-ND

Les conditions d’une espérance de vie toujours en progrès

Le ralentissement des progrès de l’espérance de vie depuis une dizaine d’années est peut-être le signe que les retombées de la révolution cardiovasculaire sont en voie d’épuisement.

Et les progrès futurs pourraient dépendre de plus en plus de la lutte contre les cancers qui sont devenus la première cause de décès. Si celle-ci engrange les succès, les retombées en termes d’espérance de vie ont été moins spectaculaires jusqu’ici que celles liées à la révolution cardiovasculaire. Il faudrait que le recul de la mortalité liée aux cancers s’accélère dans les prochaines décennies si l’on veut que l’espérance de vie continue de progresser de 3 mois par an.

À plus long terme, comme pour les avancées liées à la lutte contre les infections, celles liées à la lutte contre les maladies cardiovasculaires et les cancers devraient s’épuiser un jour. De nouveaux terrains de lutte comme les maladies neurodégénératives (maladies d’Alzheimer, de Parkinson, etc.) et des innovations médicales et sociales pourraient alors prendre le relais et ouvrir une nouvelle phase de progrès sanitaire.

Ce qui pourrait non pas conduire à l’immortalité, vieux rêve inaccessible, mais remettre de nouveau à plus tard le calcul d’une limite à la progression de l’espérance de vie.

The Conversation

Gilles Pison ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Espérance de vie : peut-on gagner six heures par jour indéfiniment ? – https://theconversation.com/esperance-de-vie-peut-on-gagner-six-heures-par-jour-indefiniment-98188

Climat des affaires : les stratégies des entreprises pour protéger leurs données

Source: – By Philippe Dupuy, Professeur Associé au département Gestion, Droit et Finance, Grenoble École de Management (GEM)

Pour 43,1 % des entreprises, protéger les systèmes passe par la formation des salariés voire par l’embauche de spécialistes en cybersécurité.

Samuel Zeller/Unsplash, CC BY

Grenoble École de Management et l’association des Directeurs financiers et des contrôleurs de gestion (DFCG) recueillent chaque trimestre l’avis des responsables financiers français. Les résultats sont agrégés au niveau mondial par un réseau d’universités coordonnées par Duke University aux États-Unis. Pour le deuxième trimestre 2018, l’enquête s’est déroulée du 13 mai au 7 juin 2018.


La protection des données est devenue un enjeu majeur pour les entreprises depuis quelques années. Par exemple, 36,7 % des entreprises françaises déclarent que leurs systèmes informatiques ont déjà été attaqués par des pirates (hackers). En réponse, elles sont de plus en plus nombreuses à consacrer un budget significatif à leurs défenses. L’achat de logiciels reste la principale réponse pour 67 % des répondants européens, suivi par l’amélioration des procédures concernant les mots de passe, par exemple.

En revanche, pour 43,1 % des entreprises qui nous ont répondu, protéger les systèmes passe avant tout par la formation des salariés voire par l’embauche de spécialistes en cybersécurité (24,7 %). Ces spécialistes sont d’ailleurs parfois autorisés, par la direction, à « piéger » les employés afin de tester la robustesse du système (11,3 % des cas). Enfin, seules 6,2 % des entreprises déclarent ne pas avoir entrepris d’action afin de mieux protéger leurs données.

Aux États-Unis, le nombre d’entreprises qui avouent avoir subi des attaques est plus faible qu’en Europe. Il tombe à 20 % notamment parce que la question de la défense des données semble être mieux prise en compte. Mais ce chiffre doit être mis en regard de la perte de « réputation » à laquelle l’entreprise attaquée peut faire face en Amérique du Nord. De nombreuses entreprises américaines cacheraient leurs défaillances afin de protéger leur image.

La protection des données devrait rester clé pour la fonction finance dans les années à venir. Ainsi, 29,2 % des responsables financiers européens placent cette question parmi les trois plus importantes qu’ils auront à gérer dans un futur proche. Elle reste néanmoins derrière les problématiques liées à la gouvernance d’entreprise (35,4 %), les fusions et acquisitions (34,4 %) et l’évolution des réglementations (34,4 %).

Hausse des coûts de financement

La reprise des tensions inflationnistes à travers le monde a récemment conduit plusieurs banques centrales à durcir les conditions d’octroi de crédit, ce qui a eu comme conséquence mécanique une remontée des taux d’intérêt à long terme. Les entreprises voient donc actuellement leurs conditions de financement se détériorer.

Pour ce trimestre, nous avons cherché à estimer la sensibilité de la politique de financement des entreprises à la variation du niveau des taux d’intérêt telle que perçue par les responsables financiers. Le taux moyen auquel les entreprises se financent est aujourd’hui d’environ 2,95 % sur l’ensemble de notre échantillon européen. Les niveaux les plus bas sont observés en Allemagne (2,2 %) et les plus hauts en Grèce (6,0 %). Quelle que soit l’évolution future des taux, les entreprises européennes nous disent vouloir limiter leurs ratios d’endettement. Ainsi dans le cas d’une baisse supplémentaire des taux de financement d’environ un point (jusqu’à environ 2,0 %), les entreprises envisagent de baisser leurs ratios d’endettement d’un point de pourcentage également, pour le porter à environ 32,3 % en moyenne.

Le scénario central retenu par les responsables financiers est néanmoins celui d’une hausse modérée des taux d’intérêt qui s’établiraient à environ 3,4 % à l’horizon fin 2019. Dans ce contexte, les entreprises envisagent de réduire leurs ratios d’endettement de deux points de pourcentage. Enfin, dans un scénario de hausse élevée des taux, jusqu’à 4,5 %, la réduction estimée d’endettement serait d’environ quatre points de pourcentage. Au total, on peut estimer qu’une hausse d’environ 1 % des taux d’intérêt de long terme aurait pour conséquence une baisse d’environ 1 % du ratio d’endettement cible des entreprises.

La hausse du coût de financement pourrait avoir également un impact direct sur l’activité de fusion et acquisition (M&A) dans les pays européens. Ainsi, seulement un tiers des responsables financiers italiens s’attendent à une activité importante en M&A. À l’inverse, en Allemagne où les taux de financement sont les plus faibles du continent, les DAF (directeurs administratifs et financiers) sont 80 % à s’attendre à une hausse de l’activité en M&A. Les secteurs les plus concernés devraient être les secteurs de la banque et de l’assurance ainsi que celui des technologies. Au total, 41,9 % des responsables financiers s’attendent à une hausse des fusions et acquisitions dans l’année à venir (42,9 % en France).

Climat des affaires toujours favorable

En Europe, l’indicateur de climat des affaires reprend sa course en avant ce trimestre pour atteindre désormais 68,5 contre 67,0 au trimestre précédent. Cela fait désormais deux années consécutives que l’indicateur de climat des affaires enregistre une progression régulière, lui permettant de passer de 53 en mars 2016 aux niveaux observés aujourd’hui, compatibles avec une croissance élevée du PIB.

Il est aussi frappant de constater que cet enthousiasme économique concerne tous les principaux pays de la zone euro. Ainsi, la France affiche un optimisme de 67,5 et l’Italie de 65,4 alors même que le pays connaît une crise politique importante depuis les dernières élections. C’est en Allemagne que le climat des affaires semble le plus favorable (81,8) en forte hausse par rapport au trimestre précédent (72,3).

En revanche, le Royaume-Uni maintient sa position en queue de peloton affichant désormais un optimisme de seulement 57,3.

Aux États-Unis, le climat des affaires se stabilise à 71,1, contre 71,2 au trimestre précédent. Il reste favorable à une croissance soutenue de l’économie. Cependant, une majorité de responsables financiers américains s’attend désormais à une hausse significative des coûts de financement – notamment par la hausse des taux d’intérêt de long terme. Le contexte macro-économique pourrait alors devenir moins favorable au business avec des conséquences importantes en termes d’investissements et d’activité. Au-delà, le rythme des fusions et acquisitions, qui aujourd’hui soutient en partie les marchés d’actions, pourrait ralentir.

Enfin, la décision de l’administration Trump d’augmenter les tarifs douaniers notamment sur l’acier européen ne semble pas avoir eu d’impact particulier sur le moral des entreprises américaines. De même, ni l’opposition du G7, ni les avancées des négociations avec la Corée du Nord ne semblent jouer sur le climat des affaires nord-américain.

Dans le reste du monde : le climat des affaires s’affaiblit quelque peu en Amérique du Sud, en particulier au Brésil (54) et en Équateur (36). Il reste néanmoins favorable à une croissance élevée au Mexique (69) et au Pérou (61). En Asie, le climat moyen des affaires continue de baisser pour atteindre 60,3 contre 61 au trimestre précédent. La plupart des pays asiatiques affichent un climat des affaires proche de 60 : la Chine est à 58,8, le Japon également 58,8 et l’Inde 66. Seul Singapour avec 50 est en retrait sur le continent asiatique. Enfin, en Afrique, le climat des affaires a chuté brutalement dans plusieurs pays, en particulier au Nigeria (54 contre 62 au trimestre précédent) et en Afrique du Sud (51 contre 59 au trimestre précédent).


Prochaine enquête du 22 août au 7 septembre 2018. L’enquête Duke University–Grenoble École de Management mesure chaque trimestre depuis plus de 20 ans le climat des affaires tel que perçu par les responsables financiers des entreprises à travers le monde. L’enquête est courte (environ 10 questions). Elle recueille plus de 1 000 réponses anonymes d’entreprises de tous secteurs et de toutes tailles. C’est désormais la plus grande enquête de ce type dans le monde. Une analyse détaillée par pays peut être envoyée à chaque participant.

Les datavisualisations de cet article ont été réalisées par Diane Frances.

The Conversation

Philippe Dupuy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Climat des affaires : les stratégies des entreprises pour protéger leurs données – https://theconversation.com/climat-des-affaires-les-strategies-des-entreprises-pour-proteger-leurs-donnees-98541

Climat des affaires : la guerre des talents, une préoccupation mondiale

Source: – By Philippe Dupuy, Professeur Associé au département Gestion, Droit et Finance, Grenoble École de Management (GEM)

Le ralentissement économique n’a pas encore d’effets sur la dynamique de l’emploi. Pressmaster / Shutterstock

Cet article est tiré de la dernière enquête Duke University–Grenoble École de Management qui mesure chaque trimestre, depuis plus de 20 ans, le climat des affaires tel qu’il est perçu par les responsables financiers des entreprises à travers le monde. L’enquête recueille plus de 1 000 réponses anonymes d’entreprises de tous secteurs et de toutes tailles. C’est désormais la plus grande enquête de ce type dans le monde. Une analyse détaillée par pays peut être envoyée à chaque participant. Vous pouvez consulter les résultats complets de cette enquête.


La croissance observée à travers le monde depuis plusieurs trimestres a une conséquence importante sur le marché du travail : les entreprises rencontrent de plus en plus de difficultés à attirer et à conserver la main-d’œuvre nécessaire à leur activité. Ainsi, en Europe, 36,2 % des entreprises sont confrontées à un problème important de recrutement qu’elles perçoivent d’ailleurs de plus en plus comme un risque qui pèse sur leur bonne marche. Aux États-Unis, cette proportion atteint même 53,1 %, selon les derniers résultats de notre enquête trimestrielle sur le climat des affaires menée au niveau mondial.

Dans les mois à venir, l’Europe pourrait connaître un ralentissement conjoncturel qui, toutefois, ne devrait pas impacter dans l’immédiat la dynamique actuelle du marché de l’emploi. Comme il est généralement en décalage avec le cycle économique, les perspectives d’embauche restent encore aujourd’hui très élevées : la masse salariale devrait par exemple augmenter de 3,5 % en France et de 3,9 % aux États-Unis au cours du troisième trimestre 2018.

Politiques RH innovantes

Les tensions sur le marché du travail posent d’abord la question de la conservation du savoir-faire au sein de l’entreprise. Plus l’activité d’un pays ou d’un secteur est dynamique, plus la fréquence de renouvellement des collaborateurs, le turnover, est importante. Dans le secteur des technologies, il est désormais de 16 % en moyenne, contre environ 10 % en période de croissance économique plus faible. En comparaison, le secteur primaire (agriculture, pêche…), où l’emploi est plus stable, connaît un taux de rotation de seulement 4 %. De même, alors que l’Italie affiche un turnover moyen de 6 %, il est, en moyenne, proche de 10 % en France.

Face à ce phénomène, plus de la moitié des entreprises à travers le monde mettent en place des politiques de ressources humaines innovantes. Parmi les solutions : offrir un cadre de travail plus flexible, plus de jours de congé ou encore une meilleure couverture santé. Des politiques que l’on retrouve notamment dans les secteurs de la banque et du conseil.

À l’inverse, les grandes entreprises du secteur public ne semblent pas ressentir ce besoin puisqu’elles sont une majorité à déclarer ne pas avoir engagé de changement dans la politique RH pour attirer ou conserver plus de talents.

Tendance mondiale

L’adaptation des politiques RH est une tendance que l’on retrouve aujourd’hui un peu partout dans le monde. En Asie, 33 % des entreprises essaient d’adopter des horaires flexibles. Au Japon, 39 % d’entre elles cherchent à améliorer la qualité de vie de leurs salariés. C’est aussi le cas en Amérique latine, où les tensions sur le marché du travail sont néanmoins plus faibles.

Enfin, nous avons demandé aux entreprises si la hausse des tarifs douaniers pouvait avoir des conséquences sur leurs volumes d’embauche. Le résultat est frappant : 20 % des entreprises européennes l’envisagent effectivement. Dans certains secteurs, comme la vente au détail, les entreprises anticipent un impact négatif sur leur recrutement. Dans des secteurs comme la santé ou le conseil, c’est au contraire un effet positif qui est attendu. En Asie, épicentre du commerce international, pas moins de 56 % des entreprises estiment que le contexte international va modifier leur politique de recrutement. Comme en Europe, ce chiffre se divise à parts égales entre les entreprises qui anticipent un impact négatif et celles qui s’attendent à effet positif.


Retrouvez ci-dessous l’indicateur du climat des affaires de la dernière enquête de la Duke University–Grenoble École de Management pour le troisième trimestre 2018.

Notre indicateur de climat des affaires enregistre une baisse marquée en Europe qui le porte à 57,9 contre 68,5 au trimestre précédent sur une échelle de zéro à cent. C’est en France (60,4 contre 67,5) et en Allemagne (66,7 contre 81,8) que la chute est la plus sévère. Ces niveaux de confiance restent néanmoins compatibles avec une croissance toujours soutenue de l’activité.

À l’inverse, Le Royaume-Uni (48 ce trimestre), l’Espagne (50 ce trimestre) et, dans une moindre mesure, l’Italie (52 ce trimestre) connaissent une baisse de confiance qui pourrait indiquer un ralentissement plus marqué de la croissance dans les trimestres à venir.

Les signaux de ralentissement viennent de l’Europe

Aux États-Unis, le climat des affaires se maintient à des niveaux encore élevés : 70,0 aujourd’hui contre 71,1 au deuxième trimestre. Au cours des cycles précédents, les premiers signes du ralentissement économique sont généralement venus des États-Unis. C’était par exemple le cas lors du décrochage conjoncturel de 2007-2008 (voir graphique). Il est paradoxal de constater que, cette fois-ci, les premiers signes de ralentissement, certes encore modérés, viennent avant tout du continent européen. Pour les trimestres à venir, nous serons donc particulièrement attentifs à l’évolution de l’écart de confiance entre les États-Unis et l’Europe comme indicateur avancé de la croissance.

Dans le reste du monde, l’Amérique latine affiche un niveau moyen de climat des affaires de 56. Ce niveau masque néanmoins de grandes disparités entre le Mexique (70), le Chili (64) et le Pérou (62) d’un côté, et des pays comme le Brésil (52) ou encore l’Équateur (37), englués dans des difficultés politiques récurrentes.

En Asie, l’indicateur se stabilise autour de 60, un niveau largement inchangé par rapport au trimestre précédent. C’est en Inde que nous observons le climat des affaires le plus favorable à la croissance (77). À l’autre bout de l’échelle, le Vietnam affiche un niveau très faible de 40. Nous notons néanmoins que la plupart des pays asiatiques conservent un climat des affaires au-dessus de 50 : 55 au Japon, 60 en Chine, ou encore 72 en Malaisie. Enfin, en Afrique, les indicateurs de climat des affaires se sont fortement dégradés pour atteindre 38 en Afrique du Sud et 48 au Nigeria.

The Conversation

Philippe Dupuy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Climat des affaires : la guerre des talents, une préoccupation mondiale – https://theconversation.com/climat-des-affaires-la-guerre-des-talents-une-preoccupation-mondiale-103453

Enseignement supérieur : quel est le coût de la réussite en premier cycle ?

Source: – By Aurélien Lamy, Maître de conférences en Sciences de gestion, Université de Caen Normandie

Au-delà des chiffres : quelle efficacité budgétaire ? Egmo2017/VisualHunt, CC BY-NC

Les moyens consacrés à l’enseignement supérieur sont souvent résumés en un chiffre, celui de la dépense moyenne d’éducation par étudiant. Pour 2014 par exemple, elle s’élève à 11 834 euros. Ce chiffre ne dit rien, cependant, des différences de dépense selon les filières de formation. Loin d’être uniforme, la dépense par étudiant varie ainsi de 10 576 euros pour un étudiant à l’université à 15 052 euros pour un étudiant de classes préparatoires aux grandes écoles (CPGE) :

Si cette dépense différenciée entre les formations pose la question des inégalités de traitement entre les étudiants, elle soulève également celle de son efficacité.

La réussite, mesure de la performance des formations

Une formation de premier cycle contribue à la réalisation de plusieurs objectifs simultanément (acquisition de connaissances, certification de compétences, formation du citoyen, etc.). Néanmoins, son objectif premier est bien la réussite des étudiants, qui doit garantir l’atteinte des autres objectifs de la formation.

Dans le cas des diplômes (licence, DUT et BTS), la réussite peut facilement être mesurée par le taux d’obtention du diplôme. Le nombre d’inscriptions étant normalement limité à 3 années en DUT et en BTS, et à 5 années en licence, nous avons pris en compte le taux d’obtention du diplôme en 2 ou 3 ans pour le DUT et le BTS, et en 3, 4 ou 5 ans pour la licence.

La réussite en CPGE, en revanche, ne peut être mesurée par le taux de réussite au diplôme : d’abord parce qu’aucun diplôme n’est délivré à la fin de la formation, ensuite parce que, comme leur nom l’indique, elles ont pour objectif de préparer les étudiants à intégrer les grandes écoles et les écoles d’ingénieurs. Dès lors, la réussite peut être mesurée par le taux d’intégration dans les écoles de niveau bac+5 après 2 ou 3 ans, puisque comme pour le DUT ou le BTS, le nombre d’inscriptions est normalement limité à 3 années. Les données étant communiquées par filière (scientifique, économique, littéraire), nous avons réalisé une moyenne pondérée en fonction de la proportion d’étudiants inscrits dans chacune des filières.

Quelle que soit la formation de premier cycle, les taux de réussite retenus n’intègrent pas les réorientations, bien que, dans de nombreux cas, elles débouchent pourtant sur une réussite de l’étudiant. En effet, pour les formations quittées, il s’agit bien d’un échec, puisque leur objectif premier n’est pas atteint, et que rien n’indique qu’une intégration directe dans la nouvelle formation n’aurait pas permis à l’étudiant d’atteindre le même résultat.

Sur la base du suivi de cohorte des nouveaux inscrits en 2008 (dernier disponible), nous avons obtenu les taux de réussite suivants :

Le coût de la réussite

L’évolution de la dépense moyenne par étudiant confirme l’existence, depuis de nombreuses années, d’une différence notable de coût entre les différentes formations. Si la dépense par étudiant en BTS ou en CPGE est directement exploitable, la dépense par étudiant à l’université est en revanche plus problématique, car elle agrège des étudiants inscrits dans différentes formations. En particulier, depuis l’entrée en vigueur de la LOLF en 2006, il n’est plus possible de repérer les dépenses des IUT, désormais intégrées à celles des universités.

Puisque la dépense par étudiant en IUT est supérieure d’environ 20 % à la dépense par étudiant à l’université, nous avons pu, en prenant en compte la part des effectifs inscrits en DUT, distinguer la dépense par étudiant en DUT de la dépense par étudiant dans les autres formations universitaires. En revanche, faute d’information sur la répartition de la dépense entre les différentes formations universitaires (notamment entre licence et master), nous avons conservé ce dernier chiffre comme estimation de la dépense par étudiant en licence.

Par ailleurs, nous avons retenu dans nos calculs la dépense moyenne par étudiant en 2014. En effet, cette année est à la fois la dernière pour laquelle les informations sont disponibles et celle de la mise en œuvre d’un changement dans le mode de calcul réalisé pour permettre une meilleure évaluation de la dépense à l’université.

Afin d’évaluer le coût de la réussite, nous avons calculé la dépense moyenne par année réussie, c’est-à-dire le rapport de la dépense totale réalisée pour l’ensemble des étudiants ayant intégré en même temps la première année de la formation, sur le nombre total d’années réussies dans la formation (nombre d’années validées ayant conduit à l’obtention du diplôme ou à l’intégration d’une école de niveau bac+5).

Calculer la dépense totale réalisée pour l’ensemble d’une cohorte nécessiterait de pouvoir retracer précisément année après année le parcours réalisé dans la formation. Le détail du parcours des nouveaux entrants n’étant pas disponible pour une même cohorte et pour chacune des formations de premier cycle, nous avons utilisé les taux de réussite en faisant l’hypothèse que les étudiants n’ayant pas réussi ont quitté la formation au bout d’une année. Cette méthode conduit à minorer légèrement la dépense totale (en particulier pour la licence où certains étudiants sont inscrits de nombreuses années sans jamais parvenir à valider leur diplôme), mais elle donne néanmoins une approximation satisfaisante de la dépense totale.

En reprenant l’ensemble des résultats précédents, nous avons obtenu les niveaux de dépense par diplôme suivants :

L’efficacité de la dépense d’éducation

La principale évolution entre la dépense par étudiant et la dépense par année réussie concerne la licence. En effet, si elle présente une dépense plus faible que les autres formations de premier cycle, la licence affiche aussi un taux de réussite bien plus faible avec 47 % au bout de 5 ans. La dépense par année réussie s’élève ainsi à 16 332 euros, un montant 57 % plus élevé que celui de la dépense par étudiant. Le modèle de la licence, qui conjugue un accès de droit pour tous les bacheliers (non remis en cause par la loi ORE) et une faible dépense par étudiant, présente ainsi une efficacité globale plutôt moyenne.

Les trois autres formations de 1er cycle (DUT, BTS et CPGE) fonctionnent sur un modèle différent de celui de la licence, puisque les étudiants sont sélectionnés à l’entrée et bénéficient d’une dépense par étudiant plus importante. Ce modèle conduit à une réussite nettement plus importante avec des taux compris entre 69 % et 81 % au bout de 3 ans. La dépense par année réussie est ainsi seulement 19 % à 33 % plus élevée que la dépense par étudiant correspondante.

Si elle ne bouleverse pas le classement de ces trois formations, la prise en compte de la réussite tend cependant à augmenter les écarts :

  • Avec une dépense par étudiant relativement limitée et le taux de réussite le plus élevé, le DUT affiche une dépense par année réussie de 14 893 euros, plus faible que dans les autres formations de premier cycle, et donc signe d’une efficacité plus forte.

  • Le BTS affiche une dépense par année réussie de 17 583 euros, légèrement supérieure à celle de la licence, signe d’une efficacité plutôt moyenne.

  • Finalement, avec une dépense par étudiant plus élevée et un taux de réussite compris entre celui du BTS et celui du DUT, les CPGE affichent une dépense par année réussie de 20 016 euros, nettement supérieure à celle des autres formations de premier cycle, signe d’une plus faible efficacité.

Cette évaluation de l’efficacité des formations doit néanmoins être étudiée au regard de la population étudiante accueillie et de sa capacité à réussir des études supérieures. Les taux de réussite en licence illustrent les différences de réussite selon le type de baccalauréat et la mention obtenue :

Ainsi, les bacheliers généraux réussissent mieux que les bacheliers technologiques, qui réussissent eux-mêmes mieux que les bacheliers professionnels. De même, les étudiants ayant obtenu les meilleures mentions au baccalauréat réussissent mieux dans les études supérieures. Ce constat peut être étendu aux autres formations de premier cycle.

La population étudiante accueillie diffère significativement d’une formation de premier cycle à l’autre :

La prise en compte de la population étudiante accueillie au sein des différentes formations sélectives de premier cycle (DUT, BTS et CPGE) permet alors d’améliorer la compréhension de leur efficacité :

  • Le DUT accueille près d’un quart de bacheliers technologiques, qui réussissent dans 64,6 % des cas. L’efficacité du DUT, déjà supérieure à celle des autres diplômes de premier cycle, apparaît ainsi d’autant plus forte.

  • Le BTS accueille une proportion importante de bacheliers technologiques et de bacheliers professionnels. Si la dépense par année réussie est plus importante, elle contribue à faire réussir ces étudiants (77,4 % et 60,7 % respectivement). L’efficacité des BTS apparaît ainsi finalement plutôt correcte.

  • Les CPGE accueillent une population étudiante très majoritairement composée de bacheliers généraux ayant reçu de meilleures mentions au baccalauréat. L’efficacité des CPGE, déjà inférieure à celle des autres formations de premier cycle, apparaît ainsi particulièrement faible.

Dans une perspective plus globale, il ressort que la dépense par année réussie est plus élevée pour les formations en lycée (BTS et CPGE) que pour les formations de premier cycle à l’université (licence et DUT). Sachant que la dépense par étudiant à l’université intègre l’ensemble des coûts de la recherche, l’intégration des seuls moyens consacrés à la formation montrerait une efficacité encore plus marquée en faveur des formations universitaires que sont le DUT et la licence.


Les datavisualisations de cet article ont été réalisées par Diane Frances.

The Conversation

Aurélien Lamy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Enseignement supérieur : quel est le coût de la réussite en premier cycle ? – https://theconversation.com/enseignement-superieur-quel-est-le-cout-de-la-reussite-en-premier-cycle-93990

Pourquoi vouloir vivre dans les quartiers riches quand on est pauvre ?

Source: – By Fanny Parise, Chercheur associé, anthropologie, Institut lémanique de théologie pratique, Université de Lausanne

Paris, théâtre d’un jeu social méconnu. Wikimedia, CC BY

Paris, capitale française et sixième ville d’Europe où les loyers sont les plus chers, vient de battre un nouveau record : le prix moyen du mètre carré dépasse désormais les 9 000 euros !

Mais Paris est également le théâtre d’un jeu social méconnu qui permet d’objectiver l’incidence du lieu de vie sur la sociabilité et le style de vie d’individus sous contrainte de budget. D’un point de vue socio-anthropologique, ces individus déploient des stratégies sociales afin de rendre plus acceptable leur quotidien : ils mettent en place des pratiques visant non pas à sortir de la précarité, mais à ne pas tomber dans la misère, à rendre acceptables les frustrations qu’engendre la situation socio-économique vis-à-vis de la société de consommation. Ils montrent aussi une volonté de monétariser tout ou partie de l’activité, ou des projets déployés au quotidien.

Assurer sa solvabilité

La solvabilité d’un locataire se traduit par sa sa capacité à honorer le loyer de son logement. Elle se calcule par l’intermédiaire d’un indice : le ratio de solvabilité, correspondant au taux d’effort des locataires. Ce chiffre indique le reste à vivre (RAV) mensuel après paiement du loyer. Il ne doit pas excéder 33,3 % du total des ressources de l’individu. Le RAV varie logiquement en fonction du salaire, du montant du loyer, des dépenses contraintes et secondaires d’un individu. Il est également corrélé à un ensemble de variables socioculturelles où le style de vie et les modes de consommation impactent directement sa gestion. Si un individu estime que son RAV est insuffisant pour le niveau de vie auquel il aspire, opter pour un loyer moins élevé, sur un territoire où l’immobilier est plus abordable, peut sembler être une solution pertinente.

Or, l’« adresse postale » d’un logement représente l’épicentre de stratégies de distinctions sociales, qui confère une dimension symbolique au ratio de solvabilité. D’autres notions conduisent les individus à repenser leur budget afin de s’assurer leur solvabilité face à des « adresses postales » où le prix moyen des loyers est supérieur à leur ratio de solvabilité. Il s’agit notamment des politiques liées aux logements sociaux ou du « capital d’autochtonie », c’est-à-dire l’ensemble des ressources (réelles et symboliques) engendrées par l’appartenance à des réseaux et à des relations de proximité. On attribue un caractère réversible à ce capital : alors que l’entre-soi constitue une force à l’échelle individuelle comme à celle d’un groupe social, il peut se retourner en handicap à l’extérieur de ce réseau. D’un point de vue anthropologique, les individus usent de stratégies afin de conserver ces réseaux de proximité.

Classiquement, la sociologie et la géographie objectivent les disparités de revenus des ménages en fonction des différents quartiers de la ville, mettant en tension l’Est et l’Ouest de la capitale. Or, il semble exister une réalité plus complexe du quotidien, notamment pour une partie de ses habitants qui a, malgré de faibles ressources, décidé de vivre dans les quartiers ou les villes de l’Ouest parisien.

Entre « classe ambitieuse » et « classe aspirante »

La sociologue américaine Elizabeth Currid a publié en 2017 The Sum of Small Things à propos de la « classe ambitieuse », où ces créatifs culturels décident non pas de s’émanciper de la société de consommation, mais de se positionner en transition consumériste. Ils aspirent ainsi à changer le monde tout en participant, souvent malgré eux, à une reproduction des distinctions sociales.

Très visibles dans les grandes villes, ces individus investissent Paris et participent au processus de gentrification amorcé dans les quartiers de l’Est parisien. Cependant, il existerait une autre facette de cette « classe ambitieuse » : la « classe aspirante », qui serait sa part d’ombre. Elle investirait les quartiers historiquement les plus huppés de Paris (Triangle d’Or, par exemple) et déploierait un certain nombre de stratégies faisant office d’amortisseurs de la pauvreté, comme la sociologue Martine Abrous l’a étudié au sujet des professions artistiques.

Ces stratégies renvoient vers une pluralité de desseins : conserver une position sociale, acquérir un logement selon ses ressources (stratégies de gentrification), capitaliser sur les aménités de quartier afin de mieux vivre, ou encore, choisir par défaut (attribution de logements sociaux, hébergement chez des proches).

Stratégies pour choisir son lieu de vie

A priori, il existerait une corrélation entre prix du bâti et ressources des ménages. Or, le croisement de certains indicateurs statistiques montre une autre réalité : on observe un lien entre prix du bâti et nombre de chambres de bonnes ou de « service » à la location (le XVIe arrondissement de Paris concentre près d’un tiers du parc de chambres de bonnes de la capitale), ou encore, entre prix du bâti et diversité des types de logements sociaux, comme en atteste la répartition des logements sociaux par arrondissement :

Cette « classe aspirante » a recours à un certain nombre de stratégies afin de préserver son « ratio de solvabilité » : travail au noir, économie informelle, cumul d’emplois, mobilisation de réseaux d’entraide et de solidarité… Elle invoque différentes justifications à ce choix de vie parfois difficile : vivre dans un quartier privilégié, continuer de résider dans le quartier ou la ville dans laquelle on a grandi, assurer une bonne scolarité à ses enfants, s’intégrer dans des réseaux de sociabilité des classes supérieures, etc.

La mixité sociale peut desservir

Cette forme de mixité sociale peut également engendrer de la non-mixité due aux « effets de quartier » et provoquer des tensions à l’échelle des territoires. Le couple de sociologues Pinçon l’avait évoqué, relatant le cas d’une résidence HLM en bas des Champs-Élysées : la volonté initiale de « mixer » différentes populations s’est retrouvée être contre-intuitive pour les habitants. Il s’agit du phénomène de la « double peine ».

Les habitants ont perdu les bénéfices de leur « capital d’autochtonie » et ne sont pas parvenus à s’intégrer sur ce nouveau territoire, provoquant de l’exclusion et une diminution de la qualité de vie. Cet exemple s’intègre dans un jeu social de différenciation entre les habitants de ces quartiers, provoquant des confusions et des sentiments d’injustice, notamment liés aux liens entre ressources et types de logements sociaux.

En définitive, c’est précisément le poids symbolique et culturel qui va conditionner les stratégies individuelles et collectives des individus dans les pratiques de gestion du « ratio de solvabilité », donnant à voir une réalité plus contrastée de la pauvreté par rapport au lieu de vie.


Les datavisualisations de cet article ont été réalisées par Diane Frances.

The Conversation

Fanny Parise a reçu des financements de différentes structures, qui ont participé au financement de son travail de thèse.

ref. Pourquoi vouloir vivre dans les quartiers riches quand on est pauvre ? – https://theconversation.com/pourquoi-vouloir-vivre-dans-les-quartiers-riches-quand-on-est-pauvre-94355

Existe-t-il une méthode scientifique pour éplucher parfaitement un œuf dur ?

Source: – By Paulomi (Polly) Burey, Professor in Food Science, University of Southern Queensland

Pourquoi certains œufs s’écalent facilement et d’autres non ? Une histoire de pH, de température et de chambre à air, répondent les scientifiques qui se sont penchés sur la question.


Nous sommes tous passés par là : essayer d’écaler un œuf dur, mais finir par le réduire en miettes tant la coquille s’accroche obstinément au blanc. Et ça peut être pire encore, quand l’œuf se retrouve couvert de petits morceaux de membrane.

Internet regorge d’astuces censées vous éviter ce désagrément mais plusieurs causes très différentes peuvent expliquer qu’un œuf soit difficile à « éplucher ». Heureusement, la science offre des stratégies pour contourner le problème.

Facteurs influençant la facilité d’écalage d’un œuf

Les œufs se composent d’une coquille dure et poreuse, d’une membrane coquillière externe et d’une membrane coquillière interne, du blanc d’œuf (ou albumen), et d’un jaune enveloppé d’une membrane. On trouve également une chambre à air entre les deux membranes, juste sous la coquille.

Visuel de coupe d’un œuf

Coquille calcaire ; 2. Membrane coquillière externe ; 3. Membrane coquillière interne ; 4. Chalaze ; 5. Blanc d’œuf (ou albumen) externe (fluide) ; 6. Blanc d’œuf (ou albumen) intermédiaire (visqueux) ; 7. Peau du jaune d’œuf ; 8. Jaune d’œuf (ou vitellus) formé ; 9. Point blanc puis embryon ; 10. Jaune d’œuf (ou vitellus) jaune ;11. Jaune d’œuf (ou vitellus) blanc ; 12. Blanc d’œuf (ou albumen) interne (fluide) ; 13. Chalaze ; 14. Chambre à air ; 15. Cuticule.

Horst Frank/Wikicommon, CC BY-NC

Dans les années 1960 et 1970, de nombreuses recherches ont été menées sur les facteurs influençant la facilité d’écalage des œufs après cuisson. L’un de ces facteurs est le pH du blanc d’œuf. Une étude des années 1960 a montré qu’un pH compris entre 8,7 et 8,9 — donc assez alcalin — facilitait l’épluchage des œufs.

La température de conservation joue également un rôle. Une étude de 1963 a révélé qu’un stockage à environ 22 °C donnait de meilleurs résultats en matière d’épluchage qu’un stockage à 13 °C, ou à des températures de réfrigérateur de 3 à 5 °C.

Il faut bien sûr garder à l’esprit qu’un stockage à température ambiante élevée augmente le risque de détérioration (NDLR : L’Anses recommande de conserver les œufs toujours à la même température afin d’éviter le phénomène de condensation d’eau à leur surface).

Les recherches ont également montré qu’un temps de stockage plus long avant cuisson — autrement dit des œufs moins frais — améliore la facilité d’épluchage.

Une boîte d’œufs sur une table
Plus les œufs sont vieux, plus ils pourraient être faciles à écaler.
Caroline Attwood/Unsplash

Conseil n°1 : éviter les œufs frais

Le fait que les œufs frais soient plus difficiles à éplucher est relativement bien connu. D’après les facteurs évoqués plus haut, plusieurs explications permettent de comprendre ce phénomène.

D’abord, dans un œuf frais, la chambre à air est encore très petite. En vieillissant, l’œuf perd lentement de l’humidité à travers sa coquille poreuse, ce qui agrandit la chambre à air à mesure que le reste du contenu se rétracte. Une chambre à air plus grande facilite le démarrage de l’épluchage.

Par ailleurs, même si le blanc d’œuf est déjà relativement alcalin au départ, son pH augmente encore avec le temps, ce qui contribue aussi à rendre l’écalage plus facile.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Conseil n°2 : la température de l’eau

Plusieurs experts de la cuisson des œufs estiment que commencer avec de l’eau bouillante puis la ramener à un frémissement avant d’y déposer délicatement les œufs donne de meilleurs résultats. Il est alors recommandé d’utiliser des œufs à température ambiante pour éviter qu’ils ne se fissurent à cause d’un choc thermique. L’idée derrière cette méthode est qu’une exposition immédiate à une température élevée facilite la séparation entre la membrane, la coquille et le blanc d’œuf.

En outre, un démarrage à chaud favorise la dénaturation des protéines du blanc d’œuf (c’est-à-dire leur changement de structure sous l’effet de la chaleur), ce qui les incite à se lier entre elles plutôt qu’à adhérer à la membrane.

Après avoir fait bouillir les œufs pendant le temps désiré (généralement 3 à 5 minutes pour un jaune coulant, 6 à 7 minutes pour un jaune crémeux, et 12 à 15 minutes pour un œuf dur), on peut les plonger dans de l’eau glacée. Cela aide le blanc à se rétracter légèrement, facilitant ainsi l’épluchage.

Des œufs dans de l’eau bouillante dans une casserole sur une cuisinière à gaz
Commencer la cuisson dans de l’eau bouillante peut faciliter l’épluchage, surtout si l’on plonge les œufs dans de l’eau glacée ensuite.
Max4ᵉ Photo/Shutterstock

Conseil n°3 (pas obligatoire) : ajouter des ingrédients à l’eau

Parmi les autres astuces suggérées pour faciliter l’écalage, on trouve l’ajout de sel dans l’eau bouillante, mais les résultats sont à nuancer. Une étude a montré que cela pouvait effectivement améliorer l’épluchage, mais que cet effet disparaissait après une période de stockage prolongée des œufs.

L’ajout d’acides et de bases a également démontré une certaine efficacité pour aider à retirer la coquille. Un brevet s’appuyant sur cette idée propose ainsi d’utiliser des substances agressives dans le but de dissoudre la coquille. Mais partant de ce principe, vous pourriez simplement tenter d’ajouter à l’eau de cuisson du bicarbonate de soude ou du vinaigre. En théorie, ce dernier devrait attaquer le carbonate de calcium de la coquille, facilitant ainsi son retrait. Quant au bicarbonate, étant alcalin, il devrait aider à détacher la membrane de la coquille.

Bonus : quelques méthodes de cuisson alternatives

Il existe plusieurs façons de cuire des œufs durs en dehors de l’ébullition classique. Parmi elles : la cuisson vapeur sous pression, la cuisson à l’air chaud (avec un air fryer), et même le micro-ondes.

Dans le cas de la cuisson vapeur, certains avancent que la vapeur d’eau traversant la coquille aiderait à décoller la membrane du blanc d’œuf, ce qui rendrait l’épluchage beaucoup plus facile.

Des recherches récentes ont porté sur la cuisson à l’air chaud d’autres aliments, mais on ne sait pas encore précisément comment ce mode de cuisson pourrait influencer la coquille et la facilité d’écalage des œufs.

Enfin, une fois vos œufs épluchés, évitez de jeter les coquilles à la poubelle. Elles peuvent servir à de nombreux usages : compost, répulsif naturel contre les limaces et escargots au jardin, petits pots biodégradables pour semis… ou même contribuer à des applications bien plus poussées, notamment dans la recherche sur le cancer.

The Conversation

Paulomi (Polly) Burey a reçu des financements du ministère australien de l’Éducation, qui a soutenu les recherches sur les coquilles d’œufs mentionnées à la fin de cet article.

ref. Existe-t-il une méthode scientifique pour éplucher parfaitement un œuf dur ? – https://theconversation.com/existe-t-il-une-methode-scientifique-pour-eplucher-parfaitement-un-oeuf-dur-255520