Deux mille ans plus tard, enquête sur une possible fraude au vin dans la Rome antique

Source: The Conversation – Indonesia – By Conor Trainor, Ad Astra Research Fellow / Assistant Professor, University College Dublin

L’emplacement de la Crète sur la route des importations romaines de blé explique une partie du succès de son vin. Dan Henson/Shutterstock

Le passum, ce vin de raisins secs, était une douceur prisée des Romains. Son succès a-t-il encouragé des viticulteurs crétois de l’époque à le contrefaire ? Un chercheur de l’Université de Warwick mène l’enquête.


Avant l’apparition des édulcorants artificiels, les gens satisfaisaient leur envie de sucré avec des produits naturels, comme le miel ou les fruits secs. Les vins de raisins secs, élaborés à partir de raisins séchés avant fermentation, étaient particulièrement prisés. Les sources historiques attestent que ces vins, dont certains étaient appelés passum, étaient appréciés dans l’Empire romain et dans l’Europe médiévale. Le plus célèbre de l’époque était le malvoisie, un vin produit dans de nombreuses régions méditerranéennes.

Séchage et fermentation

Aujourd’hui, ces vins sont moins populaires, bien que certains soient toujours très recherchés. Les plus connus sont les vins italiens dits « appassimento » (une technique vinicole également connue sous le nom de passerillage), comme l’Amarone della Valpolicella. Dans la région de Vénétie, les meilleurs vins de ce type sont issus de raisins séchés pendant trois mois avant d’être pressés et fermentés – un procédé long et exigeant.

Les sources antiques décrivent des techniques similaires. Columelle, auteur romain spécialisé dans l’agriculture, indique que le séchage et la fermentation duraient au minimum un mois. Pline l’Ancien, quant à lui, décrit une méthode consistant à faire sécher les grappes partiellement sur la vigne, puis sur des claies, avant de les presser huit jours plus tard.

Depuis dix ans, j’étudie la fabrication de ce vin sur le site archéologique de Cnossos, en Crète. Si l’île est surtout connue pour ses vestiges minoens, elle était aussi célèbre à l’époque romaine pour ses vins doux de raisins secs, exportés à grande échelle.

Les vins de raisins secs de haute qualité demandaient du temps et de la patience, mais il semble que les producteurs de Cnossos aient parfois contourné les méthodes traditionnelles. Mes recherches sur un site de production vinicole et sur des sites de fabrication d’amphores indiquent que les vignerons crétois ont peut-être trompé leurs clients romains avec une version contrefaite du passum.

L’héritage viticole de la Crète

Les vestiges d’un site de production de vin à Cnossos montrent les pratiques en vigueur une génération avant la conquête romaine. Plus intéressant encore, les études en cours sur des fours de potiers de l’époque romaine révèlent une production concentrée sur quatre types d’objets : des amphores pour le vin, des supports pour leur remplissage, de grandes cuves de mélange en céramique et des ruches en terre cuite.

La Crète, plus grande île grecque, produit du vin depuis des millénaires. Des indices retrouvés à Myrtos attestent de la vinification dès 2170 avant notre ère. Grâce à sa position stratégique entre la Grèce et l’Afrique du Nord, l’île était âprement convoitée. En 67 av. n. è., après une campagne militaire de trois ans, les Romains en prirent le contrôle.

Après la conquête, l’économie crétoise a subi des changements profonds. Les Romains ont fondé une colonie à Cnossos, réorganisant le pouvoir et développant massivement la production vinicole. L’activité rurale a augmenté, et des fouilles archéologiques ont mis au jour un grand nombre d’amphores, preuve que le vin crétois était largement exporté.

Des raccourcis pour la production

Si les Romains achetaient autant de vin crétois, c’était en partie à cause des routes maritimes. Les navires chargés de blé en provenance d’Alexandrie, à destination de Rome, faisaient souvent escale en Crète, ce qui permettait aux marchands de charger d’autres produits. Mais la demande était aussi stimulée par la réputation du vin crétois, considéré comme un produit de luxe, à l’instar des vins appassimento italiens actuels. Il était aussi apprécié pour ses vertus médicinales supposées. Le médecin militaire Pedanius Dioscoride écrivait dans son traité De Materia Medica que ce vin soignait les maux de tête, expulsait les vers intestinaux et favorisait la fertilité.

L’explosion soudaine de la demande à Rome et dans la baie de Naples a pu inciter les producteurs à accélérer la fabrication.

Pline l’Ancien décrit ainsi un raccourci pour obtenir ce type de vin : faire bouillir le jus de raisin dans de grandes cuves. Mais les cuves retrouvées à Cnossos ne portent aucune trace de chauffe. Une autre hypothèse se dessine : l’ajout de miel au vin avant sa mise en amphore. Les ruches retrouvées dans les fours de potiers romains – reconnaissables à leur surface intérieure rugueuse favorisant la fixation des rayons de cire – suggèrent un lien entre viticulture et apiculture. Des découvertes similaires sur d’autres sites grecs laissent penser que vin et miel pouvaient être mélangés avant expédition.

Cette méthode était plus rapide et moins coûteuse que le séchage des raisins. Mais dans ce cas, pouvait-on encore parler de vin de raisins secs ? Et les consommateurs romains étaient-ils au courant ? Les quantités massives de vin crétois importées à Rome indiquent que cela ne les préoccupait guère. Vu le nombre d’amphores vides retrouvées à Rome, je pense que la population se souciait bien moins de l’authenticité que nous ne le ferions aujourd’hui.

The Conversation

Conor Trainor a reçu des financements de l’University College Dublin, de la British School at Athens, et, auparavant pour cette recherche, de l’Université de Warwick.

ref. Deux mille ans plus tard, enquête sur une possible fraude au vin dans la Rome antique – https://theconversation.com/deux-mille-ans-plus-tard-enquete-sur-une-possible-fraude-au-vin-dans-la-rome-antique-258849

Enseignement supérieur : quel est le coût de la réussite en premier cycle ?

Source: – By Aurélien Lamy, Maître de conférences en Sciences de gestion, Université de Caen Normandie

Au-delà des chiffres : quelle efficacité budgétaire ? Egmo2017/VisualHunt, CC BY-NC

Les moyens consacrés à l’enseignement supérieur sont souvent résumés en un chiffre, celui de la dépense moyenne d’éducation par étudiant. Pour 2014 par exemple, elle s’élève à 11 834 euros. Ce chiffre ne dit rien, cependant, des différences de dépense selon les filières de formation. Loin d’être uniforme, la dépense par étudiant varie ainsi de 10 576 euros pour un étudiant à l’université à 15 052 euros pour un étudiant de classes préparatoires aux grandes écoles (CPGE) :

Si cette dépense différenciée entre les formations pose la question des inégalités de traitement entre les étudiants, elle soulève également celle de son efficacité.

La réussite, mesure de la performance des formations

Une formation de premier cycle contribue à la réalisation de plusieurs objectifs simultanément (acquisition de connaissances, certification de compétences, formation du citoyen, etc.). Néanmoins, son objectif premier est bien la réussite des étudiants, qui doit garantir l’atteinte des autres objectifs de la formation.

Dans le cas des diplômes (licence, DUT et BTS), la réussite peut facilement être mesurée par le taux d’obtention du diplôme. Le nombre d’inscriptions étant normalement limité à 3 années en DUT et en BTS, et à 5 années en licence, nous avons pris en compte le taux d’obtention du diplôme en 2 ou 3 ans pour le DUT et le BTS, et en 3, 4 ou 5 ans pour la licence.

La réussite en CPGE, en revanche, ne peut être mesurée par le taux de réussite au diplôme : d’abord parce qu’aucun diplôme n’est délivré à la fin de la formation, ensuite parce que, comme leur nom l’indique, elles ont pour objectif de préparer les étudiants à intégrer les grandes écoles et les écoles d’ingénieurs. Dès lors, la réussite peut être mesurée par le taux d’intégration dans les écoles de niveau bac+5 après 2 ou 3 ans, puisque comme pour le DUT ou le BTS, le nombre d’inscriptions est normalement limité à 3 années. Les données étant communiquées par filière (scientifique, économique, littéraire), nous avons réalisé une moyenne pondérée en fonction de la proportion d’étudiants inscrits dans chacune des filières.

Quelle que soit la formation de premier cycle, les taux de réussite retenus n’intègrent pas les réorientations, bien que, dans de nombreux cas, elles débouchent pourtant sur une réussite de l’étudiant. En effet, pour les formations quittées, il s’agit bien d’un échec, puisque leur objectif premier n’est pas atteint, et que rien n’indique qu’une intégration directe dans la nouvelle formation n’aurait pas permis à l’étudiant d’atteindre le même résultat.

Sur la base du suivi de cohorte des nouveaux inscrits en 2008 (dernier disponible), nous avons obtenu les taux de réussite suivants :

Le coût de la réussite

L’évolution de la dépense moyenne par étudiant confirme l’existence, depuis de nombreuses années, d’une différence notable de coût entre les différentes formations. Si la dépense par étudiant en BTS ou en CPGE est directement exploitable, la dépense par étudiant à l’université est en revanche plus problématique, car elle agrège des étudiants inscrits dans différentes formations. En particulier, depuis l’entrée en vigueur de la LOLF en 2006, il n’est plus possible de repérer les dépenses des IUT, désormais intégrées à celles des universités.

Puisque la dépense par étudiant en IUT est supérieure d’environ 20 % à la dépense par étudiant à l’université, nous avons pu, en prenant en compte la part des effectifs inscrits en DUT, distinguer la dépense par étudiant en DUT de la dépense par étudiant dans les autres formations universitaires. En revanche, faute d’information sur la répartition de la dépense entre les différentes formations universitaires (notamment entre licence et master), nous avons conservé ce dernier chiffre comme estimation de la dépense par étudiant en licence.

Par ailleurs, nous avons retenu dans nos calculs la dépense moyenne par étudiant en 2014. En effet, cette année est à la fois la dernière pour laquelle les informations sont disponibles et celle de la mise en œuvre d’un changement dans le mode de calcul réalisé pour permettre une meilleure évaluation de la dépense à l’université.

Afin d’évaluer le coût de la réussite, nous avons calculé la dépense moyenne par année réussie, c’est-à-dire le rapport de la dépense totale réalisée pour l’ensemble des étudiants ayant intégré en même temps la première année de la formation, sur le nombre total d’années réussies dans la formation (nombre d’années validées ayant conduit à l’obtention du diplôme ou à l’intégration d’une école de niveau bac+5).

Calculer la dépense totale réalisée pour l’ensemble d’une cohorte nécessiterait de pouvoir retracer précisément année après année le parcours réalisé dans la formation. Le détail du parcours des nouveaux entrants n’étant pas disponible pour une même cohorte et pour chacune des formations de premier cycle, nous avons utilisé les taux de réussite en faisant l’hypothèse que les étudiants n’ayant pas réussi ont quitté la formation au bout d’une année. Cette méthode conduit à minorer légèrement la dépense totale (en particulier pour la licence où certains étudiants sont inscrits de nombreuses années sans jamais parvenir à valider leur diplôme), mais elle donne néanmoins une approximation satisfaisante de la dépense totale.

En reprenant l’ensemble des résultats précédents, nous avons obtenu les niveaux de dépense par diplôme suivants :

L’efficacité de la dépense d’éducation

La principale évolution entre la dépense par étudiant et la dépense par année réussie concerne la licence. En effet, si elle présente une dépense plus faible que les autres formations de premier cycle, la licence affiche aussi un taux de réussite bien plus faible avec 47 % au bout de 5 ans. La dépense par année réussie s’élève ainsi à 16 332 euros, un montant 57 % plus élevé que celui de la dépense par étudiant. Le modèle de la licence, qui conjugue un accès de droit pour tous les bacheliers (non remis en cause par la loi ORE) et une faible dépense par étudiant, présente ainsi une efficacité globale plutôt moyenne.

Les trois autres formations de 1er cycle (DUT, BTS et CPGE) fonctionnent sur un modèle différent de celui de la licence, puisque les étudiants sont sélectionnés à l’entrée et bénéficient d’une dépense par étudiant plus importante. Ce modèle conduit à une réussite nettement plus importante avec des taux compris entre 69 % et 81 % au bout de 3 ans. La dépense par année réussie est ainsi seulement 19 % à 33 % plus élevée que la dépense par étudiant correspondante.

Si elle ne bouleverse pas le classement de ces trois formations, la prise en compte de la réussite tend cependant à augmenter les écarts :

  • Avec une dépense par étudiant relativement limitée et le taux de réussite le plus élevé, le DUT affiche une dépense par année réussie de 14 893 euros, plus faible que dans les autres formations de premier cycle, et donc signe d’une efficacité plus forte.

  • Le BTS affiche une dépense par année réussie de 17 583 euros, légèrement supérieure à celle de la licence, signe d’une efficacité plutôt moyenne.

  • Finalement, avec une dépense par étudiant plus élevée et un taux de réussite compris entre celui du BTS et celui du DUT, les CPGE affichent une dépense par année réussie de 20 016 euros, nettement supérieure à celle des autres formations de premier cycle, signe d’une plus faible efficacité.

Cette évaluation de l’efficacité des formations doit néanmoins être étudiée au regard de la population étudiante accueillie et de sa capacité à réussir des études supérieures. Les taux de réussite en licence illustrent les différences de réussite selon le type de baccalauréat et la mention obtenue :

Ainsi, les bacheliers généraux réussissent mieux que les bacheliers technologiques, qui réussissent eux-mêmes mieux que les bacheliers professionnels. De même, les étudiants ayant obtenu les meilleures mentions au baccalauréat réussissent mieux dans les études supérieures. Ce constat peut être étendu aux autres formations de premier cycle.

La population étudiante accueillie diffère significativement d’une formation de premier cycle à l’autre :

La prise en compte de la population étudiante accueillie au sein des différentes formations sélectives de premier cycle (DUT, BTS et CPGE) permet alors d’améliorer la compréhension de leur efficacité :

  • Le DUT accueille près d’un quart de bacheliers technologiques, qui réussissent dans 64,6 % des cas. L’efficacité du DUT, déjà supérieure à celle des autres diplômes de premier cycle, apparaît ainsi d’autant plus forte.

  • Le BTS accueille une proportion importante de bacheliers technologiques et de bacheliers professionnels. Si la dépense par année réussie est plus importante, elle contribue à faire réussir ces étudiants (77,4 % et 60,7 % respectivement). L’efficacité des BTS apparaît ainsi finalement plutôt correcte.

  • Les CPGE accueillent une population étudiante très majoritairement composée de bacheliers généraux ayant reçu de meilleures mentions au baccalauréat. L’efficacité des CPGE, déjà inférieure à celle des autres formations de premier cycle, apparaît ainsi particulièrement faible.

Dans une perspective plus globale, il ressort que la dépense par année réussie est plus élevée pour les formations en lycée (BTS et CPGE) que pour les formations de premier cycle à l’université (licence et DUT). Sachant que la dépense par étudiant à l’université intègre l’ensemble des coûts de la recherche, l’intégration des seuls moyens consacrés à la formation montrerait une efficacité encore plus marquée en faveur des formations universitaires que sont le DUT et la licence.


Les datavisualisations de cet article ont été réalisées par Diane Frances.

The Conversation

Aurélien Lamy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Enseignement supérieur : quel est le coût de la réussite en premier cycle ? – https://theconversation.com/enseignement-superieur-quel-est-le-cout-de-la-reussite-en-premier-cycle-93990

Pourquoi vouloir vivre dans les quartiers riches quand on est pauvre ?

Source: – By Fanny Parise, Chercheur associé, anthropologie, Institut lémanique de théologie pratique, Université de Lausanne

Paris, théâtre d’un jeu social méconnu. Wikimedia, CC BY

Paris, capitale française et sixième ville d’Europe où les loyers sont les plus chers, vient de battre un nouveau record : le prix moyen du mètre carré dépasse désormais les 9 000 euros !

Mais Paris est également le théâtre d’un jeu social méconnu qui permet d’objectiver l’incidence du lieu de vie sur la sociabilité et le style de vie d’individus sous contrainte de budget. D’un point de vue socio-anthropologique, ces individus déploient des stratégies sociales afin de rendre plus acceptable leur quotidien : ils mettent en place des pratiques visant non pas à sortir de la précarité, mais à ne pas tomber dans la misère, à rendre acceptables les frustrations qu’engendre la situation socio-économique vis-à-vis de la société de consommation. Ils montrent aussi une volonté de monétariser tout ou partie de l’activité, ou des projets déployés au quotidien.

Assurer sa solvabilité

La solvabilité d’un locataire se traduit par sa sa capacité à honorer le loyer de son logement. Elle se calcule par l’intermédiaire d’un indice : le ratio de solvabilité, correspondant au taux d’effort des locataires. Ce chiffre indique le reste à vivre (RAV) mensuel après paiement du loyer. Il ne doit pas excéder 33,3 % du total des ressources de l’individu. Le RAV varie logiquement en fonction du salaire, du montant du loyer, des dépenses contraintes et secondaires d’un individu. Il est également corrélé à un ensemble de variables socioculturelles où le style de vie et les modes de consommation impactent directement sa gestion. Si un individu estime que son RAV est insuffisant pour le niveau de vie auquel il aspire, opter pour un loyer moins élevé, sur un territoire où l’immobilier est plus abordable, peut sembler être une solution pertinente.

Or, l’« adresse postale » d’un logement représente l’épicentre de stratégies de distinctions sociales, qui confère une dimension symbolique au ratio de solvabilité. D’autres notions conduisent les individus à repenser leur budget afin de s’assurer leur solvabilité face à des « adresses postales » où le prix moyen des loyers est supérieur à leur ratio de solvabilité. Il s’agit notamment des politiques liées aux logements sociaux ou du « capital d’autochtonie », c’est-à-dire l’ensemble des ressources (réelles et symboliques) engendrées par l’appartenance à des réseaux et à des relations de proximité. On attribue un caractère réversible à ce capital : alors que l’entre-soi constitue une force à l’échelle individuelle comme à celle d’un groupe social, il peut se retourner en handicap à l’extérieur de ce réseau. D’un point de vue anthropologique, les individus usent de stratégies afin de conserver ces réseaux de proximité.

Classiquement, la sociologie et la géographie objectivent les disparités de revenus des ménages en fonction des différents quartiers de la ville, mettant en tension l’Est et l’Ouest de la capitale. Or, il semble exister une réalité plus complexe du quotidien, notamment pour une partie de ses habitants qui a, malgré de faibles ressources, décidé de vivre dans les quartiers ou les villes de l’Ouest parisien.

Entre « classe ambitieuse » et « classe aspirante »

La sociologue américaine Elizabeth Currid a publié en 2017 The Sum of Small Things à propos de la « classe ambitieuse », où ces créatifs culturels décident non pas de s’émanciper de la société de consommation, mais de se positionner en transition consumériste. Ils aspirent ainsi à changer le monde tout en participant, souvent malgré eux, à une reproduction des distinctions sociales.

Très visibles dans les grandes villes, ces individus investissent Paris et participent au processus de gentrification amorcé dans les quartiers de l’Est parisien. Cependant, il existerait une autre facette de cette « classe ambitieuse » : la « classe aspirante », qui serait sa part d’ombre. Elle investirait les quartiers historiquement les plus huppés de Paris (Triangle d’Or, par exemple) et déploierait un certain nombre de stratégies faisant office d’amortisseurs de la pauvreté, comme la sociologue Martine Abrous l’a étudié au sujet des professions artistiques.

Ces stratégies renvoient vers une pluralité de desseins : conserver une position sociale, acquérir un logement selon ses ressources (stratégies de gentrification), capitaliser sur les aménités de quartier afin de mieux vivre, ou encore, choisir par défaut (attribution de logements sociaux, hébergement chez des proches).

Stratégies pour choisir son lieu de vie

A priori, il existerait une corrélation entre prix du bâti et ressources des ménages. Or, le croisement de certains indicateurs statistiques montre une autre réalité : on observe un lien entre prix du bâti et nombre de chambres de bonnes ou de « service » à la location (le XVIe arrondissement de Paris concentre près d’un tiers du parc de chambres de bonnes de la capitale), ou encore, entre prix du bâti et diversité des types de logements sociaux, comme en atteste la répartition des logements sociaux par arrondissement :

Cette « classe aspirante » a recours à un certain nombre de stratégies afin de préserver son « ratio de solvabilité » : travail au noir, économie informelle, cumul d’emplois, mobilisation de réseaux d’entraide et de solidarité… Elle invoque différentes justifications à ce choix de vie parfois difficile : vivre dans un quartier privilégié, continuer de résider dans le quartier ou la ville dans laquelle on a grandi, assurer une bonne scolarité à ses enfants, s’intégrer dans des réseaux de sociabilité des classes supérieures, etc.

La mixité sociale peut desservir

Cette forme de mixité sociale peut également engendrer de la non-mixité due aux « effets de quartier » et provoquer des tensions à l’échelle des territoires. Le couple de sociologues Pinçon l’avait évoqué, relatant le cas d’une résidence HLM en bas des Champs-Élysées : la volonté initiale de « mixer » différentes populations s’est retrouvée être contre-intuitive pour les habitants. Il s’agit du phénomène de la « double peine ».

Les habitants ont perdu les bénéfices de leur « capital d’autochtonie » et ne sont pas parvenus à s’intégrer sur ce nouveau territoire, provoquant de l’exclusion et une diminution de la qualité de vie. Cet exemple s’intègre dans un jeu social de différenciation entre les habitants de ces quartiers, provoquant des confusions et des sentiments d’injustice, notamment liés aux liens entre ressources et types de logements sociaux.

En définitive, c’est précisément le poids symbolique et culturel qui va conditionner les stratégies individuelles et collectives des individus dans les pratiques de gestion du « ratio de solvabilité », donnant à voir une réalité plus contrastée de la pauvreté par rapport au lieu de vie.


Les datavisualisations de cet article ont été réalisées par Diane Frances.

The Conversation

Fanny Parise a reçu des financements de différentes structures, qui ont participé au financement de son travail de thèse.

ref. Pourquoi vouloir vivre dans les quartiers riches quand on est pauvre ? – https://theconversation.com/pourquoi-vouloir-vivre-dans-les-quartiers-riches-quand-on-est-pauvre-94355

Espérance de vie : peut-on gagner six heures par jour indéfiniment ?

Source: – By Gilles Pison, Anthropologue et démographe, professeur au Muséum national d’histoire naturelle et chercheur associé à l’INED, Muséum national d’histoire naturelle (MNHN)

En 2004 en France, l’espérance de vie a passé le seuil des 80 ans. Marie-Sophie Tekian/Unsplash

En France, au milieu du XVIIIe siècle, l’espérance de vie à la naissance était de moins de 30 ans ; elle a presque triplé depuis (voir la figure 1 ci-dessous). Au cours de la période récente, c’est-à-dire depuis le milieu du XXe siècle, elle a progressé de près de trois mois en moyenne par an – soit six heures par jour –, passant de 66,4 ans en 1950 à 82,5 ans en 2017.

Va-t-elle continuer à augmenter ? Jusqu’où ? Elle progresse en effet moins vite depuis quelque temps, de deux mois en moyenne par an. Est-ce le signe qu’elle se rapproche des limites ? Pour y voir plus clair, analysons son évolution passée et les facteurs expliquant sa formidable progression jusqu’ici.

Évolution de l’espérance de vie en France.
Gilles Pison (à partir de reconstitutions historiques et des données de l’Insee), CC BY-NC-ND

Le recul de la mortalité infantile, un facteur déterminant

La progression de l’espérance de vie n’a pas été régulière au cours des deux siècles et demi passés. Elle a été interrompue par les conflits (guerres napoléoniennes, guerres de 1870, 1914-1918 et 1939-1945) qui ont entraîné des reculs importants. Mais ceux-ci n’ont duré que le temps du conflit, la progression reprenant ensuite la tendance de fond.

Les progrès s’accélèrent à certaines périodes, comme au tournant du XVIIIe et du XIXe siècle, ou cent ans plus tard, à la fin du XIXe siècle. Ils ralentissent à d’autres, comme entre 1850 et 1870. Ces variations sont parallèles à celles de la mortalité des enfants, encore très élevée à ces époques, et qui pèse beaucoup sur la durée de vie moyenne.

Ainsi, la moitié des enfants mourait avant l’âge de 10 ans en France au milieu du XVIIIe siècle, ce qui explique la très faible espérance de vie (25 ans). Autour de 1800 la mortalité des enfants recule fortement grâce en partie à la vaccination contre la variole : le risque pour un nouveau-né de mourir dans sa première année diminue d’un tiers en deux décennies, passant de 275 pour mille à 185 pour mille, comme le montre la figure 2. L’espérance de vie fait un bond de 10 ans.

Évolution de la mortalité infantile en France.
Gilles Pison (à partir de reconstitutions historiques et des données de l’Insee), CC BY-NC-ND

Au milieu du XIXe siècle, la mortalité infantile remonte du fait de l’industrialisation et l’urbanisation qui dégradent les conditions de vie des enfants, notamment dans les villes. L’espérance de vie stagne. À l’inverse, à la fin du XIXe siècle et dans la première moitié du XXe siècle, les progrès de l’hygiène et de la médecine liés à la révolution pastorienne, dont les enfants ont été les premiers bénéficiaires, et aussi la mise en place des premières politiques de protection de la petite enfance, entraînent une forte augmentation de l’espérance de vie.

Au sortir de la Deuxième Guerre mondiale, l’espérance de vie récupère la tendance de fond et atteint 66,4 ans en 1950. Elle poursuit ensuite sa progression au rythme de près de 3 mois en plus par an en moyenne.

Mais le rythme a un peu baissé depuis 2010, deux mois en plus par an seulement en moyenne comme déjà mentionné, laissant penser que l’allongement de la vie pourrait bientôt atteindre ses limites.

Un précédent ralentissement il y a 50 ans

Un phénomène similaire de ralentissement des progrès s’est produit il y a 50 ans, visible à la figure 3 qui zoome sur la période récente. Alors que l’espérance de vie à la naissance (sexes confondus) a augmenté de 4 ans au cours de la décennie 1950, elle n’a crû que de 1,7 an au cours de la décennie 1960.

Durant ces décennies, la progression de l’espérance de vie vient encore pour partie du recul de la mortalité infantile. Elle a baissé de moitié entre 1950 et 1960, passant de 51 décès d’enfants de moins d’un an pour mille naissances, à 27 ‰, et a continué de diminuer pendant la décennie suivante pour atteindre 18 ‰ en 1970. Mais le niveau atteint est si bas qu’elle ne représente plus désormais qu’une faible part de la mortalité, et même si son recul se poursuit (elle est de 4 ‰ en 2017), il n’a pratiquement plus d’effet sur l’espérance de vie.

Celle-ci ne peut progresser qu’en raison des succès remportés dans la lutte contre la mortalité adulte, en particulier aux âges élevés où se concentrent de plus en plus les décès.

En France, la progression de l’espérance de vie marque le pas dans les années 1960.
Gilles Pison (à partir des données de l’Insee), CC BY-NC-ND

Des scénarios pessimistes démentis par la réalité, l’idée du plafonnement abandonnée

Les possibilités de diminution de la mortalité à ces âges ne peuvent être que limitées, pense-t-on il y a 50 ans, et l’espérance de vie va rapidement buter sur un plafond biologique.

Le ralentissement des années 1960 vient conforter cette vision. Celle-ci se reflète dans les scénarios d’évolution de l’espérance de vie qu’élabore l’Insee pour projeter la population de la France (voir la figure 3 ci-dessus).

Ainsi, la projection publiée en 1979 considère que l’espérance de vie va plafonner à 73,8 ans en 2000, or ce seuil a été dépassé l’année même où elle a été publiée, l’espérance de vie ayant atteint 74,1 ans en 1979. Tenant compte de l’énorme décalage entre les projections précédentes et la réalité, la projection de 1986 fait progresser l’espérance de vie nettement plus rapidement tout en conservant l’hypothèse d’un ralentissement puis d’un plafonnement à terme.

Mais, comme dans les projections antérieures, le plafond de la projection de 1986 est atteint puis dépassé (en 1997). Le constat que les plafonds même rehaussés sont régulièrement dépassés au bout de quelques années conduit à l’abandon de l’idée même de plafonnement dans les projections suivantes.

Celles-ci extrapolent la tendance courante sur toute la période de projection, se contentant de l’infléchir très progressivement sans toutefois fixer de limite. Elles correspondent assez bien à l’évolution observée pour l’instant.

Les succès de la lutte contre la mortalité des personnes âgées

Si les projections ont longtemps sous-estimé les progrès de l’espérance de vie, c’est qu’elles n’ont pas anticipé la forte baisse de la mortalité des adultes et des personnes âgées. Il faut dire que les progrès dans ce domaine sont relativement récents, comme le montre l’évolution de l’espérance de vie à 60 ans sur la figure 4 ci-dessous.

Au milieu du XXe siècle, elle était encore proche de son niveau du XIXe siècle, notamment du côté masculin : un homme de 60 ans pouvait espérer vivre encore 13 à 14 ans. Ce n’est qu’à partir de la fin de la Deuxième Guerre mondiale qu’elle commence à augmenter chez les hommes, les progrès s’accélérant ensuite jusqu’à ce qu’elle atteigne 23,2 ans en 2017, soit 7,3 ans de plus qu’en 1967. La progression a commencé plus tôt chez les femmes, dès les premières décennies du XXe siècle, et elle s’est aussi accélérée à partir de la fin de la guerre jusqu’à 27,6 ans en 2017, soit 7,2 ans de plus qu’en 1967.

Évolution de l’espérance de vie des personnes âgées en France.
Gilles Pison (à partir des données de l’Insee et de Vallin et Meslé 2001), CC BY-NC-ND

La révolution cardiovasculaire

Au milieu du XXe siècle, les maladies infectieuses étaient encore la cause d’une partie importante des décès d’adultes et de personnes âgées, et leur recul a entraîné une augmentation sensible de l’espérance de vie à 60 ans. Mais, comme pour les enfants, la part de ces maladies dans la mortalité totale a beaucoup régressé et les gains à attendre de la poursuite de leur recul sont faibles.

Les maladies cardiovasculaires et les cancers sont désormais les principales causes de décès à ces âges, comme le montre la figure 5 ci-dessous. Et ce sont les succès rencontrés dans la lutte contre ces maladies qui ont permis à la mortalité des adultes et des personnes âgées de poursuivre sa baisse à partir des années 1970, et à l’espérance de vie de continuer à augmenter.

La mortalité due aux maladies du cœur et des vaisseaux a énormément diminué depuis un demi-siècle grâce à la « révolution cardiovasculaire » qu’ont constitué les progrès de la prévention et des traitements dans ce domaine. Quant à la mortalité par cancer, qui avait augmenté, elle régresse maintenant grâce aux diagnostics plus précoces et à la réduction des comportements à risques comme le tabagisme.

Évolution de la mortalité par causes de décès en France.
Gilles Pison (à partir des données de l’Inserm, Meslé 2006 et Breton et coll. 2017), CC BY-NC-ND

Les conditions d’une espérance de vie toujours en progrès

Le ralentissement des progrès de l’espérance de vie depuis une dizaine d’années est peut-être le signe que les retombées de la révolution cardiovasculaire sont en voie d’épuisement.

Et les progrès futurs pourraient dépendre de plus en plus de la lutte contre les cancers qui sont devenus la première cause de décès. Si celle-ci engrange les succès, les retombées en termes d’espérance de vie ont été moins spectaculaires jusqu’ici que celles liées à la révolution cardiovasculaire. Il faudrait que le recul de la mortalité liée aux cancers s’accélère dans les prochaines décennies si l’on veut que l’espérance de vie continue de progresser de 3 mois par an.

À plus long terme, comme pour les avancées liées à la lutte contre les infections, celles liées à la lutte contre les maladies cardiovasculaires et les cancers devraient s’épuiser un jour. De nouveaux terrains de lutte comme les maladies neurodégénératives (maladies d’Alzheimer, de Parkinson, etc.) et des innovations médicales et sociales pourraient alors prendre le relais et ouvrir une nouvelle phase de progrès sanitaire.

Ce qui pourrait non pas conduire à l’immortalité, vieux rêve inaccessible, mais remettre de nouveau à plus tard le calcul d’une limite à la progression de l’espérance de vie.

The Conversation

Gilles Pison ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Espérance de vie : peut-on gagner six heures par jour indéfiniment ? – https://theconversation.com/esperance-de-vie-peut-on-gagner-six-heures-par-jour-indefiniment-98188

Climat des affaires : les stratégies des entreprises pour protéger leurs données

Source: – By Philippe Dupuy, Professeur Associé au département Gestion, Droit et Finance, Grenoble École de Management (GEM)

Pour 43,1 % des entreprises, protéger les systèmes passe par la formation des salariés voire par l’embauche de spécialistes en cybersécurité.

Samuel Zeller/Unsplash, CC BY

Grenoble École de Management et l’association des Directeurs financiers et des contrôleurs de gestion (DFCG) recueillent chaque trimestre l’avis des responsables financiers français. Les résultats sont agrégés au niveau mondial par un réseau d’universités coordonnées par Duke University aux États-Unis. Pour le deuxième trimestre 2018, l’enquête s’est déroulée du 13 mai au 7 juin 2018.


La protection des données est devenue un enjeu majeur pour les entreprises depuis quelques années. Par exemple, 36,7 % des entreprises françaises déclarent que leurs systèmes informatiques ont déjà été attaqués par des pirates (hackers). En réponse, elles sont de plus en plus nombreuses à consacrer un budget significatif à leurs défenses. L’achat de logiciels reste la principale réponse pour 67 % des répondants européens, suivi par l’amélioration des procédures concernant les mots de passe, par exemple.

En revanche, pour 43,1 % des entreprises qui nous ont répondu, protéger les systèmes passe avant tout par la formation des salariés voire par l’embauche de spécialistes en cybersécurité (24,7 %). Ces spécialistes sont d’ailleurs parfois autorisés, par la direction, à « piéger » les employés afin de tester la robustesse du système (11,3 % des cas). Enfin, seules 6,2 % des entreprises déclarent ne pas avoir entrepris d’action afin de mieux protéger leurs données.

Aux États-Unis, le nombre d’entreprises qui avouent avoir subi des attaques est plus faible qu’en Europe. Il tombe à 20 % notamment parce que la question de la défense des données semble être mieux prise en compte. Mais ce chiffre doit être mis en regard de la perte de « réputation » à laquelle l’entreprise attaquée peut faire face en Amérique du Nord. De nombreuses entreprises américaines cacheraient leurs défaillances afin de protéger leur image.

La protection des données devrait rester clé pour la fonction finance dans les années à venir. Ainsi, 29,2 % des responsables financiers européens placent cette question parmi les trois plus importantes qu’ils auront à gérer dans un futur proche. Elle reste néanmoins derrière les problématiques liées à la gouvernance d’entreprise (35,4 %), les fusions et acquisitions (34,4 %) et l’évolution des réglementations (34,4 %).

Hausse des coûts de financement

La reprise des tensions inflationnistes à travers le monde a récemment conduit plusieurs banques centrales à durcir les conditions d’octroi de crédit, ce qui a eu comme conséquence mécanique une remontée des taux d’intérêt à long terme. Les entreprises voient donc actuellement leurs conditions de financement se détériorer.

Pour ce trimestre, nous avons cherché à estimer la sensibilité de la politique de financement des entreprises à la variation du niveau des taux d’intérêt telle que perçue par les responsables financiers. Le taux moyen auquel les entreprises se financent est aujourd’hui d’environ 2,95 % sur l’ensemble de notre échantillon européen. Les niveaux les plus bas sont observés en Allemagne (2,2 %) et les plus hauts en Grèce (6,0 %). Quelle que soit l’évolution future des taux, les entreprises européennes nous disent vouloir limiter leurs ratios d’endettement. Ainsi dans le cas d’une baisse supplémentaire des taux de financement d’environ un point (jusqu’à environ 2,0 %), les entreprises envisagent de baisser leurs ratios d’endettement d’un point de pourcentage également, pour le porter à environ 32,3 % en moyenne.

Le scénario central retenu par les responsables financiers est néanmoins celui d’une hausse modérée des taux d’intérêt qui s’établiraient à environ 3,4 % à l’horizon fin 2019. Dans ce contexte, les entreprises envisagent de réduire leurs ratios d’endettement de deux points de pourcentage. Enfin, dans un scénario de hausse élevée des taux, jusqu’à 4,5 %, la réduction estimée d’endettement serait d’environ quatre points de pourcentage. Au total, on peut estimer qu’une hausse d’environ 1 % des taux d’intérêt de long terme aurait pour conséquence une baisse d’environ 1 % du ratio d’endettement cible des entreprises.

La hausse du coût de financement pourrait avoir également un impact direct sur l’activité de fusion et acquisition (M&A) dans les pays européens. Ainsi, seulement un tiers des responsables financiers italiens s’attendent à une activité importante en M&A. À l’inverse, en Allemagne où les taux de financement sont les plus faibles du continent, les DAF (directeurs administratifs et financiers) sont 80 % à s’attendre à une hausse de l’activité en M&A. Les secteurs les plus concernés devraient être les secteurs de la banque et de l’assurance ainsi que celui des technologies. Au total, 41,9 % des responsables financiers s’attendent à une hausse des fusions et acquisitions dans l’année à venir (42,9 % en France).

Climat des affaires toujours favorable

En Europe, l’indicateur de climat des affaires reprend sa course en avant ce trimestre pour atteindre désormais 68,5 contre 67,0 au trimestre précédent. Cela fait désormais deux années consécutives que l’indicateur de climat des affaires enregistre une progression régulière, lui permettant de passer de 53 en mars 2016 aux niveaux observés aujourd’hui, compatibles avec une croissance élevée du PIB.

Il est aussi frappant de constater que cet enthousiasme économique concerne tous les principaux pays de la zone euro. Ainsi, la France affiche un optimisme de 67,5 et l’Italie de 65,4 alors même que le pays connaît une crise politique importante depuis les dernières élections. C’est en Allemagne que le climat des affaires semble le plus favorable (81,8) en forte hausse par rapport au trimestre précédent (72,3).

En revanche, le Royaume-Uni maintient sa position en queue de peloton affichant désormais un optimisme de seulement 57,3.

Aux États-Unis, le climat des affaires se stabilise à 71,1, contre 71,2 au trimestre précédent. Il reste favorable à une croissance soutenue de l’économie. Cependant, une majorité de responsables financiers américains s’attend désormais à une hausse significative des coûts de financement – notamment par la hausse des taux d’intérêt de long terme. Le contexte macro-économique pourrait alors devenir moins favorable au business avec des conséquences importantes en termes d’investissements et d’activité. Au-delà, le rythme des fusions et acquisitions, qui aujourd’hui soutient en partie les marchés d’actions, pourrait ralentir.

Enfin, la décision de l’administration Trump d’augmenter les tarifs douaniers notamment sur l’acier européen ne semble pas avoir eu d’impact particulier sur le moral des entreprises américaines. De même, ni l’opposition du G7, ni les avancées des négociations avec la Corée du Nord ne semblent jouer sur le climat des affaires nord-américain.

Dans le reste du monde : le climat des affaires s’affaiblit quelque peu en Amérique du Sud, en particulier au Brésil (54) et en Équateur (36). Il reste néanmoins favorable à une croissance élevée au Mexique (69) et au Pérou (61). En Asie, le climat moyen des affaires continue de baisser pour atteindre 60,3 contre 61 au trimestre précédent. La plupart des pays asiatiques affichent un climat des affaires proche de 60 : la Chine est à 58,8, le Japon également 58,8 et l’Inde 66. Seul Singapour avec 50 est en retrait sur le continent asiatique. Enfin, en Afrique, le climat des affaires a chuté brutalement dans plusieurs pays, en particulier au Nigeria (54 contre 62 au trimestre précédent) et en Afrique du Sud (51 contre 59 au trimestre précédent).


Prochaine enquête du 22 août au 7 septembre 2018. L’enquête Duke University–Grenoble École de Management mesure chaque trimestre depuis plus de 20 ans le climat des affaires tel que perçu par les responsables financiers des entreprises à travers le monde. L’enquête est courte (environ 10 questions). Elle recueille plus de 1 000 réponses anonymes d’entreprises de tous secteurs et de toutes tailles. C’est désormais la plus grande enquête de ce type dans le monde. Une analyse détaillée par pays peut être envoyée à chaque participant.

Les datavisualisations de cet article ont été réalisées par Diane Frances.

The Conversation

Philippe Dupuy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Climat des affaires : les stratégies des entreprises pour protéger leurs données – https://theconversation.com/climat-des-affaires-les-strategies-des-entreprises-pour-proteger-leurs-donnees-98541

Climat des affaires : la guerre des talents, une préoccupation mondiale

Source: – By Philippe Dupuy, Professeur Associé au département Gestion, Droit et Finance, Grenoble École de Management (GEM)

Le ralentissement économique n’a pas encore d’effets sur la dynamique de l’emploi. Pressmaster / Shutterstock

Cet article est tiré de la dernière enquête Duke University–Grenoble École de Management qui mesure chaque trimestre, depuis plus de 20 ans, le climat des affaires tel qu’il est perçu par les responsables financiers des entreprises à travers le monde. L’enquête recueille plus de 1 000 réponses anonymes d’entreprises de tous secteurs et de toutes tailles. C’est désormais la plus grande enquête de ce type dans le monde. Une analyse détaillée par pays peut être envoyée à chaque participant. Vous pouvez consulter les résultats complets de cette enquête.


La croissance observée à travers le monde depuis plusieurs trimestres a une conséquence importante sur le marché du travail : les entreprises rencontrent de plus en plus de difficultés à attirer et à conserver la main-d’œuvre nécessaire à leur activité. Ainsi, en Europe, 36,2 % des entreprises sont confrontées à un problème important de recrutement qu’elles perçoivent d’ailleurs de plus en plus comme un risque qui pèse sur leur bonne marche. Aux États-Unis, cette proportion atteint même 53,1 %, selon les derniers résultats de notre enquête trimestrielle sur le climat des affaires menée au niveau mondial.

Dans les mois à venir, l’Europe pourrait connaître un ralentissement conjoncturel qui, toutefois, ne devrait pas impacter dans l’immédiat la dynamique actuelle du marché de l’emploi. Comme il est généralement en décalage avec le cycle économique, les perspectives d’embauche restent encore aujourd’hui très élevées : la masse salariale devrait par exemple augmenter de 3,5 % en France et de 3,9 % aux États-Unis au cours du troisième trimestre 2018.

Politiques RH innovantes

Les tensions sur le marché du travail posent d’abord la question de la conservation du savoir-faire au sein de l’entreprise. Plus l’activité d’un pays ou d’un secteur est dynamique, plus la fréquence de renouvellement des collaborateurs, le turnover, est importante. Dans le secteur des technologies, il est désormais de 16 % en moyenne, contre environ 10 % en période de croissance économique plus faible. En comparaison, le secteur primaire (agriculture, pêche…), où l’emploi est plus stable, connaît un taux de rotation de seulement 4 %. De même, alors que l’Italie affiche un turnover moyen de 6 %, il est, en moyenne, proche de 10 % en France.

Face à ce phénomène, plus de la moitié des entreprises à travers le monde mettent en place des politiques de ressources humaines innovantes. Parmi les solutions : offrir un cadre de travail plus flexible, plus de jours de congé ou encore une meilleure couverture santé. Des politiques que l’on retrouve notamment dans les secteurs de la banque et du conseil.

À l’inverse, les grandes entreprises du secteur public ne semblent pas ressentir ce besoin puisqu’elles sont une majorité à déclarer ne pas avoir engagé de changement dans la politique RH pour attirer ou conserver plus de talents.

Tendance mondiale

L’adaptation des politiques RH est une tendance que l’on retrouve aujourd’hui un peu partout dans le monde. En Asie, 33 % des entreprises essaient d’adopter des horaires flexibles. Au Japon, 39 % d’entre elles cherchent à améliorer la qualité de vie de leurs salariés. C’est aussi le cas en Amérique latine, où les tensions sur le marché du travail sont néanmoins plus faibles.

Enfin, nous avons demandé aux entreprises si la hausse des tarifs douaniers pouvait avoir des conséquences sur leurs volumes d’embauche. Le résultat est frappant : 20 % des entreprises européennes l’envisagent effectivement. Dans certains secteurs, comme la vente au détail, les entreprises anticipent un impact négatif sur leur recrutement. Dans des secteurs comme la santé ou le conseil, c’est au contraire un effet positif qui est attendu. En Asie, épicentre du commerce international, pas moins de 56 % des entreprises estiment que le contexte international va modifier leur politique de recrutement. Comme en Europe, ce chiffre se divise à parts égales entre les entreprises qui anticipent un impact négatif et celles qui s’attendent à effet positif.


Retrouvez ci-dessous l’indicateur du climat des affaires de la dernière enquête de la Duke University–Grenoble École de Management pour le troisième trimestre 2018.

Notre indicateur de climat des affaires enregistre une baisse marquée en Europe qui le porte à 57,9 contre 68,5 au trimestre précédent sur une échelle de zéro à cent. C’est en France (60,4 contre 67,5) et en Allemagne (66,7 contre 81,8) que la chute est la plus sévère. Ces niveaux de confiance restent néanmoins compatibles avec une croissance toujours soutenue de l’activité.

À l’inverse, Le Royaume-Uni (48 ce trimestre), l’Espagne (50 ce trimestre) et, dans une moindre mesure, l’Italie (52 ce trimestre) connaissent une baisse de confiance qui pourrait indiquer un ralentissement plus marqué de la croissance dans les trimestres à venir.

Les signaux de ralentissement viennent de l’Europe

Aux États-Unis, le climat des affaires se maintient à des niveaux encore élevés : 70,0 aujourd’hui contre 71,1 au deuxième trimestre. Au cours des cycles précédents, les premiers signes du ralentissement économique sont généralement venus des États-Unis. C’était par exemple le cas lors du décrochage conjoncturel de 2007-2008 (voir graphique). Il est paradoxal de constater que, cette fois-ci, les premiers signes de ralentissement, certes encore modérés, viennent avant tout du continent européen. Pour les trimestres à venir, nous serons donc particulièrement attentifs à l’évolution de l’écart de confiance entre les États-Unis et l’Europe comme indicateur avancé de la croissance.

Dans le reste du monde, l’Amérique latine affiche un niveau moyen de climat des affaires de 56. Ce niveau masque néanmoins de grandes disparités entre le Mexique (70), le Chili (64) et le Pérou (62) d’un côté, et des pays comme le Brésil (52) ou encore l’Équateur (37), englués dans des difficultés politiques récurrentes.

En Asie, l’indicateur se stabilise autour de 60, un niveau largement inchangé par rapport au trimestre précédent. C’est en Inde que nous observons le climat des affaires le plus favorable à la croissance (77). À l’autre bout de l’échelle, le Vietnam affiche un niveau très faible de 40. Nous notons néanmoins que la plupart des pays asiatiques conservent un climat des affaires au-dessus de 50 : 55 au Japon, 60 en Chine, ou encore 72 en Malaisie. Enfin, en Afrique, les indicateurs de climat des affaires se sont fortement dégradés pour atteindre 38 en Afrique du Sud et 48 au Nigeria.

The Conversation

Philippe Dupuy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Climat des affaires : la guerre des talents, une préoccupation mondiale – https://theconversation.com/climat-des-affaires-la-guerre-des-talents-une-preoccupation-mondiale-103453

Votre chat peut-il vous reconnaître à l’odeur ?

Source: – By Julia Henning, PhD Candidate in Feline Behaviour, School of Animal and Veterinary Science, University of Adelaide

Vous êtes-vous déjà demandé si votre chat était capable de vous reconnaître ? Et si oui, comment peut-il vous distinguer des autres humains ?


Des recherches ont montré que seulement 54 % des chats pouvaient reconnaître les humains à partir de leur seul visage. Une étude publiée le 28 mai 2025 dans la revue scientifique PLOS One suggère que les chats sont capables de nous reconnaître à notre odeur. Cette faculté n’avait jamais été étudiée et nous renseigne sur les liens qui se tissent entre les humains et les chats.

Les chats ont souvent la triste réputation d’être distants ou indifférents aux personnes qui les entourent, mais un nombre croissant d’études démontre le contraire. On sait désormais que les chats apprennent les noms que nous leur donnons et que la plupart d’entre eux préfèrent l’interaction sociale humaine à la nourriture, un choix que même les chiens ont du mal à faire.

L’étude, réalisée par Yutaro Miyairi et ses collègues de l’Université d’agriculture de Tokyo, a porté sur la capacité de 30 chats à différencier leur propriétaire d’une personne inconnue en se basant uniquement sur l’odeur.

Pour cette étude, les scientifiques ont présenté à des chats des tubes en plastique contenant des cotons-tiges frottés sous l’aisselle, derrière l’oreille et entre les orteils soit de leur propriétaire, soit d’un humain qu’ils n’avaient jamais rencontré. À titre de contrôle, on a présenté des cotons-tiges vierges (donc sans odeur humaine) aux chats.

Quand les chats nous acceptent dans leur groupe social

Les résultats ont montré que les chats ont passé plus de temps à renifler les tubes contenant l’odeur d’humains qu’ils ne connaissaient pas, par rapport au temps passé à renifler ceux de leur propriétaire ou du contrôle.

Un temps de reniflage plus court suggère que lorsque les chats rencontrent l’odeur de leur maître, ils la reconnaissent rapidement et passent à autre chose. En revanche, lorsqu’il s’agit de prélèvements effectués sur une personne inconnue, le chat renifle plus longtemps, utilisant son sens aigu de l’odorat pour recueillir des informations sur l’odeur.

Des comportements similaires ont déjà été observés : les chatons reniflent l’odeur des femelles inconnues plus longtemps que celle de leur propre mère, et les chats adultes reniflent les fèces des chats inconnus plus longtemps que celles des chats de leur groupe social. Les résultats de cette nouvelle étude pourraient indiquer que nous faisons également partie de ce groupe social.

Deux chats dans des boîtes en carton, un chat noir reniflant un chat roux
Les chats utilisent leur odorat pour distinguer les chats familiers des chats inconnus.
Chris Boyer/Unsplash

L’étude a également révélé que les chats avaient tendance à renifler les odeurs familières avec leur narine gauche, tandis que les odeurs inconnues étaient plus souvent reniflées avec leur narine droite. Lorsque les chats se familiarisent avec une odeur après l’avoir reniflée pendant un certain temps, ils passent de la narine droite à la narine gauche.

Cette tendance a également été observée chez les chiens. Selon les recherches actuelles, cette préférence pour les narines pourrait indiquer que les chats traitent et classent les nouvelles informations en utilisant l’hémisphère droit de leur cerveau, tandis que l’hémisphère gauche prend le relais lorsqu’une réponse habituelle est établie.

Gros plan sur le nez ambré d’un chat silver tabby
Les chats reniflent les objets avec des narines différentes selon que l’information leur est familière ou non.
Kevin Knezic/Unsplash

L’odorat est d’importance pour les chats

Les chats s’appuient sur leur odorat pour recueillir des informations sur le monde qui les entoure et pour communiquer.

L’échange d’odeurs (par le frottement des joues et le toilettage mutuel) permet de reconnaître les chats du même cercle social, de maintenir la cohésion du groupe et d’identifier les chats non familiers ou d’autres animaux qui peuvent représenter une menace ou doivent être évités.

Les odeurs familières peuvent également être réconfortantes pour les chats, réduisant le stress et l’anxiété et créant un sentiment de sécurité dans leur environnement.

Lorsque vous revenez de vacances, si vous remarquez que votre chat est distant et agit comme si vous étiez un étranger, c’est peut-être parce que vous sentez une odeur étrangère. Essayez de prendre une douche en utilisant vos cosmétiques habituels et mettez vos vêtements de tous les jours. Les odeurs familières devraient vous aider, vous et votre chat, à retrouver plus rapidement votre ancienne dynamique.

N’oubliez pas que si votre chat passe beaucoup de temps à renifler quelqu’un d’autre, ce n’est pas parce qu’il le préfère. C’est probablement parce que votre odeur lui est familière et qu’elle lui demande moins de travail. Au lieu d’être nouvelle et intéressante, elle peut avoir un effet encore plus positif : aider votre chat à se sentir chez lui.

The Conversation

Julia Henning ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Votre chat peut-il vous reconnaître à l’odeur ? – https://theconversation.com/votre-chat-peut-il-vous-reconnaitre-a-lodeur-258322

Comment ce virus du riz a conquis toute l’Afrique

Source: – By Eugénie Hebrard, Directrice de recherche, Institut de recherche pour le développement (IRD)

Repiquage du riz dans le district de Rwamagana à l’Est du Rwanda. Dr I. Ndikumana/Rwanda Agricultural Board, Fourni par l’auteur

Une nouvelle étude retrace l’évolution du virus de la panachure jaune du riz et explique comment le commerce, les échanges de semences et même la Première Guerre mondiale lui ont permis de se répandre à travers tout le continent africain. Ce virus peut causer entre 20 % et 80 % de pertes de rendement.


Le virus de la panachure jaune du riz est une menace majeure pour la production rizicole en Afrique. Cette maladie, présente dans plus de 25 pays, peut causer entre 20 % et 80 % de pertes de rendement selon les épidémies. Retracer l’histoire de la dispersion du virus en Afrique permet de comprendre les causes et les modalités de l’émergence de la maladie, aide à mettre en place des stratégies de contrôle et contribue à évaluer les risques de propagation vers d’autres régions du monde. Par une approche multidisciplinaire intégrant données épidémiologiques, virologiques, agronomiques et historiques, nous avons exploré les liens entre l’histoire de la culture du riz en Afrique de l’Est et la propagation de ce virus à large échelle depuis la seconde moitié du XIXe siècle. Ces travaux sur le RYMV (l’acronyme de son nom anglais : Rice yellow mottle virus) viennent d’être publiés dans la revue scientifique PLoS Pathogens.

Il s’agit de l’aboutissement d’un travail de longue haleine basé sur des collectes de feuilles symptomatiques sur le terrain, parfois difficile d’accès, menées par plusieurs équipes de virologues, co-auteurs de cet article. La détection du virus par diagnostic immunologique en laboratoire puis sa caractérisation par séquençage ont abouti à une collection représentative de 50 génomes entiers et de 335 séquences du gène de la capside virale (la coque protéique qui protège le génome) prélevés entre 1966 et 2020 sur deux millions de kilomètres carrés (Burundi, Éthiopie, Kenya, Malawi, Ouganda, République du Congo, Rwanda, Tanzanie). Une partie de ces échantillons avaient été caractérisée préalablement et conservée dans des herbiers et des congélateurs. C’est une collaboration multilatérale internationale basée sur la mise en commun de tous les résultats qui a abouti à cette étude globale de la phylodynamique du RYMV, c’est-à-dire de la dispersion et de l’évolution des différentes lignées génétiques virales. Les approches bio-informatiques utilisées pour analyser et visualiser les résultats ont nécessité des développements méthodologiques mis au point par plusieurs co-auteurs spécialistes de ces disciplines, et qui sont transposables à tous types de virus. Les résultats obtenus avec les séquences virales partielles ou entières convergent vers un même scénario. C’est en intégrant les connaissances des agronomes et des historiens, également co-auteurs de cet article que nous avons pu interpréter cette « remontée dans le temps ».

Une transmission bien particulière

Beaucoup de virus de plantes sont transmis exclusivement par des insectes vecteurs dit piqueurs-suceurs comme les pucerons, qui en se nourrissant sur une plante malade, acquièrent le virus puis les réinjectent dans des plantes saines. Le RYMV, lui, est transmis par de multiples moyens, notamment :

  • grâce à l’intervention de coléoptères, insectes broyeurs qui n’ont pas de système d’injection de salive mais qui peuvent tout de même se contaminer mécaniquement en s’alimentant et qui se déplacent à courte distance ;

  • par des vaches ou d’autres animaux qui en broutant dans les champs de riz produisent des déjections dans lesquelles le virus reste infectieux ;

  • de manière passive par contact des feuilles ou des racines de plantes infectées où il se multiplie fortement.

Ces différents modes de transmission et de propagation du RYMV ne sont pas efficaces pour la transmission à longue distance. Or, le virus est présent sur tout le continent africain. C’est ce paradoxe que nous avons cherché à résoudre.

Une histoire complexe

Le RYMV est apparu au milieu du XIXe siècle dans l’Eastern Arc Montains en Tanzanie, où la riziculture sur brûlis était pratiquée. Plusieurs contaminations du riz cultivé à partir de graminées sauvages infectées ont eu lieu, aboutissant à l’émergence des trois lignées S4, S5 et S6 du virus. Le RYMV a ensuite été rapidement introduit dans la grande vallée rizicole voisine de Kilombero et dans la région de Morogoro. Les graines récoltées, bien qu’indemnes de virus, sont contaminées par des débris de plantes, elles-mêmes infectées, qui subsistent dans les sacs de riz après le battage et le vannage du riz. Le RYMV, très stable, est en mesure de subsister ainsi pendant plusieurs années. La dispersion à longue distance du RYMV en Afrique de l’Est a été marquée par trois évènements majeurs, cohérents avec : l’introduction du riz le long des routes de commerce caravanier des côtes de l’Océan Indien en direction du lac Victoria dans la seconde moitié du XIXe siècle (I), avec les échanges de semences du lac Victoria vers le nord de l’Éthiopie dans la seconde moitié du XXe siècle (II) et, de manière inattendue, avec le transport du riz à la fin de la Première Guerre mondiale comme aliment de base des troupes, de la vallée du Kilombero vers le sud du lac Malawi (III). Les échanges de semences expliquent également la dispersion du virus de l’Afrique de l’Est vers l’Afrique de l’Ouest à la fin du XIXe siècle, et vers Madagascar à la fin du XXe siècle. En somme, la dispersion du RYMV est associée à un large spectre d’activités humaines, certaines insoupçonnées. Par conséquent, le RYMV, bien que non transmis directement par la semence ou par des insectes vecteurs très mobiles comme beaucoup de virus de plantes, a une grande capacité de dissémination. Ses paramètres de dispersion, estimés à partir de nos reconstructions dites phylogéographiques, sont similaires à ceux des virus zoonotiques très mobiles, des virus infectant les animaux qui peuvent créer des épidémies chez l’homme comme la rage.

Reconstitution de la dispersion du RYMV en Afrique de l’Est de 1850 à 2020, basées sur les séquences génomiques non recombinantes de 50 isolats représentatifs de la diversité génétique et géographique du virus. Les trois évènements de dispersion à longue distance sont indiqués (I, II, III, voir texte).
Fourni par l’auteur

En comparant la dispersion des trois lignées majeures présentes en Afrique de l’Est grâce aux nouveaux outils bio-informatiques développés dans cette étude, nous avons observé des dynamiques virales très contrastées. La lignée S4 a connu le plus grand succès épidémique avec une propagation précoce, rapide et généralisée. Elle a été découverte au sud du lac Victoria dans la seconde moitié du XIXe siècle puis a circulé autour du lac Victoria avant de se disperser vers le nord en Éthiopie, puis vers le sud au Malawi et enfin vers l’ouest en République du Congo, au Rwanda et au Burundi. La lignée S6, au contraire, est restée confinée à la vallée du Kilombero et dans la région de Morogoro pendant plusieurs décennies. Au cours des dernières décennies seulement, elle s’est propagée vers l’est de la Tanzanie, le sud-ouest du Kenya et les îles de Zanzibar et de Pemba. De façon inexpliquée, la lignée S5 est restée confinée dans la vallée du Kilombero et dans la région de Morogoro. Au cours des dernières décennies, on note un ralentissement des taux de dispersion de la plupart des souches virales issues des lignées S4 et S6 que nous n’expliquons pas encore.

En conclusion, notre étude multi-partenariale et multidisciplinaire met en évidence l’importance de la transmission humaine d’agents pathogènes de plantes et souligne le risque de transmission du RYMV, ainsi que celle d’autres phytovirus d’Afrique, vers d’autres continents. Nous étudions maintenant la dispersion et l’évolution du RYMV en Afrique de l’Ouest, en particulier de celle de lignées virales particulièrement préoccupantes car capables de se multiplier sur les variétés de riz, considérées résistantes au virus, compromettant ainsi les stratégies de contrôle.

The Conversation

Eugénie Hebrard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Comment ce virus du riz a conquis toute l’Afrique – https://theconversation.com/comment-ce-virus-du-riz-a-conquis-toute-lafrique-259329

L’eau gèle quand il fait froid – ce nouveau matériau gèle quand il fait chaud !

Source: – By Éric Collet, Professeur de Physique, expert en sciences des matériaux, Université de Rennes

Une nouvelle étude montre qu’il est possible de geler les positions des atomes qui constituent un matériau…, en le chauffant.

Ce concept ouvre la voie au développement de dispositifs innovants, tels que des capteurs piézoélectriques capables de fonctionner à température ambiante, sans avoir besoin de recourir à de très basses températures.


Lorsque l’eau liquide passe en dessous de 0 °C, les molécules d’eau gèlent leurs positions les unes par rapport aux autres, pour former de la glace. Dans l’immense majorité des matériaux, les atomes et les molécules gèlent quand la température baisse.

Mais, contrairement à l’intuition, nous avons découvert un matériau présentant un changement d’état magnétique, pour lequel des mesures de cristallographie par rayons X ont démontré que les positions des atomes gèlent… en chauffant !

Ceci nous a d’abord surpris, mais nous avons trouvé une explication, que nous détaillons dans notre récente publication.

Certains dispositifs électroniques ne fonctionnent qu’à basse température

Les positions des atomes se gèlent habituellement quand on abaisse sa température – c’est le cas, par exemple, quand l’eau gèle au congélateur ou encore quand du sucre fondu cristallise en refroidissant.

Ce phénomène existe aussi à l’état solide dans de nombreux matériaux. Même dans un solide, les atomes vibrent entre des positions équivalentes par symétrie (par exemple entre gauche et droite) – ils ne se figent dans une de ces positions que quand la température diminue.

Pour certains matériaux, comme le sucre ou les piézoélectriques utilisés sur les sonars ou capteurs pour l’échographie, les atomes sont gelés à température ambiante. Mais pour de nombreux matériaux moléculaires, ceci ne se produit qu’à -20 °C, -100 °C ou -200 °C, par exemple.

schéma
À haute température, les atomes en bleu et en rouge sont désordonnés entre des positions droite/gauche équivalentes par symétrie. Quand ils se gèlent sur une position à basse température, la symétrie droite/gauche est perdue. Ainsi, des charges peuvent apparaître en surface.
Éric Collet, Fourni par l’auteur

Le changement de symétrie associé à la mise en ordre des atomes qui se gèlent suivant certaines positions est illustré sur la figure ci-dessus.

À droite, les atomes sont désordonnés et vibrent à haute température. Il y a ici une symétrie miroir et les positions des atomes d’un côté du miroir sont équivalentes à celles de l’autre côté.

À basse température, les positions des atomes se gèlent. Par exemple, les atomes rouges s’approchent d’atomes bleus à droite et s’éloignent des atomes bleus à gauche. Ceci modifie certaines propriétés physiques de matériaux et, par exemple, des charges (+ et -) apparaissent en surface.

Si on appuie sur un tel matériau, les charges changent, et c’est ce qui est à la base des capteurs piézoélectriques, par exemple. Une simple pression, comme un son, peut moduler ces charges et être alors détectée. C’est ainsi que fonctionnent les dispositifs pour l’échographie ou les sonars dans les sous-marins, par exemple : l’onde sonore qui est réfléchie sur un objet est détectée par le capteur piézoélectrique au travers d’un signal électrique.




À lire aussi :
Des aimants légers et performants grâce à la chimie moléculaire



Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


D’autres matériaux sont aussi ferroélectriques. Il est alors possible de retourner les positions atomiques avec un champ électrique et donc d’inverser les charges. C’est ce dispositif qui est à la base des mémoires RAM ferroélectriques.

Malheureusement, pour de nombreux matériaux moléculaires, ce type de propriétés liées au changement de symétrie n’apparaissent qu’à basse température. Il faut alors refroidir les matériaux pour obtenir la propriété, parfois à -200 °C. Cette contrainte limite donc l’application de ces matériaux, car de nombreuses applications nécessitent des dispositifs fonctionnant à température ambiante, parce qu’il est trop complexe et coûteux d’intégrer des dispositifs de refroidissement.

Une découverte surprenante : un matériau qui gèle à haute température

Dans la majorité des matériaux, les atomes qui les constituent se mettent en mouvement avec l’élévation de température. Cette agitation thermique crée un désordre, qui se mesure par une grandeur thermodynamique appelée « entropie ».

« L’Entropie », Passe-science #17. Source : Passe-science.

Les lois de la physique stipulent que plus la température augmente, plus le désordre et donc l’entropie augmentent. Ainsi, le désordre est plus grand à haute température, avec les atomes agités, qu’à basse température où les atomes sont figés. À l’inverse, à basse température, le désordre et, donc, l’entropie diminuent, ainsi que la symétrie.

Dans notre étude, nous observons pourtant le phénomène inverse : le matériau que nous étudions est plus symétrique en dessous de -40 °C qu’au-dessus. En d’autres termes, les molécules sont sur des positions désordonnées droite/gauche à basse température et ordonnées à haute température et donc, ici, à température ambiante.

Plusieurs types de désordre en compétition

Ce phénomène est rendu possible grâce au « désordre électronique ».

En effet, dans le matériau étudié, les états à haute et basse température correspondent aussi à deux états magnétiques.

À basse température, le matériau est dans l’état appelé « diamagnétique », c’est-à-dire que les électrons vivent en couple et que leurs spins (leurs moments magnétiques) sont opposés – c’est une contrainte imposée par la mécanique quantique. Ceci correspond à un état électronique ordonné, car il n’y a qu’une configuration possible : un spin vers le haut, l’autre vers le bas.

schéma
Dans le matériau étudié, les molécules sont désordonnées entre positions droite/gauche à basse température et gèlent suivant une des positions à haute température. Ceci est permis par la réorganisation concomitante des électrons. À basse température, les électrons dans ce matériau sont ordonnés : ils s’apparient avec des spins opposés (représenté par des flèches) et il n’existe qu’une configuration électronique. À haute température, les électrons célibataires peuvent prendre l’un des deux spins, sans contrainte, et il existe cinq configurations possibles.
Éric Collet, Fourni par l’auteur

À haute température, au contraire, le matériau est dans l’état « paramagnétique », c’est-à-dire que les électrons sont célibataires et leurs spins peuvent s’orienter librement, ce qui donne lieu à plusieurs configurations (quelques-uns vers le haut, les autres vers le bas, comme illustré par les flèches rouges sur la figure ci-dessus).

En chauffant, nous favorisons le désordre « électronique » (le grand nombre de configurations des spins). Ce désordre entre en compétition avec la mise en ordre des positions des atomes.

Le gain en entropie lié au désordre électronique (qui passe d’une seule configuration à cinq) est alors plus grand que le coût en entropie lié à la mise en ordre des atomes (de deux configurations à une seule). D’autres phénomènes viennent aussi contribuer à cette augmentation d’entropie.

Au final, l’entropie globale, incluant désordre atomique et électronique, augmente donc bien avec la température comme l’imposent les lois de la physique. C’est donc le désordre des électrons qui autorise de geler les positions des molécules.

Par conséquent, ce nouveau concept, combinant désordre électronique et ordre atomique, ouvre la voie au développement de nouveaux matériaux pour des dispositifs tels que des capteurs, des mémoires, des transducteurs ou des actionneurs fonctionnant à température ambiante, sans recours aux basses températures.

The Conversation

Eric Collet est membre de l’Institut Universitaire de France et de l’Academia Europaea

ref. L’eau gèle quand il fait froid – ce nouveau matériau gèle quand il fait chaud ! – https://theconversation.com/leau-gele-quand-il-fait-froid-ce-nouveau-materiau-gele-quand-il-fait-chaud-258851

Existe-t-il une méthode scientifique pour éplucher parfaitement un œuf dur ?

Source: – By Paulomi (Polly) Burey, Professor in Food Science, University of Southern Queensland

Pourquoi certains œufs s’écalent facilement et d’autres non ? Une histoire de pH, de température et de chambre à air, répondent les scientifiques qui se sont penchés sur la question.


Nous sommes tous passés par là : essayer d’écaler un œuf dur, mais finir par le réduire en miettes tant la coquille s’accroche obstinément au blanc. Et ça peut être pire encore, quand l’œuf se retrouve couvert de petits morceaux de membrane.

Internet regorge d’astuces censées vous éviter ce désagrément mais plusieurs causes très différentes peuvent expliquer qu’un œuf soit difficile à « éplucher ». Heureusement, la science offre des stratégies pour contourner le problème.

Facteurs influençant la facilité d’écalage d’un œuf

Les œufs se composent d’une coquille dure et poreuse, d’une membrane coquillière externe et d’une membrane coquillière interne, du blanc d’œuf (ou albumen), et d’un jaune enveloppé d’une membrane. On trouve également une chambre à air entre les deux membranes, juste sous la coquille.

Visuel de coupe d’un œuf

Coquille calcaire ; 2. Membrane coquillière externe ; 3. Membrane coquillière interne ; 4. Chalaze ; 5. Blanc d’œuf (ou albumen) externe (fluide) ; 6. Blanc d’œuf (ou albumen) intermédiaire (visqueux) ; 7. Peau du jaune d’œuf ; 8. Jaune d’œuf (ou vitellus) formé ; 9. Point blanc puis embryon ; 10. Jaune d’œuf (ou vitellus) jaune ;11. Jaune d’œuf (ou vitellus) blanc ; 12. Blanc d’œuf (ou albumen) interne (fluide) ; 13. Chalaze ; 14. Chambre à air ; 15. Cuticule.

Horst Frank/Wikicommon, CC BY-NC

Dans les années 1960 et 1970, de nombreuses recherches ont été menées sur les facteurs influençant la facilité d’écalage des œufs après cuisson. L’un de ces facteurs est le pH du blanc d’œuf. Une étude des années 1960 a montré qu’un pH compris entre 8,7 et 8,9 — donc assez alcalin — facilitait l’épluchage des œufs.

La température de conservation joue également un rôle. Une étude de 1963 a révélé qu’un stockage à environ 22 °C donnait de meilleurs résultats en matière d’épluchage qu’un stockage à 13 °C, ou à des températures de réfrigérateur de 3 à 5 °C.

Il faut bien sûr garder à l’esprit qu’un stockage à température ambiante élevée augmente le risque de détérioration (NDLR : L’Anses recommande de conserver les œufs toujours à la même température afin d’éviter le phénomène de condensation d’eau à leur surface).

Les recherches ont également montré qu’un temps de stockage plus long avant cuisson — autrement dit des œufs moins frais — améliore la facilité d’épluchage.

Une boîte d’œufs sur une table
Plus les œufs sont vieux, plus ils pourraient être faciles à écaler.
Caroline Attwood/Unsplash

Conseil n°1 : éviter les œufs frais

Le fait que les œufs frais soient plus difficiles à éplucher est relativement bien connu. D’après les facteurs évoqués plus haut, plusieurs explications permettent de comprendre ce phénomène.

D’abord, dans un œuf frais, la chambre à air est encore très petite. En vieillissant, l’œuf perd lentement de l’humidité à travers sa coquille poreuse, ce qui agrandit la chambre à air à mesure que le reste du contenu se rétracte. Une chambre à air plus grande facilite le démarrage de l’épluchage.

Par ailleurs, même si le blanc d’œuf est déjà relativement alcalin au départ, son pH augmente encore avec le temps, ce qui contribue aussi à rendre l’écalage plus facile.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Conseil n°2 : la température de l’eau

Plusieurs experts de la cuisson des œufs estiment que commencer avec de l’eau bouillante puis la ramener à un frémissement avant d’y déposer délicatement les œufs donne de meilleurs résultats. Il est alors recommandé d’utiliser des œufs à température ambiante pour éviter qu’ils ne se fissurent à cause d’un choc thermique. L’idée derrière cette méthode est qu’une exposition immédiate à une température élevée facilite la séparation entre la membrane, la coquille et le blanc d’œuf.

En outre, un démarrage à chaud favorise la dénaturation des protéines du blanc d’œuf (c’est-à-dire leur changement de structure sous l’effet de la chaleur), ce qui les incite à se lier entre elles plutôt qu’à adhérer à la membrane.

Après avoir fait bouillir les œufs pendant le temps désiré (généralement 3 à 5 minutes pour un jaune coulant, 6 à 7 minutes pour un jaune crémeux, et 12 à 15 minutes pour un œuf dur), on peut les plonger dans de l’eau glacée. Cela aide le blanc à se rétracter légèrement, facilitant ainsi l’épluchage.

Des œufs dans de l’eau bouillante dans une casserole sur une cuisinière à gaz
Commencer la cuisson dans de l’eau bouillante peut faciliter l’épluchage, surtout si l’on plonge les œufs dans de l’eau glacée ensuite.
Max4ᵉ Photo/Shutterstock

Conseil n°3 (pas obligatoire) : ajouter des ingrédients à l’eau

Parmi les autres astuces suggérées pour faciliter l’écalage, on trouve l’ajout de sel dans l’eau bouillante, mais les résultats sont à nuancer. Une étude a montré que cela pouvait effectivement améliorer l’épluchage, mais que cet effet disparaissait après une période de stockage prolongée des œufs.

L’ajout d’acides et de bases a également démontré une certaine efficacité pour aider à retirer la coquille. Un brevet s’appuyant sur cette idée propose ainsi d’utiliser des substances agressives dans le but de dissoudre la coquille. Mais partant de ce principe, vous pourriez simplement tenter d’ajouter à l’eau de cuisson du bicarbonate de soude ou du vinaigre. En théorie, ce dernier devrait attaquer le carbonate de calcium de la coquille, facilitant ainsi son retrait. Quant au bicarbonate, étant alcalin, il devrait aider à détacher la membrane de la coquille.

Bonus : quelques méthodes de cuisson alternatives

Il existe plusieurs façons de cuire des œufs durs en dehors de l’ébullition classique. Parmi elles : la cuisson vapeur sous pression, la cuisson à l’air chaud (avec un air fryer), et même le micro-ondes.

Dans le cas de la cuisson vapeur, certains avancent que la vapeur d’eau traversant la coquille aiderait à décoller la membrane du blanc d’œuf, ce qui rendrait l’épluchage beaucoup plus facile.

Des recherches récentes ont porté sur la cuisson à l’air chaud d’autres aliments, mais on ne sait pas encore précisément comment ce mode de cuisson pourrait influencer la coquille et la facilité d’écalage des œufs.

Enfin, une fois vos œufs épluchés, évitez de jeter les coquilles à la poubelle. Elles peuvent servir à de nombreux usages : compost, répulsif naturel contre les limaces et escargots au jardin, petits pots biodégradables pour semis… ou même contribuer à des applications bien plus poussées, notamment dans la recherche sur le cancer.

The Conversation

Paulomi (Polly) Burey a reçu des financements du ministère australien de l’Éducation, qui a soutenu les recherches sur les coquilles d’œufs mentionnées à la fin de cet article.

ref. Existe-t-il une méthode scientifique pour éplucher parfaitement un œuf dur ? – https://theconversation.com/existe-t-il-une-methode-scientifique-pour-eplucher-parfaitement-un-oeuf-dur-255520