Pourquoi vouloir vivre dans les quartiers riches quand on est pauvre ?

Source: – By Fanny Parise, Chercheur associé, anthropologie, Institut lémanique de théologie pratique, Université de Lausanne

Paris, théâtre d’un jeu social méconnu. Wikimedia, CC BY

Paris, capitale française et sixième ville d’Europe où les loyers sont les plus chers, vient de battre un nouveau record : le prix moyen du mètre carré dépasse désormais les 9 000 euros !

Mais Paris est également le théâtre d’un jeu social méconnu qui permet d’objectiver l’incidence du lieu de vie sur la sociabilité et le style de vie d’individus sous contrainte de budget. D’un point de vue socio-anthropologique, ces individus déploient des stratégies sociales afin de rendre plus acceptable leur quotidien : ils mettent en place des pratiques visant non pas à sortir de la précarité, mais à ne pas tomber dans la misère, à rendre acceptables les frustrations qu’engendre la situation socio-économique vis-à-vis de la société de consommation. Ils montrent aussi une volonté de monétariser tout ou partie de l’activité, ou des projets déployés au quotidien.

Assurer sa solvabilité

La solvabilité d’un locataire se traduit par sa sa capacité à honorer le loyer de son logement. Elle se calcule par l’intermédiaire d’un indice : le ratio de solvabilité, correspondant au taux d’effort des locataires. Ce chiffre indique le reste à vivre (RAV) mensuel après paiement du loyer. Il ne doit pas excéder 33,3 % du total des ressources de l’individu. Le RAV varie logiquement en fonction du salaire, du montant du loyer, des dépenses contraintes et secondaires d’un individu. Il est également corrélé à un ensemble de variables socioculturelles où le style de vie et les modes de consommation impactent directement sa gestion. Si un individu estime que son RAV est insuffisant pour le niveau de vie auquel il aspire, opter pour un loyer moins élevé, sur un territoire où l’immobilier est plus abordable, peut sembler être une solution pertinente.

Or, l’« adresse postale » d’un logement représente l’épicentre de stratégies de distinctions sociales, qui confère une dimension symbolique au ratio de solvabilité. D’autres notions conduisent les individus à repenser leur budget afin de s’assurer leur solvabilité face à des « adresses postales » où le prix moyen des loyers est supérieur à leur ratio de solvabilité. Il s’agit notamment des politiques liées aux logements sociaux ou du « capital d’autochtonie », c’est-à-dire l’ensemble des ressources (réelles et symboliques) engendrées par l’appartenance à des réseaux et à des relations de proximité. On attribue un caractère réversible à ce capital : alors que l’entre-soi constitue une force à l’échelle individuelle comme à celle d’un groupe social, il peut se retourner en handicap à l’extérieur de ce réseau. D’un point de vue anthropologique, les individus usent de stratégies afin de conserver ces réseaux de proximité.

Classiquement, la sociologie et la géographie objectivent les disparités de revenus des ménages en fonction des différents quartiers de la ville, mettant en tension l’Est et l’Ouest de la capitale. Or, il semble exister une réalité plus complexe du quotidien, notamment pour une partie de ses habitants qui a, malgré de faibles ressources, décidé de vivre dans les quartiers ou les villes de l’Ouest parisien.

Entre « classe ambitieuse » et « classe aspirante »

La sociologue américaine Elizabeth Currid a publié en 2017 The Sum of Small Things à propos de la « classe ambitieuse », où ces créatifs culturels décident non pas de s’émanciper de la société de consommation, mais de se positionner en transition consumériste. Ils aspirent ainsi à changer le monde tout en participant, souvent malgré eux, à une reproduction des distinctions sociales.

Très visibles dans les grandes villes, ces individus investissent Paris et participent au processus de gentrification amorcé dans les quartiers de l’Est parisien. Cependant, il existerait une autre facette de cette « classe ambitieuse » : la « classe aspirante », qui serait sa part d’ombre. Elle investirait les quartiers historiquement les plus huppés de Paris (Triangle d’Or, par exemple) et déploierait un certain nombre de stratégies faisant office d’amortisseurs de la pauvreté, comme la sociologue Martine Abrous l’a étudié au sujet des professions artistiques.

Ces stratégies renvoient vers une pluralité de desseins : conserver une position sociale, acquérir un logement selon ses ressources (stratégies de gentrification), capitaliser sur les aménités de quartier afin de mieux vivre, ou encore, choisir par défaut (attribution de logements sociaux, hébergement chez des proches).

Stratégies pour choisir son lieu de vie

A priori, il existerait une corrélation entre prix du bâti et ressources des ménages. Or, le croisement de certains indicateurs statistiques montre une autre réalité : on observe un lien entre prix du bâti et nombre de chambres de bonnes ou de « service » à la location (le XVIe arrondissement de Paris concentre près d’un tiers du parc de chambres de bonnes de la capitale), ou encore, entre prix du bâti et diversité des types de logements sociaux, comme en atteste la répartition des logements sociaux par arrondissement :

Cette « classe aspirante » a recours à un certain nombre de stratégies afin de préserver son « ratio de solvabilité » : travail au noir, économie informelle, cumul d’emplois, mobilisation de réseaux d’entraide et de solidarité… Elle invoque différentes justifications à ce choix de vie parfois difficile : vivre dans un quartier privilégié, continuer de résider dans le quartier ou la ville dans laquelle on a grandi, assurer une bonne scolarité à ses enfants, s’intégrer dans des réseaux de sociabilité des classes supérieures, etc.

La mixité sociale peut desservir

Cette forme de mixité sociale peut également engendrer de la non-mixité due aux « effets de quartier » et provoquer des tensions à l’échelle des territoires. Le couple de sociologues Pinçon l’avait évoqué, relatant le cas d’une résidence HLM en bas des Champs-Élysées : la volonté initiale de « mixer » différentes populations s’est retrouvée être contre-intuitive pour les habitants. Il s’agit du phénomène de la « double peine ».

Les habitants ont perdu les bénéfices de leur « capital d’autochtonie » et ne sont pas parvenus à s’intégrer sur ce nouveau territoire, provoquant de l’exclusion et une diminution de la qualité de vie. Cet exemple s’intègre dans un jeu social de différenciation entre les habitants de ces quartiers, provoquant des confusions et des sentiments d’injustice, notamment liés aux liens entre ressources et types de logements sociaux.

En définitive, c’est précisément le poids symbolique et culturel qui va conditionner les stratégies individuelles et collectives des individus dans les pratiques de gestion du « ratio de solvabilité », donnant à voir une réalité plus contrastée de la pauvreté par rapport au lieu de vie.


Les datavisualisations de cet article ont été réalisées par Diane Frances.

The Conversation

Fanny Parise a reçu des financements de différentes structures, qui ont participé au financement de son travail de thèse.

ref. Pourquoi vouloir vivre dans les quartiers riches quand on est pauvre ? – https://theconversation.com/pourquoi-vouloir-vivre-dans-les-quartiers-riches-quand-on-est-pauvre-94355

Espérance de vie : peut-on gagner six heures par jour indéfiniment ?

Source: – By Gilles Pison, Anthropologue et démographe, professeur au Muséum national d’histoire naturelle et chercheur associé à l’INED, Muséum national d’histoire naturelle (MNHN)

En 2004 en France, l’espérance de vie a passé le seuil des 80 ans. Marie-Sophie Tekian/Unsplash

En France, au milieu du XVIIIe siècle, l’espérance de vie à la naissance était de moins de 30 ans ; elle a presque triplé depuis (voir la figure 1 ci-dessous). Au cours de la période récente, c’est-à-dire depuis le milieu du XXe siècle, elle a progressé de près de trois mois en moyenne par an – soit six heures par jour –, passant de 66,4 ans en 1950 à 82,5 ans en 2017.

Va-t-elle continuer à augmenter ? Jusqu’où ? Elle progresse en effet moins vite depuis quelque temps, de deux mois en moyenne par an. Est-ce le signe qu’elle se rapproche des limites ? Pour y voir plus clair, analysons son évolution passée et les facteurs expliquant sa formidable progression jusqu’ici.

Évolution de l’espérance de vie en France.
Gilles Pison (à partir de reconstitutions historiques et des données de l’Insee), CC BY-NC-ND

Le recul de la mortalité infantile, un facteur déterminant

La progression de l’espérance de vie n’a pas été régulière au cours des deux siècles et demi passés. Elle a été interrompue par les conflits (guerres napoléoniennes, guerres de 1870, 1914-1918 et 1939-1945) qui ont entraîné des reculs importants. Mais ceux-ci n’ont duré que le temps du conflit, la progression reprenant ensuite la tendance de fond.

Les progrès s’accélèrent à certaines périodes, comme au tournant du XVIIIe et du XIXe siècle, ou cent ans plus tard, à la fin du XIXe siècle. Ils ralentissent à d’autres, comme entre 1850 et 1870. Ces variations sont parallèles à celles de la mortalité des enfants, encore très élevée à ces époques, et qui pèse beaucoup sur la durée de vie moyenne.

Ainsi, la moitié des enfants mourait avant l’âge de 10 ans en France au milieu du XVIIIe siècle, ce qui explique la très faible espérance de vie (25 ans). Autour de 1800 la mortalité des enfants recule fortement grâce en partie à la vaccination contre la variole : le risque pour un nouveau-né de mourir dans sa première année diminue d’un tiers en deux décennies, passant de 275 pour mille à 185 pour mille, comme le montre la figure 2. L’espérance de vie fait un bond de 10 ans.

Évolution de la mortalité infantile en France.
Gilles Pison (à partir de reconstitutions historiques et des données de l’Insee), CC BY-NC-ND

Au milieu du XIXe siècle, la mortalité infantile remonte du fait de l’industrialisation et l’urbanisation qui dégradent les conditions de vie des enfants, notamment dans les villes. L’espérance de vie stagne. À l’inverse, à la fin du XIXe siècle et dans la première moitié du XXe siècle, les progrès de l’hygiène et de la médecine liés à la révolution pastorienne, dont les enfants ont été les premiers bénéficiaires, et aussi la mise en place des premières politiques de protection de la petite enfance, entraînent une forte augmentation de l’espérance de vie.

Au sortir de la Deuxième Guerre mondiale, l’espérance de vie récupère la tendance de fond et atteint 66,4 ans en 1950. Elle poursuit ensuite sa progression au rythme de près de 3 mois en plus par an en moyenne.

Mais le rythme a un peu baissé depuis 2010, deux mois en plus par an seulement en moyenne comme déjà mentionné, laissant penser que l’allongement de la vie pourrait bientôt atteindre ses limites.

Un précédent ralentissement il y a 50 ans

Un phénomène similaire de ralentissement des progrès s’est produit il y a 50 ans, visible à la figure 3 qui zoome sur la période récente. Alors que l’espérance de vie à la naissance (sexes confondus) a augmenté de 4 ans au cours de la décennie 1950, elle n’a crû que de 1,7 an au cours de la décennie 1960.

Durant ces décennies, la progression de l’espérance de vie vient encore pour partie du recul de la mortalité infantile. Elle a baissé de moitié entre 1950 et 1960, passant de 51 décès d’enfants de moins d’un an pour mille naissances, à 27 ‰, et a continué de diminuer pendant la décennie suivante pour atteindre 18 ‰ en 1970. Mais le niveau atteint est si bas qu’elle ne représente plus désormais qu’une faible part de la mortalité, et même si son recul se poursuit (elle est de 4 ‰ en 2017), il n’a pratiquement plus d’effet sur l’espérance de vie.

Celle-ci ne peut progresser qu’en raison des succès remportés dans la lutte contre la mortalité adulte, en particulier aux âges élevés où se concentrent de plus en plus les décès.

En France, la progression de l’espérance de vie marque le pas dans les années 1960.
Gilles Pison (à partir des données de l’Insee), CC BY-NC-ND

Des scénarios pessimistes démentis par la réalité, l’idée du plafonnement abandonnée

Les possibilités de diminution de la mortalité à ces âges ne peuvent être que limitées, pense-t-on il y a 50 ans, et l’espérance de vie va rapidement buter sur un plafond biologique.

Le ralentissement des années 1960 vient conforter cette vision. Celle-ci se reflète dans les scénarios d’évolution de l’espérance de vie qu’élabore l’Insee pour projeter la population de la France (voir la figure 3 ci-dessus).

Ainsi, la projection publiée en 1979 considère que l’espérance de vie va plafonner à 73,8 ans en 2000, or ce seuil a été dépassé l’année même où elle a été publiée, l’espérance de vie ayant atteint 74,1 ans en 1979. Tenant compte de l’énorme décalage entre les projections précédentes et la réalité, la projection de 1986 fait progresser l’espérance de vie nettement plus rapidement tout en conservant l’hypothèse d’un ralentissement puis d’un plafonnement à terme.

Mais, comme dans les projections antérieures, le plafond de la projection de 1986 est atteint puis dépassé (en 1997). Le constat que les plafonds même rehaussés sont régulièrement dépassés au bout de quelques années conduit à l’abandon de l’idée même de plafonnement dans les projections suivantes.

Celles-ci extrapolent la tendance courante sur toute la période de projection, se contentant de l’infléchir très progressivement sans toutefois fixer de limite. Elles correspondent assez bien à l’évolution observée pour l’instant.

Les succès de la lutte contre la mortalité des personnes âgées

Si les projections ont longtemps sous-estimé les progrès de l’espérance de vie, c’est qu’elles n’ont pas anticipé la forte baisse de la mortalité des adultes et des personnes âgées. Il faut dire que les progrès dans ce domaine sont relativement récents, comme le montre l’évolution de l’espérance de vie à 60 ans sur la figure 4 ci-dessous.

Au milieu du XXe siècle, elle était encore proche de son niveau du XIXe siècle, notamment du côté masculin : un homme de 60 ans pouvait espérer vivre encore 13 à 14 ans. Ce n’est qu’à partir de la fin de la Deuxième Guerre mondiale qu’elle commence à augmenter chez les hommes, les progrès s’accélérant ensuite jusqu’à ce qu’elle atteigne 23,2 ans en 2017, soit 7,3 ans de plus qu’en 1967. La progression a commencé plus tôt chez les femmes, dès les premières décennies du XXe siècle, et elle s’est aussi accélérée à partir de la fin de la guerre jusqu’à 27,6 ans en 2017, soit 7,2 ans de plus qu’en 1967.

Évolution de l’espérance de vie des personnes âgées en France.
Gilles Pison (à partir des données de l’Insee et de Vallin et Meslé 2001), CC BY-NC-ND

La révolution cardiovasculaire

Au milieu du XXe siècle, les maladies infectieuses étaient encore la cause d’une partie importante des décès d’adultes et de personnes âgées, et leur recul a entraîné une augmentation sensible de l’espérance de vie à 60 ans. Mais, comme pour les enfants, la part de ces maladies dans la mortalité totale a beaucoup régressé et les gains à attendre de la poursuite de leur recul sont faibles.

Les maladies cardiovasculaires et les cancers sont désormais les principales causes de décès à ces âges, comme le montre la figure 5 ci-dessous. Et ce sont les succès rencontrés dans la lutte contre ces maladies qui ont permis à la mortalité des adultes et des personnes âgées de poursuivre sa baisse à partir des années 1970, et à l’espérance de vie de continuer à augmenter.

La mortalité due aux maladies du cœur et des vaisseaux a énormément diminué depuis un demi-siècle grâce à la « révolution cardiovasculaire » qu’ont constitué les progrès de la prévention et des traitements dans ce domaine. Quant à la mortalité par cancer, qui avait augmenté, elle régresse maintenant grâce aux diagnostics plus précoces et à la réduction des comportements à risques comme le tabagisme.

Évolution de la mortalité par causes de décès en France.
Gilles Pison (à partir des données de l’Inserm, Meslé 2006 et Breton et coll. 2017), CC BY-NC-ND

Les conditions d’une espérance de vie toujours en progrès

Le ralentissement des progrès de l’espérance de vie depuis une dizaine d’années est peut-être le signe que les retombées de la révolution cardiovasculaire sont en voie d’épuisement.

Et les progrès futurs pourraient dépendre de plus en plus de la lutte contre les cancers qui sont devenus la première cause de décès. Si celle-ci engrange les succès, les retombées en termes d’espérance de vie ont été moins spectaculaires jusqu’ici que celles liées à la révolution cardiovasculaire. Il faudrait que le recul de la mortalité liée aux cancers s’accélère dans les prochaines décennies si l’on veut que l’espérance de vie continue de progresser de 3 mois par an.

À plus long terme, comme pour les avancées liées à la lutte contre les infections, celles liées à la lutte contre les maladies cardiovasculaires et les cancers devraient s’épuiser un jour. De nouveaux terrains de lutte comme les maladies neurodégénératives (maladies d’Alzheimer, de Parkinson, etc.) et des innovations médicales et sociales pourraient alors prendre le relais et ouvrir une nouvelle phase de progrès sanitaire.

Ce qui pourrait non pas conduire à l’immortalité, vieux rêve inaccessible, mais remettre de nouveau à plus tard le calcul d’une limite à la progression de l’espérance de vie.

The Conversation

Gilles Pison ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Espérance de vie : peut-on gagner six heures par jour indéfiniment ? – https://theconversation.com/esperance-de-vie-peut-on-gagner-six-heures-par-jour-indefiniment-98188

Climat des affaires : les stratégies des entreprises pour protéger leurs données

Source: – By Philippe Dupuy, Professeur Associé au département Gestion, Droit et Finance, Grenoble École de Management (GEM)

Pour 43,1 % des entreprises, protéger les systèmes passe par la formation des salariés voire par l’embauche de spécialistes en cybersécurité.

Samuel Zeller/Unsplash, CC BY

Grenoble École de Management et l’association des Directeurs financiers et des contrôleurs de gestion (DFCG) recueillent chaque trimestre l’avis des responsables financiers français. Les résultats sont agrégés au niveau mondial par un réseau d’universités coordonnées par Duke University aux États-Unis. Pour le deuxième trimestre 2018, l’enquête s’est déroulée du 13 mai au 7 juin 2018.


La protection des données est devenue un enjeu majeur pour les entreprises depuis quelques années. Par exemple, 36,7 % des entreprises françaises déclarent que leurs systèmes informatiques ont déjà été attaqués par des pirates (hackers). En réponse, elles sont de plus en plus nombreuses à consacrer un budget significatif à leurs défenses. L’achat de logiciels reste la principale réponse pour 67 % des répondants européens, suivi par l’amélioration des procédures concernant les mots de passe, par exemple.

En revanche, pour 43,1 % des entreprises qui nous ont répondu, protéger les systèmes passe avant tout par la formation des salariés voire par l’embauche de spécialistes en cybersécurité (24,7 %). Ces spécialistes sont d’ailleurs parfois autorisés, par la direction, à « piéger » les employés afin de tester la robustesse du système (11,3 % des cas). Enfin, seules 6,2 % des entreprises déclarent ne pas avoir entrepris d’action afin de mieux protéger leurs données.

Aux États-Unis, le nombre d’entreprises qui avouent avoir subi des attaques est plus faible qu’en Europe. Il tombe à 20 % notamment parce que la question de la défense des données semble être mieux prise en compte. Mais ce chiffre doit être mis en regard de la perte de « réputation » à laquelle l’entreprise attaquée peut faire face en Amérique du Nord. De nombreuses entreprises américaines cacheraient leurs défaillances afin de protéger leur image.

La protection des données devrait rester clé pour la fonction finance dans les années à venir. Ainsi, 29,2 % des responsables financiers européens placent cette question parmi les trois plus importantes qu’ils auront à gérer dans un futur proche. Elle reste néanmoins derrière les problématiques liées à la gouvernance d’entreprise (35,4 %), les fusions et acquisitions (34,4 %) et l’évolution des réglementations (34,4 %).

Hausse des coûts de financement

La reprise des tensions inflationnistes à travers le monde a récemment conduit plusieurs banques centrales à durcir les conditions d’octroi de crédit, ce qui a eu comme conséquence mécanique une remontée des taux d’intérêt à long terme. Les entreprises voient donc actuellement leurs conditions de financement se détériorer.

Pour ce trimestre, nous avons cherché à estimer la sensibilité de la politique de financement des entreprises à la variation du niveau des taux d’intérêt telle que perçue par les responsables financiers. Le taux moyen auquel les entreprises se financent est aujourd’hui d’environ 2,95 % sur l’ensemble de notre échantillon européen. Les niveaux les plus bas sont observés en Allemagne (2,2 %) et les plus hauts en Grèce (6,0 %). Quelle que soit l’évolution future des taux, les entreprises européennes nous disent vouloir limiter leurs ratios d’endettement. Ainsi dans le cas d’une baisse supplémentaire des taux de financement d’environ un point (jusqu’à environ 2,0 %), les entreprises envisagent de baisser leurs ratios d’endettement d’un point de pourcentage également, pour le porter à environ 32,3 % en moyenne.

Le scénario central retenu par les responsables financiers est néanmoins celui d’une hausse modérée des taux d’intérêt qui s’établiraient à environ 3,4 % à l’horizon fin 2019. Dans ce contexte, les entreprises envisagent de réduire leurs ratios d’endettement de deux points de pourcentage. Enfin, dans un scénario de hausse élevée des taux, jusqu’à 4,5 %, la réduction estimée d’endettement serait d’environ quatre points de pourcentage. Au total, on peut estimer qu’une hausse d’environ 1 % des taux d’intérêt de long terme aurait pour conséquence une baisse d’environ 1 % du ratio d’endettement cible des entreprises.

La hausse du coût de financement pourrait avoir également un impact direct sur l’activité de fusion et acquisition (M&A) dans les pays européens. Ainsi, seulement un tiers des responsables financiers italiens s’attendent à une activité importante en M&A. À l’inverse, en Allemagne où les taux de financement sont les plus faibles du continent, les DAF (directeurs administratifs et financiers) sont 80 % à s’attendre à une hausse de l’activité en M&A. Les secteurs les plus concernés devraient être les secteurs de la banque et de l’assurance ainsi que celui des technologies. Au total, 41,9 % des responsables financiers s’attendent à une hausse des fusions et acquisitions dans l’année à venir (42,9 % en France).

Climat des affaires toujours favorable

En Europe, l’indicateur de climat des affaires reprend sa course en avant ce trimestre pour atteindre désormais 68,5 contre 67,0 au trimestre précédent. Cela fait désormais deux années consécutives que l’indicateur de climat des affaires enregistre une progression régulière, lui permettant de passer de 53 en mars 2016 aux niveaux observés aujourd’hui, compatibles avec une croissance élevée du PIB.

Il est aussi frappant de constater que cet enthousiasme économique concerne tous les principaux pays de la zone euro. Ainsi, la France affiche un optimisme de 67,5 et l’Italie de 65,4 alors même que le pays connaît une crise politique importante depuis les dernières élections. C’est en Allemagne que le climat des affaires semble le plus favorable (81,8) en forte hausse par rapport au trimestre précédent (72,3).

En revanche, le Royaume-Uni maintient sa position en queue de peloton affichant désormais un optimisme de seulement 57,3.

Aux États-Unis, le climat des affaires se stabilise à 71,1, contre 71,2 au trimestre précédent. Il reste favorable à une croissance soutenue de l’économie. Cependant, une majorité de responsables financiers américains s’attend désormais à une hausse significative des coûts de financement – notamment par la hausse des taux d’intérêt de long terme. Le contexte macro-économique pourrait alors devenir moins favorable au business avec des conséquences importantes en termes d’investissements et d’activité. Au-delà, le rythme des fusions et acquisitions, qui aujourd’hui soutient en partie les marchés d’actions, pourrait ralentir.

Enfin, la décision de l’administration Trump d’augmenter les tarifs douaniers notamment sur l’acier européen ne semble pas avoir eu d’impact particulier sur le moral des entreprises américaines. De même, ni l’opposition du G7, ni les avancées des négociations avec la Corée du Nord ne semblent jouer sur le climat des affaires nord-américain.

Dans le reste du monde : le climat des affaires s’affaiblit quelque peu en Amérique du Sud, en particulier au Brésil (54) et en Équateur (36). Il reste néanmoins favorable à une croissance élevée au Mexique (69) et au Pérou (61). En Asie, le climat moyen des affaires continue de baisser pour atteindre 60,3 contre 61 au trimestre précédent. La plupart des pays asiatiques affichent un climat des affaires proche de 60 : la Chine est à 58,8, le Japon également 58,8 et l’Inde 66. Seul Singapour avec 50 est en retrait sur le continent asiatique. Enfin, en Afrique, le climat des affaires a chuté brutalement dans plusieurs pays, en particulier au Nigeria (54 contre 62 au trimestre précédent) et en Afrique du Sud (51 contre 59 au trimestre précédent).


Prochaine enquête du 22 août au 7 septembre 2018. L’enquête Duke University–Grenoble École de Management mesure chaque trimestre depuis plus de 20 ans le climat des affaires tel que perçu par les responsables financiers des entreprises à travers le monde. L’enquête est courte (environ 10 questions). Elle recueille plus de 1 000 réponses anonymes d’entreprises de tous secteurs et de toutes tailles. C’est désormais la plus grande enquête de ce type dans le monde. Une analyse détaillée par pays peut être envoyée à chaque participant.

Les datavisualisations de cet article ont été réalisées par Diane Frances.

The Conversation

Philippe Dupuy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Climat des affaires : les stratégies des entreprises pour protéger leurs données – https://theconversation.com/climat-des-affaires-les-strategies-des-entreprises-pour-proteger-leurs-donnees-98541

Climat des affaires : la guerre des talents, une préoccupation mondiale

Source: – By Philippe Dupuy, Professeur Associé au département Gestion, Droit et Finance, Grenoble École de Management (GEM)

Le ralentissement économique n’a pas encore d’effets sur la dynamique de l’emploi. Pressmaster / Shutterstock

Cet article est tiré de la dernière enquête Duke University–Grenoble École de Management qui mesure chaque trimestre, depuis plus de 20 ans, le climat des affaires tel qu’il est perçu par les responsables financiers des entreprises à travers le monde. L’enquête recueille plus de 1 000 réponses anonymes d’entreprises de tous secteurs et de toutes tailles. C’est désormais la plus grande enquête de ce type dans le monde. Une analyse détaillée par pays peut être envoyée à chaque participant. Vous pouvez consulter les résultats complets de cette enquête.


La croissance observée à travers le monde depuis plusieurs trimestres a une conséquence importante sur le marché du travail : les entreprises rencontrent de plus en plus de difficultés à attirer et à conserver la main-d’œuvre nécessaire à leur activité. Ainsi, en Europe, 36,2 % des entreprises sont confrontées à un problème important de recrutement qu’elles perçoivent d’ailleurs de plus en plus comme un risque qui pèse sur leur bonne marche. Aux États-Unis, cette proportion atteint même 53,1 %, selon les derniers résultats de notre enquête trimestrielle sur le climat des affaires menée au niveau mondial.

Dans les mois à venir, l’Europe pourrait connaître un ralentissement conjoncturel qui, toutefois, ne devrait pas impacter dans l’immédiat la dynamique actuelle du marché de l’emploi. Comme il est généralement en décalage avec le cycle économique, les perspectives d’embauche restent encore aujourd’hui très élevées : la masse salariale devrait par exemple augmenter de 3,5 % en France et de 3,9 % aux États-Unis au cours du troisième trimestre 2018.

Politiques RH innovantes

Les tensions sur le marché du travail posent d’abord la question de la conservation du savoir-faire au sein de l’entreprise. Plus l’activité d’un pays ou d’un secteur est dynamique, plus la fréquence de renouvellement des collaborateurs, le turnover, est importante. Dans le secteur des technologies, il est désormais de 16 % en moyenne, contre environ 10 % en période de croissance économique plus faible. En comparaison, le secteur primaire (agriculture, pêche…), où l’emploi est plus stable, connaît un taux de rotation de seulement 4 %. De même, alors que l’Italie affiche un turnover moyen de 6 %, il est, en moyenne, proche de 10 % en France.

Face à ce phénomène, plus de la moitié des entreprises à travers le monde mettent en place des politiques de ressources humaines innovantes. Parmi les solutions : offrir un cadre de travail plus flexible, plus de jours de congé ou encore une meilleure couverture santé. Des politiques que l’on retrouve notamment dans les secteurs de la banque et du conseil.

À l’inverse, les grandes entreprises du secteur public ne semblent pas ressentir ce besoin puisqu’elles sont une majorité à déclarer ne pas avoir engagé de changement dans la politique RH pour attirer ou conserver plus de talents.

Tendance mondiale

L’adaptation des politiques RH est une tendance que l’on retrouve aujourd’hui un peu partout dans le monde. En Asie, 33 % des entreprises essaient d’adopter des horaires flexibles. Au Japon, 39 % d’entre elles cherchent à améliorer la qualité de vie de leurs salariés. C’est aussi le cas en Amérique latine, où les tensions sur le marché du travail sont néanmoins plus faibles.

Enfin, nous avons demandé aux entreprises si la hausse des tarifs douaniers pouvait avoir des conséquences sur leurs volumes d’embauche. Le résultat est frappant : 20 % des entreprises européennes l’envisagent effectivement. Dans certains secteurs, comme la vente au détail, les entreprises anticipent un impact négatif sur leur recrutement. Dans des secteurs comme la santé ou le conseil, c’est au contraire un effet positif qui est attendu. En Asie, épicentre du commerce international, pas moins de 56 % des entreprises estiment que le contexte international va modifier leur politique de recrutement. Comme en Europe, ce chiffre se divise à parts égales entre les entreprises qui anticipent un impact négatif et celles qui s’attendent à effet positif.


Retrouvez ci-dessous l’indicateur du climat des affaires de la dernière enquête de la Duke University–Grenoble École de Management pour le troisième trimestre 2018.

Notre indicateur de climat des affaires enregistre une baisse marquée en Europe qui le porte à 57,9 contre 68,5 au trimestre précédent sur une échelle de zéro à cent. C’est en France (60,4 contre 67,5) et en Allemagne (66,7 contre 81,8) que la chute est la plus sévère. Ces niveaux de confiance restent néanmoins compatibles avec une croissance toujours soutenue de l’activité.

À l’inverse, Le Royaume-Uni (48 ce trimestre), l’Espagne (50 ce trimestre) et, dans une moindre mesure, l’Italie (52 ce trimestre) connaissent une baisse de confiance qui pourrait indiquer un ralentissement plus marqué de la croissance dans les trimestres à venir.

Les signaux de ralentissement viennent de l’Europe

Aux États-Unis, le climat des affaires se maintient à des niveaux encore élevés : 70,0 aujourd’hui contre 71,1 au deuxième trimestre. Au cours des cycles précédents, les premiers signes du ralentissement économique sont généralement venus des États-Unis. C’était par exemple le cas lors du décrochage conjoncturel de 2007-2008 (voir graphique). Il est paradoxal de constater que, cette fois-ci, les premiers signes de ralentissement, certes encore modérés, viennent avant tout du continent européen. Pour les trimestres à venir, nous serons donc particulièrement attentifs à l’évolution de l’écart de confiance entre les États-Unis et l’Europe comme indicateur avancé de la croissance.

Dans le reste du monde, l’Amérique latine affiche un niveau moyen de climat des affaires de 56. Ce niveau masque néanmoins de grandes disparités entre le Mexique (70), le Chili (64) et le Pérou (62) d’un côté, et des pays comme le Brésil (52) ou encore l’Équateur (37), englués dans des difficultés politiques récurrentes.

En Asie, l’indicateur se stabilise autour de 60, un niveau largement inchangé par rapport au trimestre précédent. C’est en Inde que nous observons le climat des affaires le plus favorable à la croissance (77). À l’autre bout de l’échelle, le Vietnam affiche un niveau très faible de 40. Nous notons néanmoins que la plupart des pays asiatiques conservent un climat des affaires au-dessus de 50 : 55 au Japon, 60 en Chine, ou encore 72 en Malaisie. Enfin, en Afrique, les indicateurs de climat des affaires se sont fortement dégradés pour atteindre 38 en Afrique du Sud et 48 au Nigeria.

The Conversation

Philippe Dupuy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Climat des affaires : la guerre des talents, une préoccupation mondiale – https://theconversation.com/climat-des-affaires-la-guerre-des-talents-une-preoccupation-mondiale-103453

Enseignement supérieur : quel est le coût de la réussite en premier cycle ?

Source: – By Aurélien Lamy, Maître de conférences en Sciences de gestion, Université de Caen Normandie

Au-delà des chiffres : quelle efficacité budgétaire ? Egmo2017/VisualHunt, CC BY-NC

Les moyens consacrés à l’enseignement supérieur sont souvent résumés en un chiffre, celui de la dépense moyenne d’éducation par étudiant. Pour 2014 par exemple, elle s’élève à 11 834 euros. Ce chiffre ne dit rien, cependant, des différences de dépense selon les filières de formation. Loin d’être uniforme, la dépense par étudiant varie ainsi de 10 576 euros pour un étudiant à l’université à 15 052 euros pour un étudiant de classes préparatoires aux grandes écoles (CPGE) :

Si cette dépense différenciée entre les formations pose la question des inégalités de traitement entre les étudiants, elle soulève également celle de son efficacité.

La réussite, mesure de la performance des formations

Une formation de premier cycle contribue à la réalisation de plusieurs objectifs simultanément (acquisition de connaissances, certification de compétences, formation du citoyen, etc.). Néanmoins, son objectif premier est bien la réussite des étudiants, qui doit garantir l’atteinte des autres objectifs de la formation.

Dans le cas des diplômes (licence, DUT et BTS), la réussite peut facilement être mesurée par le taux d’obtention du diplôme. Le nombre d’inscriptions étant normalement limité à 3 années en DUT et en BTS, et à 5 années en licence, nous avons pris en compte le taux d’obtention du diplôme en 2 ou 3 ans pour le DUT et le BTS, et en 3, 4 ou 5 ans pour la licence.

La réussite en CPGE, en revanche, ne peut être mesurée par le taux de réussite au diplôme : d’abord parce qu’aucun diplôme n’est délivré à la fin de la formation, ensuite parce que, comme leur nom l’indique, elles ont pour objectif de préparer les étudiants à intégrer les grandes écoles et les écoles d’ingénieurs. Dès lors, la réussite peut être mesurée par le taux d’intégration dans les écoles de niveau bac+5 après 2 ou 3 ans, puisque comme pour le DUT ou le BTS, le nombre d’inscriptions est normalement limité à 3 années. Les données étant communiquées par filière (scientifique, économique, littéraire), nous avons réalisé une moyenne pondérée en fonction de la proportion d’étudiants inscrits dans chacune des filières.

Quelle que soit la formation de premier cycle, les taux de réussite retenus n’intègrent pas les réorientations, bien que, dans de nombreux cas, elles débouchent pourtant sur une réussite de l’étudiant. En effet, pour les formations quittées, il s’agit bien d’un échec, puisque leur objectif premier n’est pas atteint, et que rien n’indique qu’une intégration directe dans la nouvelle formation n’aurait pas permis à l’étudiant d’atteindre le même résultat.

Sur la base du suivi de cohorte des nouveaux inscrits en 2008 (dernier disponible), nous avons obtenu les taux de réussite suivants :

Le coût de la réussite

L’évolution de la dépense moyenne par étudiant confirme l’existence, depuis de nombreuses années, d’une différence notable de coût entre les différentes formations. Si la dépense par étudiant en BTS ou en CPGE est directement exploitable, la dépense par étudiant à l’université est en revanche plus problématique, car elle agrège des étudiants inscrits dans différentes formations. En particulier, depuis l’entrée en vigueur de la LOLF en 2006, il n’est plus possible de repérer les dépenses des IUT, désormais intégrées à celles des universités.

Puisque la dépense par étudiant en IUT est supérieure d’environ 20 % à la dépense par étudiant à l’université, nous avons pu, en prenant en compte la part des effectifs inscrits en DUT, distinguer la dépense par étudiant en DUT de la dépense par étudiant dans les autres formations universitaires. En revanche, faute d’information sur la répartition de la dépense entre les différentes formations universitaires (notamment entre licence et master), nous avons conservé ce dernier chiffre comme estimation de la dépense par étudiant en licence.

Par ailleurs, nous avons retenu dans nos calculs la dépense moyenne par étudiant en 2014. En effet, cette année est à la fois la dernière pour laquelle les informations sont disponibles et celle de la mise en œuvre d’un changement dans le mode de calcul réalisé pour permettre une meilleure évaluation de la dépense à l’université.

Afin d’évaluer le coût de la réussite, nous avons calculé la dépense moyenne par année réussie, c’est-à-dire le rapport de la dépense totale réalisée pour l’ensemble des étudiants ayant intégré en même temps la première année de la formation, sur le nombre total d’années réussies dans la formation (nombre d’années validées ayant conduit à l’obtention du diplôme ou à l’intégration d’une école de niveau bac+5).

Calculer la dépense totale réalisée pour l’ensemble d’une cohorte nécessiterait de pouvoir retracer précisément année après année le parcours réalisé dans la formation. Le détail du parcours des nouveaux entrants n’étant pas disponible pour une même cohorte et pour chacune des formations de premier cycle, nous avons utilisé les taux de réussite en faisant l’hypothèse que les étudiants n’ayant pas réussi ont quitté la formation au bout d’une année. Cette méthode conduit à minorer légèrement la dépense totale (en particulier pour la licence où certains étudiants sont inscrits de nombreuses années sans jamais parvenir à valider leur diplôme), mais elle donne néanmoins une approximation satisfaisante de la dépense totale.

En reprenant l’ensemble des résultats précédents, nous avons obtenu les niveaux de dépense par diplôme suivants :

L’efficacité de la dépense d’éducation

La principale évolution entre la dépense par étudiant et la dépense par année réussie concerne la licence. En effet, si elle présente une dépense plus faible que les autres formations de premier cycle, la licence affiche aussi un taux de réussite bien plus faible avec 47 % au bout de 5 ans. La dépense par année réussie s’élève ainsi à 16 332 euros, un montant 57 % plus élevé que celui de la dépense par étudiant. Le modèle de la licence, qui conjugue un accès de droit pour tous les bacheliers (non remis en cause par la loi ORE) et une faible dépense par étudiant, présente ainsi une efficacité globale plutôt moyenne.

Les trois autres formations de 1er cycle (DUT, BTS et CPGE) fonctionnent sur un modèle différent de celui de la licence, puisque les étudiants sont sélectionnés à l’entrée et bénéficient d’une dépense par étudiant plus importante. Ce modèle conduit à une réussite nettement plus importante avec des taux compris entre 69 % et 81 % au bout de 3 ans. La dépense par année réussie est ainsi seulement 19 % à 33 % plus élevée que la dépense par étudiant correspondante.

Si elle ne bouleverse pas le classement de ces trois formations, la prise en compte de la réussite tend cependant à augmenter les écarts :

  • Avec une dépense par étudiant relativement limitée et le taux de réussite le plus élevé, le DUT affiche une dépense par année réussie de 14 893 euros, plus faible que dans les autres formations de premier cycle, et donc signe d’une efficacité plus forte.

  • Le BTS affiche une dépense par année réussie de 17 583 euros, légèrement supérieure à celle de la licence, signe d’une efficacité plutôt moyenne.

  • Finalement, avec une dépense par étudiant plus élevée et un taux de réussite compris entre celui du BTS et celui du DUT, les CPGE affichent une dépense par année réussie de 20 016 euros, nettement supérieure à celle des autres formations de premier cycle, signe d’une plus faible efficacité.

Cette évaluation de l’efficacité des formations doit néanmoins être étudiée au regard de la population étudiante accueillie et de sa capacité à réussir des études supérieures. Les taux de réussite en licence illustrent les différences de réussite selon le type de baccalauréat et la mention obtenue :

Ainsi, les bacheliers généraux réussissent mieux que les bacheliers technologiques, qui réussissent eux-mêmes mieux que les bacheliers professionnels. De même, les étudiants ayant obtenu les meilleures mentions au baccalauréat réussissent mieux dans les études supérieures. Ce constat peut être étendu aux autres formations de premier cycle.

La population étudiante accueillie diffère significativement d’une formation de premier cycle à l’autre :

La prise en compte de la population étudiante accueillie au sein des différentes formations sélectives de premier cycle (DUT, BTS et CPGE) permet alors d’améliorer la compréhension de leur efficacité :

  • Le DUT accueille près d’un quart de bacheliers technologiques, qui réussissent dans 64,6 % des cas. L’efficacité du DUT, déjà supérieure à celle des autres diplômes de premier cycle, apparaît ainsi d’autant plus forte.

  • Le BTS accueille une proportion importante de bacheliers technologiques et de bacheliers professionnels. Si la dépense par année réussie est plus importante, elle contribue à faire réussir ces étudiants (77,4 % et 60,7 % respectivement). L’efficacité des BTS apparaît ainsi finalement plutôt correcte.

  • Les CPGE accueillent une population étudiante très majoritairement composée de bacheliers généraux ayant reçu de meilleures mentions au baccalauréat. L’efficacité des CPGE, déjà inférieure à celle des autres formations de premier cycle, apparaît ainsi particulièrement faible.

Dans une perspective plus globale, il ressort que la dépense par année réussie est plus élevée pour les formations en lycée (BTS et CPGE) que pour les formations de premier cycle à l’université (licence et DUT). Sachant que la dépense par étudiant à l’université intègre l’ensemble des coûts de la recherche, l’intégration des seuls moyens consacrés à la formation montrerait une efficacité encore plus marquée en faveur des formations universitaires que sont le DUT et la licence.


Les datavisualisations de cet article ont été réalisées par Diane Frances.

The Conversation

Aurélien Lamy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Enseignement supérieur : quel est le coût de la réussite en premier cycle ? – https://theconversation.com/enseignement-superieur-quel-est-le-cout-de-la-reussite-en-premier-cycle-93990

Existe-t-il une méthode scientifique pour éplucher parfaitement un œuf dur ?

Source: – By Paulomi (Polly) Burey, Professor in Food Science, University of Southern Queensland

Pourquoi certains œufs s’écalent facilement et d’autres non ? Une histoire de pH, de température et de chambre à air, répondent les scientifiques qui se sont penchés sur la question.


Nous sommes tous passés par là : essayer d’écaler un œuf dur, mais finir par le réduire en miettes tant la coquille s’accroche obstinément au blanc. Et ça peut être pire encore, quand l’œuf se retrouve couvert de petits morceaux de membrane.

Internet regorge d’astuces censées vous éviter ce désagrément mais plusieurs causes très différentes peuvent expliquer qu’un œuf soit difficile à « éplucher ». Heureusement, la science offre des stratégies pour contourner le problème.

Facteurs influençant la facilité d’écalage d’un œuf

Les œufs se composent d’une coquille dure et poreuse, d’une membrane coquillière externe et d’une membrane coquillière interne, du blanc d’œuf (ou albumen), et d’un jaune enveloppé d’une membrane. On trouve également une chambre à air entre les deux membranes, juste sous la coquille.

Visuel de coupe d’un œuf

Coquille calcaire ; 2. Membrane coquillière externe ; 3. Membrane coquillière interne ; 4. Chalaze ; 5. Blanc d’œuf (ou albumen) externe (fluide) ; 6. Blanc d’œuf (ou albumen) intermédiaire (visqueux) ; 7. Peau du jaune d’œuf ; 8. Jaune d’œuf (ou vitellus) formé ; 9. Point blanc puis embryon ; 10. Jaune d’œuf (ou vitellus) jaune ;11. Jaune d’œuf (ou vitellus) blanc ; 12. Blanc d’œuf (ou albumen) interne (fluide) ; 13. Chalaze ; 14. Chambre à air ; 15. Cuticule.

Horst Frank/Wikicommon, CC BY-NC

Dans les années 1960 et 1970, de nombreuses recherches ont été menées sur les facteurs influençant la facilité d’écalage des œufs après cuisson. L’un de ces facteurs est le pH du blanc d’œuf. Une étude des années 1960 a montré qu’un pH compris entre 8,7 et 8,9 — donc assez alcalin — facilitait l’épluchage des œufs.

La température de conservation joue également un rôle. Une étude de 1963 a révélé qu’un stockage à environ 22 °C donnait de meilleurs résultats en matière d’épluchage qu’un stockage à 13 °C, ou à des températures de réfrigérateur de 3 à 5 °C.

Il faut bien sûr garder à l’esprit qu’un stockage à température ambiante élevée augmente le risque de détérioration (NDLR : L’Anses recommande de conserver les œufs toujours à la même température afin d’éviter le phénomène de condensation d’eau à leur surface).

Les recherches ont également montré qu’un temps de stockage plus long avant cuisson — autrement dit des œufs moins frais — améliore la facilité d’épluchage.

Une boîte d’œufs sur une table
Plus les œufs sont vieux, plus ils pourraient être faciles à écaler.
Caroline Attwood/Unsplash

Conseil n°1 : éviter les œufs frais

Le fait que les œufs frais soient plus difficiles à éplucher est relativement bien connu. D’après les facteurs évoqués plus haut, plusieurs explications permettent de comprendre ce phénomène.

D’abord, dans un œuf frais, la chambre à air est encore très petite. En vieillissant, l’œuf perd lentement de l’humidité à travers sa coquille poreuse, ce qui agrandit la chambre à air à mesure que le reste du contenu se rétracte. Une chambre à air plus grande facilite le démarrage de l’épluchage.

Par ailleurs, même si le blanc d’œuf est déjà relativement alcalin au départ, son pH augmente encore avec le temps, ce qui contribue aussi à rendre l’écalage plus facile.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Conseil n°2 : la température de l’eau

Plusieurs experts de la cuisson des œufs estiment que commencer avec de l’eau bouillante puis la ramener à un frémissement avant d’y déposer délicatement les œufs donne de meilleurs résultats. Il est alors recommandé d’utiliser des œufs à température ambiante pour éviter qu’ils ne se fissurent à cause d’un choc thermique. L’idée derrière cette méthode est qu’une exposition immédiate à une température élevée facilite la séparation entre la membrane, la coquille et le blanc d’œuf.

En outre, un démarrage à chaud favorise la dénaturation des protéines du blanc d’œuf (c’est-à-dire leur changement de structure sous l’effet de la chaleur), ce qui les incite à se lier entre elles plutôt qu’à adhérer à la membrane.

Après avoir fait bouillir les œufs pendant le temps désiré (généralement 3 à 5 minutes pour un jaune coulant, 6 à 7 minutes pour un jaune crémeux, et 12 à 15 minutes pour un œuf dur), on peut les plonger dans de l’eau glacée. Cela aide le blanc à se rétracter légèrement, facilitant ainsi l’épluchage.

Des œufs dans de l’eau bouillante dans une casserole sur une cuisinière à gaz
Commencer la cuisson dans de l’eau bouillante peut faciliter l’épluchage, surtout si l’on plonge les œufs dans de l’eau glacée ensuite.
Max4ᵉ Photo/Shutterstock

Conseil n°3 (pas obligatoire) : ajouter des ingrédients à l’eau

Parmi les autres astuces suggérées pour faciliter l’écalage, on trouve l’ajout de sel dans l’eau bouillante, mais les résultats sont à nuancer. Une étude a montré que cela pouvait effectivement améliorer l’épluchage, mais que cet effet disparaissait après une période de stockage prolongée des œufs.

L’ajout d’acides et de bases a également démontré une certaine efficacité pour aider à retirer la coquille. Un brevet s’appuyant sur cette idée propose ainsi d’utiliser des substances agressives dans le but de dissoudre la coquille. Mais partant de ce principe, vous pourriez simplement tenter d’ajouter à l’eau de cuisson du bicarbonate de soude ou du vinaigre. En théorie, ce dernier devrait attaquer le carbonate de calcium de la coquille, facilitant ainsi son retrait. Quant au bicarbonate, étant alcalin, il devrait aider à détacher la membrane de la coquille.

Bonus : quelques méthodes de cuisson alternatives

Il existe plusieurs façons de cuire des œufs durs en dehors de l’ébullition classique. Parmi elles : la cuisson vapeur sous pression, la cuisson à l’air chaud (avec un air fryer), et même le micro-ondes.

Dans le cas de la cuisson vapeur, certains avancent que la vapeur d’eau traversant la coquille aiderait à décoller la membrane du blanc d’œuf, ce qui rendrait l’épluchage beaucoup plus facile.

Des recherches récentes ont porté sur la cuisson à l’air chaud d’autres aliments, mais on ne sait pas encore précisément comment ce mode de cuisson pourrait influencer la coquille et la facilité d’écalage des œufs.

Enfin, une fois vos œufs épluchés, évitez de jeter les coquilles à la poubelle. Elles peuvent servir à de nombreux usages : compost, répulsif naturel contre les limaces et escargots au jardin, petits pots biodégradables pour semis… ou même contribuer à des applications bien plus poussées, notamment dans la recherche sur le cancer.

The Conversation

Paulomi (Polly) Burey a reçu des financements du ministère australien de l’Éducation, qui a soutenu les recherches sur les coquilles d’œufs mentionnées à la fin de cet article.

ref. Existe-t-il une méthode scientifique pour éplucher parfaitement un œuf dur ? – https://theconversation.com/existe-t-il-une-methode-scientifique-pour-eplucher-parfaitement-un-oeuf-dur-255520

Qu’est-ce que l’enrichissement de l’uranium et comment sert-il à fabriquer des bombes nucléaires ?

Source: – By Kaitlin Cook, DECRA Fellow, Department of Nuclear Physics and Accelerator Applications, Australian National University

Quand on extrait de l’uranium du sol, il est composé à 99,27 % d’uranium-238. RHJPhtotos/Shutterstock

L’enrichissement de l’uranium est au cœur des tensions autour du programme nucléaire iranien. Cette technologie, indispensable pour produire de l’électricité, peut aussi permettre de fabriquer des armes atomiques si elle atteint des niveaux de concentration élevés.


En fin de semaine dernière, Israël a ciblé trois des principales installations nucléaires de l’Iran – Natanz, Ispahan et Fordo – tuant plusieurs scientifiques nucléaires iraniens. Ces sites sont fortement fortifiés et en grande partie souterrains, et les rapports divergent quant aux dégâts réellement causés.

Natanz et Fordo sont les centres d’enrichissement de l’uranium en Iran, tandis qu’Ispahan fournit les matières premières. Toute détérioration de ces installations pourrait donc limiter la capacité de l’Iran à produire des armes nucléaires. Mais qu’est-ce que l’enrichissement de l’uranium, et pourquoi cela suscite-t-il des inquiétudes ?

Pour comprendre ce que signifie « enrichir » de l’uranium, il faut d’abord connaître un peu les isotopes de l’uranium et le principe de la fission nucléaire.

Qu’est-ce qu’un isotope ?

Toute matière est composée d’atomes, eux-mêmes constitués de protons, de neutrons et d’électrons. Le nombre de protons détermine les propriétés chimiques d’un atome et définit ainsi les différents éléments chimiques.

Les atomes comportent autant de protons que d’électrons. L’uranium, par exemple, possède 92 protons, tandis que le carbone en a six. Toutefois, un même élément peut présenter un nombre variable de neutrons, formant ainsi ce qu’on appelle des isotopes.

Cette différence importe peu dans les réactions chimiques, mais elle a un impact majeur dans les réactions nucléaires.

La différence entre l’uranium-238 et l’uranium-235

Quand on extrait de l’uranium du sol, il est constitué à 99,27 % d’uranium-238 (92 protons et 146 neutrons). Seul 0,72 % correspond à l’uranium-235, avec 92 protons et 143 neutrons (le

0,01 % restant correspond à un autre isotope, qui ne nous intéresse pas ici).

Pour les réacteurs nucléaires ou les armes, il faut modifier ces proportions isotopiques. Car parmi les deux principaux isotopes, seul l’uranium-235 peut soutenir une réaction en chaîne de fission nucléaire : un neutron provoque la fission d’un atome, libérant de l’énergie et d’autres neutrons, qui provoquent à leur tour d’autres fissions, et ainsi de suite.

Cette réaction en chaîne libère une quantité d’énergie énorme. Dans une arme nucléaire, cette réaction doit avoir lieu en une fraction de seconde pour provoquer une explosion. Tandis que dans une centrale nucléaire civile, cette réaction est contrôlée.

Aujourd’hui, les centrales produisent environ 9 % de l’électricité mondiale. Les réactions nucléaires ont aussi une importance vitale dans le domaine médical, via la production d’isotopes utilisés pour le diagnostic et le traitement de diverses maladies.

Qu’est-ce que l’enrichissement de l’uranium ?

« Enrichir » de l’uranium consiste à augmenter la proportion d’uranium-235 dans l’élément naturel, en le séparant progressivement de l’uranium-238.

Il existe plusieurs techniques pour cela (certaines récemment développées en Australie), mais l’enrichissement commercial est actuellement réalisé via centrifugation, notamment dans les installations iraniennes.

Les centrifugeuses exploitent le fait que l’uranium-238 est environ 1 % plus lourd que l’uranium-235. Elles prennent l’uranium sous forme gazeuse et le font tourner à des vitesses vertigineuses, entre 50 000 et 70 000 tours par minute, les parois extérieures atteignant une vitesse de 400 à 500 mètres par seconde. C’est un peu comme une essoreuse à salade : l’eau (ici, l’uranium-238 plus lourd) est projetée vers l’extérieur, tandis que les feuilles (l’uranium-235 plus léger) restent plus au centre. Ce procédé n’est que partiellement efficace, donc il faut répéter l’opération des centaines de fois pour augmenter progressivement la concentration d’uranium-235.

La plupart des réacteurs civils fonctionnent avec de l’uranium faiblement enrichi, entre 3 % et 5 % d’uranium-235, ce qui suffit à entretenir une réaction en chaîne et produire de l’électricité.

Quel niveau d’enrichissement est nécessaire pour une arme nucléaire ?

Pour obtenir une réaction explosive, il faut une concentration bien plus élevée d’uranium-235 que dans les réacteurs civils. Techniquement, il est possible de fabriquer une arme avec de l’uranium enrichi à 20 % (on parle alors d’uranium hautement enrichi), mais plus le taux est élevé, plus l’arme peut être compacte et légère. Les États disposant de l’arme nucléaire utilisent généralement de l’uranium enrichi à environ 90 %, dit « de qualité militaire ».

Selon l’Agence internationale de l’énergie atomique (AIEA), l’Iran a enrichi d’importantes quantités d’uranium à 60 %. Or, il est plus facile de passer de 60 % à 90 % que de passer de 0,7 % à 60 %, car il reste alors moins d’uranium-238 à éliminer.

C’est ce qui rend la situation iranienne particulièrement préoccupante pour ceux qui redoutent que le pays produise des armes nucléaires. Et c’est pour cela que la technologie des centrifugeuses utilisée pour l’enrichissement est gardée secrète. D’autant que les mêmes centrifugeuses peuvent servir à la fois à fabriquer du combustible civil et à produire de l’uranium de qualité militaire.

Des inspecteurs de l’AIEA surveillent les installations nucléaires dans le monde entier pour vérifier le respect du traité mondial de non-prolifération nucléaire. Bien que l’Iran affirme n’enrichir l’uranium que pour des fins pacifiques, l’AIEA a estimé la semaine dernière que l’Iran avait violé ses engagements au titre de ce traité.

The Conversation

Kaitlin Cook reçoit des financements de l’Australian Research Council (Conseil australien de la recherche).

ref. Qu’est-ce que l’enrichissement de l’uranium et comment sert-il à fabriquer des bombes nucléaires ? – https://theconversation.com/quest-ce-que-lenrichissement-de-luranium-et-comment-sert-il-a-fabriquer-des-bombes-nucleaires-259173

Combien de temps l’humanité survivrait-elle si l’on arrêtait de faire des enfants ?

Source: – By Michael A. Little, Distinguished Professor Emeritus of Anthropology, Binghamton University, State University of New York

Pas d’inquiétude à ce stade : la population continue de croître.
Sean Gallup/Getty Images

Suffit-il de calculer l’espérance de vie maximale d’un humain pour deviner combien de temps mettrait l’humanité à disparaître si l’on arrêtait de se reproduire ? Pas si simple répond l’anthropologue américain Michael A. Little dans cet article à destination des plus jeunes.


Très peu de personnes vivent au-delà d’un siècle. Ainsi, si plus personne n’avait d’enfants, il ne resterait probablement plus d’humains sur Terre dans 100 ans. Mais avant cela, la population commencerait à diminuer, à mesure que les personnes âgées mourraient sans qu’aucune nouvelle naissance ne vienne les remplacer. Même si toutes les naissances cessaient soudainement, ce déclin serait au départ progressif.

Un effondrement des sociétés

Mais peu à peu, il n’y aurait plus assez de jeunes pour assurer les tâches essentielles, ce qui provoquerait un effondrement rapide des sociétés à travers le monde. Certains de ces bouleversements mettraient à mal notre capacité à produire de la nourriture, à fournir des soins de santé et à accomplir tout ce dont dépend notre quotidien. La nourriture se ferait rare, même s’il y avait moins de bouches à nourrir.

En tant que professeur d’anthropologie ayant consacré ma carrière à l’étude des comportements humains, de la biologie et des cultures, je reconnais volontiers que ce scénario n’aurait rien de réjouissant. À terme, la civilisation s’effondrerait. Il est probable qu’il ne resterait plus grand monde d’ici 70 ou 80 ans, plutôt que 100, en raison de la pénurie de nourriture, d’eau potable, de médicaments et de tout ce qui est aujourd’hui facilement accessible et indispensable à la survie.

L’élément déclencheur : une catastrophe mondiale

Il faut bien reconnaître qu’un arrêt brutal des naissances est hautement improbable, sauf en cas de catastrophe mondiale. Un scénario possible, exploré par l’écrivain Kurt Vonnegut dans son roman Galápagos, serait celui d’une maladie hautement contagieuse rendant infertiles toutes les personnes en âge de procréer.

Autre scénario : une guerre nucléaire dont personne ne sortirait vivant – un thème traité dans de nombreux films et livres effrayants. Beaucoup de ces œuvres de science-fiction mettent en scène des voyages dans l’espace. D’autres tentent d’imaginer un futur terrestre, moins fantaisiste, où la reproduction devient difficile, entraînant un désespoir collectif et la perte de liberté pour celles et ceux encore capables d’avoir des enfants.

Deux de mes livres préférés sur ce thème sont La Servante écarlate de l’autrice canadienne Margaret Atwood, et Les Fils de l’homme de l’écrivaine britannique P.D. James. Ce sont des récits dystopiques marqués par la souffrance humaine et le désordre. Tous deux ont d’ailleurs été adaptés en séries télévisées ou en films.

Dans les années 1960 et 1970, beaucoup s’inquiétaient au contraire d’une surpopulation mondiale, synonyme d’autres types de catastrophes. Ces craintes ont elles aussi nourri de nombreuses œuvres dystopiques, au cinéma comme en littérature.

Un exemple : la série américaine « The Last Man on Earth », une comédie postapocalyptique qui imagine ce qui pourrait se passer après qu’un virus mortel ait décimé la majeure partie de l’humanité.

The Last Man on Earth est une série télévisée américaine, à la fois postapocalyptique et comique, qui imagine ce qui pourrait se passer après qu’un virus mortel ait anéanti la majorité de la population mondiale.

En route vers les 10 milliards d’habitants

La population mondiale continue résolument de croître, même si le rythme de cette croissance a ralenti. Les experts qui étudient les dynamiques démographiques estiment que le nombre total d’habitants atteindra un pic de 10 milliards dans les années 2080, contre 8 milliards aujourd’hui et 4 milliards en 1974.

La population des États-Unis s’élève actuellement à 342 millions, soit environ 200 millions de plus qu’au moment de ma naissance dans les années 1930. C’est une population importante, mais ces chiffres pourraient progressivement diminuer, aux États-Unis comme ailleurs, si le nombre de décès dépasse celui des naissances.

En 2024, environ 3,6 millions de bébés sont nés aux États-Unis, contre 4,1 millions en 2004. Dans le même temps, environ 3,3 millions de personnes sont décédées en 2022, contre 2,4 millions vingt ans plus tôt.

À mesure que ces tendances évoluent, l’un des enjeux essentiels sera de maintenir un équilibre viable entre jeunes et personnes âgées. En effet, ce sont souvent les jeunes qui font tourner la société : ils mettent en œuvre les idées nouvelles et produisent les biens dont nous dépendons.

Par ailleurs, de nombreuses personnes âgées ont besoin d’aide pour les gestes du quotidien, comme préparer à manger ou s’habiller. Et un grand nombre d’emplois restent plus adaptés aux moins de 65 ans qu’à ceux ayant atteint l’âge habituel de la retraite (plus tardif aux États-Unis).

Taux de natalité en baisse

Dans de nombreux pays, les femmes ont aujourd’hui moins d’enfants au cours de leur vie fertile qu’autrefois. Cette baisse est particulièrement marquée dans certains pays comme l’Inde ou la Corée du Sud.

Le recul des naissances observé actuellement s’explique en grande partie par le choix de nombreuses personnes de ne pas avoir d’enfants, ou d’en avoir moins que leurs parents. Ce type de déclin démographique peut rester gérable grâce à l’immigration en provenance d’autres pays, mais des préoccupations culturelles et politiques freinent souvent cette solution.

Parallèlement, de plus en plus d’hommes rencontrent des problèmes de fertilité, ce qui rend leur capacité à avoir des enfants plus incertaine. Si cette tendance s’aggrave, elle pourrait accélérer fortement le déclin de la population.

La disparition des Néandertaliens

Notre espèce, Homo sapiens, existe depuis au moins 200 000 ans. C’est une très longue période, mais comme tous les êtres vivants sur Terre, nous sommes exposés au risque d’extinction.

Prenons l’exemple des Néandertaliens, proches parents d’Homo sapiens. Ils sont apparus il y a au moins 400 000 ans. Nos ancêtres humains modernes ont cohabité un temps avec eux, mais les Néandertaliens ont progressivement décliné jusqu’à disparaître il y a environ 40 000 ans.

Certaines recherches suggèrent que les humains modernes se sont montrés plus efficaces que les Néandertaliens pour assurer leur subsistance et se reproduire. Homo sapiens aurait ainsi eu plus d’enfants, ce qui a favorisé sa survie.

Si notre espèce venait à disparaître, cela pourrait ouvrir la voie à d’autres animaux pour prospérer sur Terre. Mais ce serait aussi une immense perte, car toute la richesse des réalisations humaines – dans les arts, les sciences, la culture – serait anéantie.

À mon sens, nous devons prendre certaines mesures pour assurer notre avenir sur cette planète. Cela passe par la lutte contre le changement climatique, la prévention des conflits armés, mais aussi par une prise de conscience de l’importance de préserver la diversité des espèces animales et végétales, qui est essentielle à l’équilibre de la vie sur Terre, y compris pour notre propre survie.

The Conversation

Michael A. Little ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Combien de temps l’humanité survivrait-elle si l’on arrêtait de faire des enfants ? – https://theconversation.com/combien-de-temps-lhumanite-survivrait-elle-si-lon-arretait-de-faire-des-enfants-258709

Camille Flammarion, l’astronome qui imaginait Mars grâce à la science-fiction

Source: – By Matthew Shindell, Curator, Planetary Science and Exploration, Smithsonian Institution

À travers son œuvre, Camille Flammarion imaginait ce qui pouvait exister au-delà de la Terre dans l’Univers. Three Lions/Hulton Archive/Getty Images

Au croisement de la science et de l’imagination, l’astronome Camille Flammarion a utilisé cartes, romans et rêveries pour faire de Mars un miroir des aspirations humaines et un horizon possible pour l’avenir.


À l’heure de l’exploration robotique ambitieuse de Mars, et alors qu’une mission habitée vers la planète rouge semble de plus en plus probable, il est difficile d’imaginer qu’elle ait autrefois été un monde mystérieux, et inaccessible. Avant l’invention de la fusée, les astronomes qui souhaitaient explorer Mars au-delà de ce que leur permettait le télescope devaient recourir à leur imagination.

En tant qu’historien de l’espace et auteur du livre For the Love of Mars : A Human History of the Red Planet, je m’efforce de comprendre comment, à différentes époques et en divers endroits, les humains ont imaginé Mars.

Les premières cartes de Mars

La seconde moitié du XIXe siècle est une période particulièrement fascinante pour cela. À ce moment-là, Mars semblait prêt à livrer une partie de ses mystères. Les astronomes en apprenaient davantage sur la planète rouge, mais ils n’avaient toujours pas suffisamment d’informations pour savoir si elle abritait la vie – et si oui, de quel type.

Grâce à des télescopes plus puissants et à de nouvelles techniques d’impression, les astronomes commencèrent à appliquer les outils de la cartographie géographique pour créer les premières cartes détaillées de la surface de Mars, y inscrivant continents et mers, et parfois des formes que l’on pensait dues à une activité biologique. Mais comme il était encore difficile d’observer réellement ces reliefs martiens, ces cartes variaient beaucoup selon les auteurs.

C’est dans ce contexte qu’un scientifique de renom, aussi vulgarisateur passionné, a mêlé science et imagination pour explorer les possibilités de la vie sur un autre monde.

Camille Flammarion

Un portrait en noir et blanc d’un homme aux cheveux touffus et à la barbe fournie
L’astronome et écrivain du XIXᵉ siècle Camille Flammarion.
Av Ukjent/The New York Public Library Digital Collections

Parmi ces penseurs imaginatifs, on trouve Camille Flammarion, astronome parisien. En 1892, il publia la Planète Mars, une œuvre de référence qui demeure à ce jour un bilan complet de l’observation martienne jusqu’à la fin du XIXe siècle. Il y résuma toute la littérature publiée sur Mars depuis Galilée et affirma avoir examiné 572 dessins de la planète pour y parvenir.

Comme beaucoup de ses contemporains, Flammarion pensait que Mars, un monde plus ancien que la Terre ayant traversé les mêmes étapes évolutives, devait être un monde vivant. Mais il affirmait aussi, contrairement à beaucoup, que Mars, bien qu’ayant des similitudes avec la Terre, était un monde radicalement différent.

Ce sont précisément ces différences qui le fascinaient. Toute forme de vie martienne, pensait-il, serait adaptée à des conditions propres à Mars – une idée qui inspira H. G. Wells dans la Guerre des mondes (1898).

Une carte ancienne montrant des continents et des océans sur Mars
Une planche illustrée extraite de l’Astronomie populaire. Description générale du ciel (1884), de Camille Flammarion. Cette carte de Mars montre des continents et des océans. Dans cette œuvre majeure à succès, Flammarion imaginait que Mars était « une Terre presque semblable à la nôtre [avec] de l’eau, de l’air, des averses, des ruisseaux et des fontaines. C’est assurément un lieu peu différent de celui que nous habitons. »
SSPL/Getty Images

Mais Flammarion reconnaissait aussi combien il était difficile de cerner ces différences : « La distance est trop grande, notre atmosphère trop dense, nos instruments trop imparfaits », écrivait-il. Aucune carte, selon lui, ne pouvait être prise à la lettre, car chacun voyait et dessinait Mars à sa manière.


Tous les quinze jours, nos auteurs plongent dans le passé pour y trouver de quoi décrypter le présent. Et préparer l’avenir. Abonnez-vous gratuitement dès aujourd’hui !


Face à cette incertitude, Flammarion adoptait une position agnostique dans la Planète Mars quant à la nature exacte de la vie martienne. Il envisageait toutefois que si une vie intelligente existait sur Mars, elle devait être plus ancienne que l’humanité, et donc plus avancée : une civilisation unifiée, pacifique, technologiquement développée – un avenir qu’il souhaitait aussi pour la Terre.

« On peut espérer, écrivait-il, que puisque le monde martien est plus ancien que le nôtre, ses habitants soient plus sages et plus évolués que nous. Sans doute l’esprit de paix anime-t-il ce monde voisin. »

Une photo ancienne montrant un terrain rocheux traversé par des canaux
Une planche extraite des Terres du ciel. Voyage astronomique sur les autres mondes (1884), de Camille Flammarion. Il s’agit d’une représentation artistique de ce à quoi les canaux de Mars auraient pu ressembler.
Science & Society Picture Library via Getty Images

Mais comme il le soulignait souvent : « Le Connu est une minuscule île au milieu de l’océan de l’Inconnu » – une idée qu’il défendait dans la soixantaine de livres qu’il a publiés au cours de sa vie. C’est justement cet inconnu qui le fascinait.

Certains historiens voient surtout en Flammarion un vulgarisateur plus qu’un scientifique rigoureux. Cela ne doit cependant pas diminuer ses mérites. Pour lui, la science n’était pas une méthode ou un corpus figé : elle était le cœur naissant d’une nouvelle philosophie. Il prenait très au sérieux son travail de vulgarisation, qu’il voyait comme un moyen de tourner les esprits vers les étoiles.

Des romans imaginatifs

En l’absence d’observations fiables ou de communication avec d’hypothétiques Martiens, il était prématuré de spéculer sur leur apparence. Et pourtant, Flammarion le fit – non pas dans ses travaux scientifiques, mais à travers plusieurs romans publiés tout au long de sa carrière.

Dans ces œuvres, il se rendait sur Mars en imagination, et observait sa surface. Contrairement à Jules Verne, qui imaginait des voyages facilités par la technologie, Flammarion préférait des voyages de l’âme.

Convaincu que l’âme humaine pouvait, après la mort, voyager dans l’espace contrairement au corps physique, il mit en scène des récits de rêves ou de visites d’esprits défunts. Dans Uranie (1889), l’âme de Flammarion se rend sur Mars en songe. Là, il retrouve son ami défunt Georges Spero, réincarné en un être lumineux, ailé et doté de six membres.

« Les organismes ne sauraient être terrestres sur Mars, pas plus qu’ils ne peuvent être aériens au fond des mers », écrit-il.

Plus tard dans le roman, l’âme de Spero vient visiter Flammarion sur Terre. Il lui révèle que la civilisation martienne, aidée par une atmosphère plus fine favorable à l’astronomie, a fait d’immenses progrès scientifiques. Pour Flammarion, la pratique de l’astronomie avait permis à la société martienne de progresser, et il rêvait d’un destin similaire pour la Terre.

Dans l’univers qu’il imagine, les Martiens vivent dans un monde intellectuel, débarrassé de la guerre, de la faim et des malheurs terrestres. Un idéal inspiré par l’histoire douloureuse de la France, marquée par la guerre franco-prussienne et le siège de Paris.

Aujourd’hui, le Mars de Flammarion nous rappelle que rêver d’un avenir sur la planète rouge, c’est autant chercher à mieux nous comprendre nous-mêmes et à interroger nos aspirations collectives qu’à développer les technologies nécessaires pour y parvenir.

La vulgarisation scientifique était pour Flammarion un moyen d’aider ses semblables, les pieds sur Terre, à comprendre leur place dans l’univers. Ils pourraient un jour rejoindre les Martiens qu’il avait imaginés – des figures symboliques qui, pas plus que les cartes de Mars qu’il avait étudiées dans la Planète Mars, ne devaient être prises au pied de la lettre. Son univers représentait ce que la vie pourrait devenir, dans des conditions idéales.

The Conversation

Matthew Shindell ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Camille Flammarion, l’astronome qui imaginait Mars grâce à la science-fiction – https://theconversation.com/camille-flammarion-lastronome-qui-imaginait-mars-grace-a-la-science-fiction-259080

Votre chat peut-il vous reconnaître à l’odeur ?

Source: – By Julia Henning, PhD Candidate in Feline Behaviour, School of Animal and Veterinary Science, University of Adelaide

Vous êtes-vous déjà demandé si votre chat était capable de vous reconnaître ? Et si oui, comment peut-il vous distinguer des autres humains ?


Des recherches ont montré que seulement 54 % des chats pouvaient reconnaître les humains à partir de leur seul visage. Une étude publiée le 28 mai 2025 dans la revue scientifique PLOS One suggère que les chats sont capables de nous reconnaître à notre odeur. Cette faculté n’avait jamais été étudiée et nous renseigne sur les liens qui se tissent entre les humains et les chats.

Les chats ont souvent la triste réputation d’être distants ou indifférents aux personnes qui les entourent, mais un nombre croissant d’études démontre le contraire. On sait désormais que les chats apprennent les noms que nous leur donnons et que la plupart d’entre eux préfèrent l’interaction sociale humaine à la nourriture, un choix que même les chiens ont du mal à faire.

L’étude, réalisée par Yutaro Miyairi et ses collègues de l’Université d’agriculture de Tokyo, a porté sur la capacité de 30 chats à différencier leur propriétaire d’une personne inconnue en se basant uniquement sur l’odeur.

Pour cette étude, les scientifiques ont présenté à des chats des tubes en plastique contenant des cotons-tiges frottés sous l’aisselle, derrière l’oreille et entre les orteils soit de leur propriétaire, soit d’un humain qu’ils n’avaient jamais rencontré. À titre de contrôle, on a présenté des cotons-tiges vierges (donc sans odeur humaine) aux chats.

Quand les chats nous acceptent dans leur groupe social

Les résultats ont montré que les chats ont passé plus de temps à renifler les tubes contenant l’odeur d’humains qu’ils ne connaissaient pas, par rapport au temps passé à renifler ceux de leur propriétaire ou du contrôle.

Un temps de reniflage plus court suggère que lorsque les chats rencontrent l’odeur de leur maître, ils la reconnaissent rapidement et passent à autre chose. En revanche, lorsqu’il s’agit de prélèvements effectués sur une personne inconnue, le chat renifle plus longtemps, utilisant son sens aigu de l’odorat pour recueillir des informations sur l’odeur.

Des comportements similaires ont déjà été observés : les chatons reniflent l’odeur des femelles inconnues plus longtemps que celle de leur propre mère, et les chats adultes reniflent les fèces des chats inconnus plus longtemps que celles des chats de leur groupe social. Les résultats de cette nouvelle étude pourraient indiquer que nous faisons également partie de ce groupe social.

Deux chats dans des boîtes en carton, un chat noir reniflant un chat roux
Les chats utilisent leur odorat pour distinguer les chats familiers des chats inconnus.
Chris Boyer/Unsplash

L’étude a également révélé que les chats avaient tendance à renifler les odeurs familières avec leur narine gauche, tandis que les odeurs inconnues étaient plus souvent reniflées avec leur narine droite. Lorsque les chats se familiarisent avec une odeur après l’avoir reniflée pendant un certain temps, ils passent de la narine droite à la narine gauche.

Cette tendance a également été observée chez les chiens. Selon les recherches actuelles, cette préférence pour les narines pourrait indiquer que les chats traitent et classent les nouvelles informations en utilisant l’hémisphère droit de leur cerveau, tandis que l’hémisphère gauche prend le relais lorsqu’une réponse habituelle est établie.

Gros plan sur le nez ambré d’un chat silver tabby
Les chats reniflent les objets avec des narines différentes selon que l’information leur est familière ou non.
Kevin Knezic/Unsplash

L’odorat est d’importance pour les chats

Les chats s’appuient sur leur odorat pour recueillir des informations sur le monde qui les entoure et pour communiquer.

L’échange d’odeurs (par le frottement des joues et le toilettage mutuel) permet de reconnaître les chats du même cercle social, de maintenir la cohésion du groupe et d’identifier les chats non familiers ou d’autres animaux qui peuvent représenter une menace ou doivent être évités.

Les odeurs familières peuvent également être réconfortantes pour les chats, réduisant le stress et l’anxiété et créant un sentiment de sécurité dans leur environnement.

Lorsque vous revenez de vacances, si vous remarquez que votre chat est distant et agit comme si vous étiez un étranger, c’est peut-être parce que vous sentez une odeur étrangère. Essayez de prendre une douche en utilisant vos cosmétiques habituels et mettez vos vêtements de tous les jours. Les odeurs familières devraient vous aider, vous et votre chat, à retrouver plus rapidement votre ancienne dynamique.

N’oubliez pas que si votre chat passe beaucoup de temps à renifler quelqu’un d’autre, ce n’est pas parce qu’il le préfère. C’est probablement parce que votre odeur lui est familière et qu’elle lui demande moins de travail. Au lieu d’être nouvelle et intéressante, elle peut avoir un effet encore plus positif : aider votre chat à se sentir chez lui.

The Conversation

Julia Henning ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Votre chat peut-il vous reconnaître à l’odeur ? – https://theconversation.com/votre-chat-peut-il-vous-reconnaitre-a-lodeur-258322