Votre chat peut-il vous reconnaître à l’odeur ?

Source: – By Julia Henning, PhD Candidate in Feline Behaviour, School of Animal and Veterinary Science, University of Adelaide

Vous êtes-vous déjà demandé si votre chat était capable de vous reconnaître ? Et si oui, comment peut-il vous distinguer des autres humains ?


Des recherches ont montré que seulement 54 % des chats pouvaient reconnaître les humains à partir de leur seul visage. Une étude publiée le 28 mai 2025 dans la revue scientifique PLOS One suggère que les chats sont capables de nous reconnaître à notre odeur. Cette faculté n’avait jamais été étudiée et nous renseigne sur les liens qui se tissent entre les humains et les chats.

Les chats ont souvent la triste réputation d’être distants ou indifférents aux personnes qui les entourent, mais un nombre croissant d’études démontre le contraire. On sait désormais que les chats apprennent les noms que nous leur donnons et que la plupart d’entre eux préfèrent l’interaction sociale humaine à la nourriture, un choix que même les chiens ont du mal à faire.

L’étude, réalisée par Yutaro Miyairi et ses collègues de l’Université d’agriculture de Tokyo, a porté sur la capacité de 30 chats à différencier leur propriétaire d’une personne inconnue en se basant uniquement sur l’odeur.

Pour cette étude, les scientifiques ont présenté à des chats des tubes en plastique contenant des cotons-tiges frottés sous l’aisselle, derrière l’oreille et entre les orteils soit de leur propriétaire, soit d’un humain qu’ils n’avaient jamais rencontré. À titre de contrôle, on a présenté des cotons-tiges vierges (donc sans odeur humaine) aux chats.

Quand les chats nous acceptent dans leur groupe social

Les résultats ont montré que les chats ont passé plus de temps à renifler les tubes contenant l’odeur d’humains qu’ils ne connaissaient pas, par rapport au temps passé à renifler ceux de leur propriétaire ou du contrôle.

Un temps de reniflage plus court suggère que lorsque les chats rencontrent l’odeur de leur maître, ils la reconnaissent rapidement et passent à autre chose. En revanche, lorsqu’il s’agit de prélèvements effectués sur une personne inconnue, le chat renifle plus longtemps, utilisant son sens aigu de l’odorat pour recueillir des informations sur l’odeur.

Des comportements similaires ont déjà été observés : les chatons reniflent l’odeur des femelles inconnues plus longtemps que celle de leur propre mère, et les chats adultes reniflent les fèces des chats inconnus plus longtemps que celles des chats de leur groupe social. Les résultats de cette nouvelle étude pourraient indiquer que nous faisons également partie de ce groupe social.

Deux chats dans des boîtes en carton, un chat noir reniflant un chat roux
Les chats utilisent leur odorat pour distinguer les chats familiers des chats inconnus.
Chris Boyer/Unsplash

L’étude a également révélé que les chats avaient tendance à renifler les odeurs familières avec leur narine gauche, tandis que les odeurs inconnues étaient plus souvent reniflées avec leur narine droite. Lorsque les chats se familiarisent avec une odeur après l’avoir reniflée pendant un certain temps, ils passent de la narine droite à la narine gauche.

Cette tendance a également été observée chez les chiens. Selon les recherches actuelles, cette préférence pour les narines pourrait indiquer que les chats traitent et classent les nouvelles informations en utilisant l’hémisphère droit de leur cerveau, tandis que l’hémisphère gauche prend le relais lorsqu’une réponse habituelle est établie.

Gros plan sur le nez ambré d’un chat silver tabby
Les chats reniflent les objets avec des narines différentes selon que l’information leur est familière ou non.
Kevin Knezic/Unsplash

L’odorat est d’importance pour les chats

Les chats s’appuient sur leur odorat pour recueillir des informations sur le monde qui les entoure et pour communiquer.

L’échange d’odeurs (par le frottement des joues et le toilettage mutuel) permet de reconnaître les chats du même cercle social, de maintenir la cohésion du groupe et d’identifier les chats non familiers ou d’autres animaux qui peuvent représenter une menace ou doivent être évités.

Les odeurs familières peuvent également être réconfortantes pour les chats, réduisant le stress et l’anxiété et créant un sentiment de sécurité dans leur environnement.

Lorsque vous revenez de vacances, si vous remarquez que votre chat est distant et agit comme si vous étiez un étranger, c’est peut-être parce que vous sentez une odeur étrangère. Essayez de prendre une douche en utilisant vos cosmétiques habituels et mettez vos vêtements de tous les jours. Les odeurs familières devraient vous aider, vous et votre chat, à retrouver plus rapidement votre ancienne dynamique.

N’oubliez pas que si votre chat passe beaucoup de temps à renifler quelqu’un d’autre, ce n’est pas parce qu’il le préfère. C’est probablement parce que votre odeur lui est familière et qu’elle lui demande moins de travail. Au lieu d’être nouvelle et intéressante, elle peut avoir un effet encore plus positif : aider votre chat à se sentir chez lui.

The Conversation

Julia Henning ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Votre chat peut-il vous reconnaître à l’odeur ? – https://theconversation.com/votre-chat-peut-il-vous-reconnaitre-a-lodeur-258322

Comment ce virus du riz a conquis toute l’Afrique

Source: – By Eugénie Hebrard, Directrice de recherche, Institut de recherche pour le développement (IRD)

Repiquage du riz dans le district de Rwamagana à l’Est du Rwanda. Dr I. Ndikumana/Rwanda Agricultural Board, Fourni par l’auteur

Une nouvelle étude retrace l’évolution du virus de la panachure jaune du riz et explique comment le commerce, les échanges de semences et même la Première Guerre mondiale lui ont permis de se répandre à travers tout le continent africain. Ce virus peut causer entre 20 % et 80 % de pertes de rendement.


Le virus de la panachure jaune du riz est une menace majeure pour la production rizicole en Afrique. Cette maladie, présente dans plus de 25 pays, peut causer entre 20 % et 80 % de pertes de rendement selon les épidémies. Retracer l’histoire de la dispersion du virus en Afrique permet de comprendre les causes et les modalités de l’émergence de la maladie, aide à mettre en place des stratégies de contrôle et contribue à évaluer les risques de propagation vers d’autres régions du monde. Par une approche multidisciplinaire intégrant données épidémiologiques, virologiques, agronomiques et historiques, nous avons exploré les liens entre l’histoire de la culture du riz en Afrique de l’Est et la propagation de ce virus à large échelle depuis la seconde moitié du XIXe siècle. Ces travaux sur le RYMV (l’acronyme de son nom anglais : Rice yellow mottle virus) viennent d’être publiés dans la revue scientifique PLoS Pathogens.

Il s’agit de l’aboutissement d’un travail de longue haleine basé sur des collectes de feuilles symptomatiques sur le terrain, parfois difficile d’accès, menées par plusieurs équipes de virologues, co-auteurs de cet article. La détection du virus par diagnostic immunologique en laboratoire puis sa caractérisation par séquençage ont abouti à une collection représentative de 50 génomes entiers et de 335 séquences du gène de la capside virale (la coque protéique qui protège le génome) prélevés entre 1966 et 2020 sur deux millions de kilomètres carrés (Burundi, Éthiopie, Kenya, Malawi, Ouganda, République du Congo, Rwanda, Tanzanie). Une partie de ces échantillons avaient été caractérisée préalablement et conservée dans des herbiers et des congélateurs. C’est une collaboration multilatérale internationale basée sur la mise en commun de tous les résultats qui a abouti à cette étude globale de la phylodynamique du RYMV, c’est-à-dire de la dispersion et de l’évolution des différentes lignées génétiques virales. Les approches bio-informatiques utilisées pour analyser et visualiser les résultats ont nécessité des développements méthodologiques mis au point par plusieurs co-auteurs spécialistes de ces disciplines, et qui sont transposables à tous types de virus. Les résultats obtenus avec les séquences virales partielles ou entières convergent vers un même scénario. C’est en intégrant les connaissances des agronomes et des historiens, également co-auteurs de cet article que nous avons pu interpréter cette « remontée dans le temps ».

Une transmission bien particulière

Beaucoup de virus de plantes sont transmis exclusivement par des insectes vecteurs dit piqueurs-suceurs comme les pucerons, qui en se nourrissant sur une plante malade, acquièrent le virus puis les réinjectent dans des plantes saines. Le RYMV, lui, est transmis par de multiples moyens, notamment :

  • grâce à l’intervention de coléoptères, insectes broyeurs qui n’ont pas de système d’injection de salive mais qui peuvent tout de même se contaminer mécaniquement en s’alimentant et qui se déplacent à courte distance ;

  • par des vaches ou d’autres animaux qui en broutant dans les champs de riz produisent des déjections dans lesquelles le virus reste infectieux ;

  • de manière passive par contact des feuilles ou des racines de plantes infectées où il se multiplie fortement.

Ces différents modes de transmission et de propagation du RYMV ne sont pas efficaces pour la transmission à longue distance. Or, le virus est présent sur tout le continent africain. C’est ce paradoxe que nous avons cherché à résoudre.

Une histoire complexe

Le RYMV est apparu au milieu du XIXe siècle dans l’Eastern Arc Montains en Tanzanie, où la riziculture sur brûlis était pratiquée. Plusieurs contaminations du riz cultivé à partir de graminées sauvages infectées ont eu lieu, aboutissant à l’émergence des trois lignées S4, S5 et S6 du virus. Le RYMV a ensuite été rapidement introduit dans la grande vallée rizicole voisine de Kilombero et dans la région de Morogoro. Les graines récoltées, bien qu’indemnes de virus, sont contaminées par des débris de plantes, elles-mêmes infectées, qui subsistent dans les sacs de riz après le battage et le vannage du riz. Le RYMV, très stable, est en mesure de subsister ainsi pendant plusieurs années. La dispersion à longue distance du RYMV en Afrique de l’Est a été marquée par trois évènements majeurs, cohérents avec : l’introduction du riz le long des routes de commerce caravanier des côtes de l’Océan Indien en direction du lac Victoria dans la seconde moitié du XIXe siècle (I), avec les échanges de semences du lac Victoria vers le nord de l’Éthiopie dans la seconde moitié du XXe siècle (II) et, de manière inattendue, avec le transport du riz à la fin de la Première Guerre mondiale comme aliment de base des troupes, de la vallée du Kilombero vers le sud du lac Malawi (III). Les échanges de semences expliquent également la dispersion du virus de l’Afrique de l’Est vers l’Afrique de l’Ouest à la fin du XIXe siècle, et vers Madagascar à la fin du XXe siècle. En somme, la dispersion du RYMV est associée à un large spectre d’activités humaines, certaines insoupçonnées. Par conséquent, le RYMV, bien que non transmis directement par la semence ou par des insectes vecteurs très mobiles comme beaucoup de virus de plantes, a une grande capacité de dissémination. Ses paramètres de dispersion, estimés à partir de nos reconstructions dites phylogéographiques, sont similaires à ceux des virus zoonotiques très mobiles, des virus infectant les animaux qui peuvent créer des épidémies chez l’homme comme la rage.

Reconstitution de la dispersion du RYMV en Afrique de l’Est de 1850 à 2020, basées sur les séquences génomiques non recombinantes de 50 isolats représentatifs de la diversité génétique et géographique du virus. Les trois évènements de dispersion à longue distance sont indiqués (I, II, III, voir texte).
Fourni par l’auteur

En comparant la dispersion des trois lignées majeures présentes en Afrique de l’Est grâce aux nouveaux outils bio-informatiques développés dans cette étude, nous avons observé des dynamiques virales très contrastées. La lignée S4 a connu le plus grand succès épidémique avec une propagation précoce, rapide et généralisée. Elle a été découverte au sud du lac Victoria dans la seconde moitié du XIXe siècle puis a circulé autour du lac Victoria avant de se disperser vers le nord en Éthiopie, puis vers le sud au Malawi et enfin vers l’ouest en République du Congo, au Rwanda et au Burundi. La lignée S6, au contraire, est restée confinée à la vallée du Kilombero et dans la région de Morogoro pendant plusieurs décennies. Au cours des dernières décennies seulement, elle s’est propagée vers l’est de la Tanzanie, le sud-ouest du Kenya et les îles de Zanzibar et de Pemba. De façon inexpliquée, la lignée S5 est restée confinée dans la vallée du Kilombero et dans la région de Morogoro. Au cours des dernières décennies, on note un ralentissement des taux de dispersion de la plupart des souches virales issues des lignées S4 et S6 que nous n’expliquons pas encore.

En conclusion, notre étude multi-partenariale et multidisciplinaire met en évidence l’importance de la transmission humaine d’agents pathogènes de plantes et souligne le risque de transmission du RYMV, ainsi que celle d’autres phytovirus d’Afrique, vers d’autres continents. Nous étudions maintenant la dispersion et l’évolution du RYMV en Afrique de l’Ouest, en particulier de celle de lignées virales particulièrement préoccupantes car capables de se multiplier sur les variétés de riz, considérées résistantes au virus, compromettant ainsi les stratégies de contrôle.

The Conversation

Eugénie Hebrard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Comment ce virus du riz a conquis toute l’Afrique – https://theconversation.com/comment-ce-virus-du-riz-a-conquis-toute-lafrique-259329

L’eau gèle quand il fait froid – ce nouveau matériau gèle quand il fait chaud !

Source: – By Éric Collet, Professeur de Physique, expert en sciences des matériaux, Université de Rennes

Une nouvelle étude montre qu’il est possible de geler les positions des atomes qui constituent un matériau…, en le chauffant.

Ce concept ouvre la voie au développement de dispositifs innovants, tels que des capteurs piézoélectriques capables de fonctionner à température ambiante, sans avoir besoin de recourir à de très basses températures.


Lorsque l’eau liquide passe en dessous de 0 °C, les molécules d’eau gèlent leurs positions les unes par rapport aux autres, pour former de la glace. Dans l’immense majorité des matériaux, les atomes et les molécules gèlent quand la température baisse.

Mais, contrairement à l’intuition, nous avons découvert un matériau présentant un changement d’état magnétique, pour lequel des mesures de cristallographie par rayons X ont démontré que les positions des atomes gèlent… en chauffant !

Ceci nous a d’abord surpris, mais nous avons trouvé une explication, que nous détaillons dans notre récente publication.

Certains dispositifs électroniques ne fonctionnent qu’à basse température

Les positions des atomes se gèlent habituellement quand on abaisse sa température – c’est le cas, par exemple, quand l’eau gèle au congélateur ou encore quand du sucre fondu cristallise en refroidissant.

Ce phénomène existe aussi à l’état solide dans de nombreux matériaux. Même dans un solide, les atomes vibrent entre des positions équivalentes par symétrie (par exemple entre gauche et droite) – ils ne se figent dans une de ces positions que quand la température diminue.

Pour certains matériaux, comme le sucre ou les piézoélectriques utilisés sur les sonars ou capteurs pour l’échographie, les atomes sont gelés à température ambiante. Mais pour de nombreux matériaux moléculaires, ceci ne se produit qu’à -20 °C, -100 °C ou -200 °C, par exemple.

schéma
À haute température, les atomes en bleu et en rouge sont désordonnés entre des positions droite/gauche équivalentes par symétrie. Quand ils se gèlent sur une position à basse température, la symétrie droite/gauche est perdue. Ainsi, des charges peuvent apparaître en surface.
Éric Collet, Fourni par l’auteur

Le changement de symétrie associé à la mise en ordre des atomes qui se gèlent suivant certaines positions est illustré sur la figure ci-dessus.

À droite, les atomes sont désordonnés et vibrent à haute température. Il y a ici une symétrie miroir et les positions des atomes d’un côté du miroir sont équivalentes à celles de l’autre côté.

À basse température, les positions des atomes se gèlent. Par exemple, les atomes rouges s’approchent d’atomes bleus à droite et s’éloignent des atomes bleus à gauche. Ceci modifie certaines propriétés physiques de matériaux et, par exemple, des charges (+ et -) apparaissent en surface.

Si on appuie sur un tel matériau, les charges changent, et c’est ce qui est à la base des capteurs piézoélectriques, par exemple. Une simple pression, comme un son, peut moduler ces charges et être alors détectée. C’est ainsi que fonctionnent les dispositifs pour l’échographie ou les sonars dans les sous-marins, par exemple : l’onde sonore qui est réfléchie sur un objet est détectée par le capteur piézoélectrique au travers d’un signal électrique.




À lire aussi :
Des aimants légers et performants grâce à la chimie moléculaire



Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


D’autres matériaux sont aussi ferroélectriques. Il est alors possible de retourner les positions atomiques avec un champ électrique et donc d’inverser les charges. C’est ce dispositif qui est à la base des mémoires RAM ferroélectriques.

Malheureusement, pour de nombreux matériaux moléculaires, ce type de propriétés liées au changement de symétrie n’apparaissent qu’à basse température. Il faut alors refroidir les matériaux pour obtenir la propriété, parfois à -200 °C. Cette contrainte limite donc l’application de ces matériaux, car de nombreuses applications nécessitent des dispositifs fonctionnant à température ambiante, parce qu’il est trop complexe et coûteux d’intégrer des dispositifs de refroidissement.

Une découverte surprenante : un matériau qui gèle à haute température

Dans la majorité des matériaux, les atomes qui les constituent se mettent en mouvement avec l’élévation de température. Cette agitation thermique crée un désordre, qui se mesure par une grandeur thermodynamique appelée « entropie ».

« L’Entropie », Passe-science #17. Source : Passe-science.

Les lois de la physique stipulent que plus la température augmente, plus le désordre et donc l’entropie augmentent. Ainsi, le désordre est plus grand à haute température, avec les atomes agités, qu’à basse température où les atomes sont figés. À l’inverse, à basse température, le désordre et, donc, l’entropie diminuent, ainsi que la symétrie.

Dans notre étude, nous observons pourtant le phénomène inverse : le matériau que nous étudions est plus symétrique en dessous de -40 °C qu’au-dessus. En d’autres termes, les molécules sont sur des positions désordonnées droite/gauche à basse température et ordonnées à haute température et donc, ici, à température ambiante.

Plusieurs types de désordre en compétition

Ce phénomène est rendu possible grâce au « désordre électronique ».

En effet, dans le matériau étudié, les états à haute et basse température correspondent aussi à deux états magnétiques.

À basse température, le matériau est dans l’état appelé « diamagnétique », c’est-à-dire que les électrons vivent en couple et que leurs spins (leurs moments magnétiques) sont opposés – c’est une contrainte imposée par la mécanique quantique. Ceci correspond à un état électronique ordonné, car il n’y a qu’une configuration possible : un spin vers le haut, l’autre vers le bas.

schéma
Dans le matériau étudié, les molécules sont désordonnées entre positions droite/gauche à basse température et gèlent suivant une des positions à haute température. Ceci est permis par la réorganisation concomitante des électrons. À basse température, les électrons dans ce matériau sont ordonnés : ils s’apparient avec des spins opposés (représenté par des flèches) et il n’existe qu’une configuration électronique. À haute température, les électrons célibataires peuvent prendre l’un des deux spins, sans contrainte, et il existe cinq configurations possibles.
Éric Collet, Fourni par l’auteur

À haute température, au contraire, le matériau est dans l’état « paramagnétique », c’est-à-dire que les électrons sont célibataires et leurs spins peuvent s’orienter librement, ce qui donne lieu à plusieurs configurations (quelques-uns vers le haut, les autres vers le bas, comme illustré par les flèches rouges sur la figure ci-dessus).

En chauffant, nous favorisons le désordre « électronique » (le grand nombre de configurations des spins). Ce désordre entre en compétition avec la mise en ordre des positions des atomes.

Le gain en entropie lié au désordre électronique (qui passe d’une seule configuration à cinq) est alors plus grand que le coût en entropie lié à la mise en ordre des atomes (de deux configurations à une seule). D’autres phénomènes viennent aussi contribuer à cette augmentation d’entropie.

Au final, l’entropie globale, incluant désordre atomique et électronique, augmente donc bien avec la température comme l’imposent les lois de la physique. C’est donc le désordre des électrons qui autorise de geler les positions des molécules.

Par conséquent, ce nouveau concept, combinant désordre électronique et ordre atomique, ouvre la voie au développement de nouveaux matériaux pour des dispositifs tels que des capteurs, des mémoires, des transducteurs ou des actionneurs fonctionnant à température ambiante, sans recours aux basses températures.

The Conversation

Eric Collet est membre de l’Institut Universitaire de France et de l’Academia Europaea

ref. L’eau gèle quand il fait froid – ce nouveau matériau gèle quand il fait chaud ! – https://theconversation.com/leau-gele-quand-il-fait-froid-ce-nouveau-materiau-gele-quand-il-fait-chaud-258851

Existe-t-il une méthode scientifique pour éplucher parfaitement un œuf dur ?

Source: – By Paulomi (Polly) Burey, Professor in Food Science, University of Southern Queensland

Pourquoi certains œufs s’écalent facilement et d’autres non ? Une histoire de pH, de température et de chambre à air, répondent les scientifiques qui se sont penchés sur la question.


Nous sommes tous passés par là : essayer d’écaler un œuf dur, mais finir par le réduire en miettes tant la coquille s’accroche obstinément au blanc. Et ça peut être pire encore, quand l’œuf se retrouve couvert de petits morceaux de membrane.

Internet regorge d’astuces censées vous éviter ce désagrément mais plusieurs causes très différentes peuvent expliquer qu’un œuf soit difficile à « éplucher ». Heureusement, la science offre des stratégies pour contourner le problème.

Facteurs influençant la facilité d’écalage d’un œuf

Les œufs se composent d’une coquille dure et poreuse, d’une membrane coquillière externe et d’une membrane coquillière interne, du blanc d’œuf (ou albumen), et d’un jaune enveloppé d’une membrane. On trouve également une chambre à air entre les deux membranes, juste sous la coquille.

Visuel de coupe d’un œuf

Coquille calcaire ; 2. Membrane coquillière externe ; 3. Membrane coquillière interne ; 4. Chalaze ; 5. Blanc d’œuf (ou albumen) externe (fluide) ; 6. Blanc d’œuf (ou albumen) intermédiaire (visqueux) ; 7. Peau du jaune d’œuf ; 8. Jaune d’œuf (ou vitellus) formé ; 9. Point blanc puis embryon ; 10. Jaune d’œuf (ou vitellus) jaune ;11. Jaune d’œuf (ou vitellus) blanc ; 12. Blanc d’œuf (ou albumen) interne (fluide) ; 13. Chalaze ; 14. Chambre à air ; 15. Cuticule.

Horst Frank/Wikicommon, CC BY-NC

Dans les années 1960 et 1970, de nombreuses recherches ont été menées sur les facteurs influençant la facilité d’écalage des œufs après cuisson. L’un de ces facteurs est le pH du blanc d’œuf. Une étude des années 1960 a montré qu’un pH compris entre 8,7 et 8,9 — donc assez alcalin — facilitait l’épluchage des œufs.

La température de conservation joue également un rôle. Une étude de 1963 a révélé qu’un stockage à environ 22 °C donnait de meilleurs résultats en matière d’épluchage qu’un stockage à 13 °C, ou à des températures de réfrigérateur de 3 à 5 °C.

Il faut bien sûr garder à l’esprit qu’un stockage à température ambiante élevée augmente le risque de détérioration (NDLR : L’Anses recommande de conserver les œufs toujours à la même température afin d’éviter le phénomène de condensation d’eau à leur surface).

Les recherches ont également montré qu’un temps de stockage plus long avant cuisson — autrement dit des œufs moins frais — améliore la facilité d’épluchage.

Une boîte d’œufs sur une table
Plus les œufs sont vieux, plus ils pourraient être faciles à écaler.
Caroline Attwood/Unsplash

Conseil n°1 : éviter les œufs frais

Le fait que les œufs frais soient plus difficiles à éplucher est relativement bien connu. D’après les facteurs évoqués plus haut, plusieurs explications permettent de comprendre ce phénomène.

D’abord, dans un œuf frais, la chambre à air est encore très petite. En vieillissant, l’œuf perd lentement de l’humidité à travers sa coquille poreuse, ce qui agrandit la chambre à air à mesure que le reste du contenu se rétracte. Une chambre à air plus grande facilite le démarrage de l’épluchage.

Par ailleurs, même si le blanc d’œuf est déjà relativement alcalin au départ, son pH augmente encore avec le temps, ce qui contribue aussi à rendre l’écalage plus facile.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Conseil n°2 : la température de l’eau

Plusieurs experts de la cuisson des œufs estiment que commencer avec de l’eau bouillante puis la ramener à un frémissement avant d’y déposer délicatement les œufs donne de meilleurs résultats. Il est alors recommandé d’utiliser des œufs à température ambiante pour éviter qu’ils ne se fissurent à cause d’un choc thermique. L’idée derrière cette méthode est qu’une exposition immédiate à une température élevée facilite la séparation entre la membrane, la coquille et le blanc d’œuf.

En outre, un démarrage à chaud favorise la dénaturation des protéines du blanc d’œuf (c’est-à-dire leur changement de structure sous l’effet de la chaleur), ce qui les incite à se lier entre elles plutôt qu’à adhérer à la membrane.

Après avoir fait bouillir les œufs pendant le temps désiré (généralement 3 à 5 minutes pour un jaune coulant, 6 à 7 minutes pour un jaune crémeux, et 12 à 15 minutes pour un œuf dur), on peut les plonger dans de l’eau glacée. Cela aide le blanc à se rétracter légèrement, facilitant ainsi l’épluchage.

Des œufs dans de l’eau bouillante dans une casserole sur une cuisinière à gaz
Commencer la cuisson dans de l’eau bouillante peut faciliter l’épluchage, surtout si l’on plonge les œufs dans de l’eau glacée ensuite.
Max4ᵉ Photo/Shutterstock

Conseil n°3 (pas obligatoire) : ajouter des ingrédients à l’eau

Parmi les autres astuces suggérées pour faciliter l’écalage, on trouve l’ajout de sel dans l’eau bouillante, mais les résultats sont à nuancer. Une étude a montré que cela pouvait effectivement améliorer l’épluchage, mais que cet effet disparaissait après une période de stockage prolongée des œufs.

L’ajout d’acides et de bases a également démontré une certaine efficacité pour aider à retirer la coquille. Un brevet s’appuyant sur cette idée propose ainsi d’utiliser des substances agressives dans le but de dissoudre la coquille. Mais partant de ce principe, vous pourriez simplement tenter d’ajouter à l’eau de cuisson du bicarbonate de soude ou du vinaigre. En théorie, ce dernier devrait attaquer le carbonate de calcium de la coquille, facilitant ainsi son retrait. Quant au bicarbonate, étant alcalin, il devrait aider à détacher la membrane de la coquille.

Bonus : quelques méthodes de cuisson alternatives

Il existe plusieurs façons de cuire des œufs durs en dehors de l’ébullition classique. Parmi elles : la cuisson vapeur sous pression, la cuisson à l’air chaud (avec un air fryer), et même le micro-ondes.

Dans le cas de la cuisson vapeur, certains avancent que la vapeur d’eau traversant la coquille aiderait à décoller la membrane du blanc d’œuf, ce qui rendrait l’épluchage beaucoup plus facile.

Des recherches récentes ont porté sur la cuisson à l’air chaud d’autres aliments, mais on ne sait pas encore précisément comment ce mode de cuisson pourrait influencer la coquille et la facilité d’écalage des œufs.

Enfin, une fois vos œufs épluchés, évitez de jeter les coquilles à la poubelle. Elles peuvent servir à de nombreux usages : compost, répulsif naturel contre les limaces et escargots au jardin, petits pots biodégradables pour semis… ou même contribuer à des applications bien plus poussées, notamment dans la recherche sur le cancer.

The Conversation

Paulomi (Polly) Burey a reçu des financements du ministère australien de l’Éducation, qui a soutenu les recherches sur les coquilles d’œufs mentionnées à la fin de cet article.

ref. Existe-t-il une méthode scientifique pour éplucher parfaitement un œuf dur ? – https://theconversation.com/existe-t-il-une-methode-scientifique-pour-eplucher-parfaitement-un-oeuf-dur-255520

Quand la disparition des services publics alimente le vote populiste

Source: – By Etienne Farvaque, Professeur d’Économie, Université de Lille, LEM (UMR 9221), Université de Lille

Les partis populistes ont spectaculairement progressé entre 2002 et 2022. Si de multiples facteurs peuvent l’expliquer, la dégradation ou la disparition des services publics dans nombre de zones rurales ou périphériques jouent un rôle non négligeable. C’est ce que montre une étude analysant la relation entre la disparition des services publics et l’évolution des comportements électoraux en France.


La recherche d’une meilleure efficacité de l’administration se traduit, dans certains territoires, par une disparition progressive des services publics, générant pour les usagers le sentiment de devenir des « oubliés », comme dans la chanson de Gauvain Sers. En effet, la fermeture des écoles, des bureaux de poste, des trésoreries ou des services de police ne se limite pas, du point de vue des citoyens, à une réorganisation administrative : elle façonne le quotidien de milliers de communes, accentuant les inégalités d’accès à des infrastructures jugées essentielles. Ce n’est donc peut-être pas une coïncidence que ce phénomène s’accompagne d’une recomposition du paysage électoral, où les partis politiques d’extrême droite et de la gauche radicale captent une part croissante du vote protestataire.

Dans une étude, nous nous intéressons à la relation possible entre la réduction des services publics et l’évolution des comportements électoraux en France. L’analyse repose sur des données couvrant la période 1998-2018, recoupées avec les résultats des élections présidentielles de 2002, 2012 et 2022. Les résultats confirment notre intuition : plus un territoire voit l’État se retirer, plus le vote « extrême » y progresse.

Des fractures irréparables ?

En étudiant la présence des infrastructures publiques à l’échelle communale, nous dressons le portrait d’une France où l’accès aux services de l’État est de plus en plus inégal.

Dans les grandes agglomérations, l’offre publique demeure relativement stable, bien que certaines restructurations aient également lieu. En revanche, dans les zones rurales et périurbaines, le maillage administratif s’élargit peu à peu.

Les chiffres sont assez éloquents. Comme le montre le tableau 1, entre 1998 et 2018, la présence des services publics en matière d’écoles primaires et maternelles a reculé en moyenne de 7,36 %. Cette baisse concerne en premier lieu les établissements scolaires du primaire, et ce principalement dans les communes de petite et moyenne taille. Les bureaux de poste ont également été durement touchés, ainsi que les services de police et de gendarmerie.

Tableau 1 : Évolution de la présence des services publics.

Le niveau initial en 1998 et les taux de variation dans les équipements publics pour 100 000 habitants, en pourcentage. Paris, Lyon, Marseille et les communes absorbées ne sont pas incluses.
Fourni par l’auteur

Les fermetures ne suivent pas un schéma uniforme. Certaines régions, notamment dans le nord-est et le centre de la France, cumulent des pertes importantes, alors que d’autres territoires, mieux intégrés aux réseaux métropolitains, sont moins affectés. Cette dynamique reflète des tendances de fond : la désindustrialisation, l’exode rural et la concentration des services dans les pôles urbains au détriment des petites communes.

Figure 1 : La carte ci-dessous montre la distribution spatiale des services publics en 2018

Calculs des auteurs à partir des données Insee.
Fourni par l’auteur

Quand l’abandon de l’État nourrit le vote protestataire

Les effets de ces fermetures ne se limitent pas à une simple réorganisation administrative. La disparition progressive des infrastructures publiques modifie en profondeur la relation des citoyens à l’État, renforçant certainement un sentiment de déclassement territorial. Ce sentiment de marginalisation ne se traduit pas seulement par une abstention croissante, mais aussi par un vote contestataire qui s’exprime à la fois à gauche et à droite de l’échiquier politique.

Figure 2 : Évolution des voix des partis de la gauche radicale (2002-2022).

Les partis de la gauche radicale ont nettement progressé entre 2002 et 2022
Les partis de la gauche radicale ont nettement progressé entre 2002 et 2022.
Fourni par l’auteur

Figure 3 : Évolution des voix des partis d’extrême droite (2002-2022)

Ce graphique montre la très nette progression électorale des partis d’extrême droite entre 2002 et 2022, particulièrement dans les zones rurales
Ce graphique montre la très nette progression électorale des partis d’extrême droite entre 2002 et 2022, particulièrement dans les zones rurales.
Fourni par l’auteur

Tableau 2 : Résultats électoraux des partis au cours des années

Le tableau présente la moyenne des résultats des élections en termes de pourcentage
Le tableau présente la moyenne des résultats des élections en termes de pourcentage.
Fourni par l’auteur

Les résultats de notre analyse sont clairs : chaque perte d’un service public pour 1000 habitants entraîne une augmentation du vote pour les partis de la gauche radicale de 0,233 point de pourcentage, et pour les partis d’extrême droite de 0,158 point.

Cependant, ce phénomène ne touche pas tous les électeurs de la même manière. En effet, les citoyens réagissent différemment en fonction du type de service qui disparaît. La fermeture des écoles et des bureaux de poste est davantage corrélée à un renforcement du vote pour les partis de la gauche radicale, probablement en raison de leur rôle central dans la vie quotidienne et la transmission des services essentiels.

Un phénomène qui s’intensifie au fil des élections

Loin de s’estomper, cette tendance s’est renforcée au cours des vingt dernières années. En comparant les résultats des élections présidentielles de 2002, 2012 et 2022, l’étude montre une accélération du vote « extrême » à mesure que les services publics se raréfient. Entre 2002 et 2022, la part des voix obtenues par les partis d’extrême droite a quasiment doublé, atteignant 38,7 % en 2022. Parallèlement, le vote en faveur des partis de la gauche radicale a également progressé, avec une dynamique plus marquée dans certaines régions.

Si d’autres facteurs sont évidemment à l’œuvre, le sentiment d’abandon, généré par le retrait de l’offre de services publics, est un facteur non négligeable.

Cette évolution s’inscrit dans un contexte plus large de polarisation politique. Alors qu’en 2002, les partis de gouvernement captaient encore la majorité des voix, les partis contestataires ont dépassé la barre des 50 % en 2022. L’étude montre que ce basculement n’est pas un simple phénomène conjoncturel, mais bien une transformation structurelle du vote, largement influencée par des facteurs territoriaux.

Causes multiples

Ce lien entre sentiment d’abandon et vote populiste ne se limite pas au cas français. Des dynamiques similaires sont présentes, entre autres, aux États-Unis ou au Royaume-Uni. Elles s’ancrent dans des réalités économiques, sociales et culturelles que la littérature académique a donc maintenant assez bien identifiées.

Les zones les plus particulièrement sensibles aux discours populistes sont celles abritant des populations marquées par un faible niveau d’éducation, des revenus modestes, un passé industriel aujourd’hui révolu, et un fort taux de chômage.

Quant aux politiques austéritaires, notamment les réformes ayant réduit l’ampleur et l’accessibilité des aides sociales, elles fragilisent davantage des populations déjà vulnérables.

La mondialisation est un autre moteur puissant de cette inquiétude. Les régions les plus touchées par la concurrence internationale, en particulier la concurrence des importations manufacturières à bas coût, ont vu disparaître des milliers d’emplois sans bénéficier des gains économiques générés ailleurs.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Réinvestir les territoires : un défi pour l’État

Face à ces constats, la question se pose : le retour des services publics pourrait-il suffire à inverser la tendance ? Il faut rester prudent : si la restauration des infrastructures publiques peut contribuer à atténuer le sentiment de marginalisation, le vote « extrême » est aussi alimenté par des dynamiques plus profondes. En outre, le coût du maintien des services publics n’est pas à négliger, en particulier dans la situation de finances publiques dégradées que connaît la France.

La montée du chômage ou la désindustrialisation jouent également un rôle clé dans le rejet des partis traditionnels.

Pour lutter contre ces fractures, il s’agit aussi de repenser le développement des territoires, en tenant compte des besoins spécifiques de chaque région.

Réinvestir ces espaces laissés en déshérence ne sera pas une tâche facile. Mais à défaut d’une action rapide et adaptée, le risque est grand de voir se prolonger et s’amplifier une dynamique qui façonne déjà en profondeur le paysage politique français.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Quand la disparition des services publics alimente le vote populiste – https://theconversation.com/quand-la-disparition-des-services-publics-alimente-le-vote-populiste-255531

Trente ans après les derniers essais nucléaires français en Polynésie, un héritage toxique

Source: – By Roxanne Panchasi, Associate Professor, Department of History, Simon Fraser University

En visite officielle, au Parlement européen à Strasbourg en juillet 1995, Jacques Chirac se heurte à une protestation de la part de ses membres.
(European Parliament)

Le 13 juin 1995, le président Jacques Chirac annonçait la reprise des essais nucléaires dans le Pacifique Sud. La population de la Polynésie française attend encore une juste indemnisation pour les préjudices subis. En 2021, le président Macron a reconnu que la France avait une « dette » envers le peuple de Maō’hui Nui, appelant à l’ouverture d’archives clés. Une commission d’enquête parlementaire s’est emparée du sujet.


Ces derniers mois, la viabilité de l’arsenal nucléaire français a fait la une des journaux, entraînant des discussions sur un « parapluie nucléaire » français qui pourrait protéger ses alliés sur le continent européen. Face à la guerre entre la Russie et l’Ukraine, et aux déclarations du président russe Vladimir Poutine concernant la possibilité de déployer des armes nucléaires dans ce conflit, la question quant à la meilleure manière de défendre l’Europe crée une urgence inédite depuis l’époque la plus tendue de la guerre froide.

Malgré ses capacités nucléaires plus solides, les États-Unis, sous l’ère Donald Trump, semblent moins engagés dans la défense de leurs alliés de l’OTAN. Les débats sur le parapluie nucléaire français mis à part, ces discussions – combinées à l’augmentation des dépenses militaires dans le monde entier et à la résurgence des craintes d’une guerre nucléaire – rendent l’histoire française de la préparation nucléaire et de ses essais d’armes, douloureusement contemporaine.

Le 13 juin 1995, le président Jacques Chirac a annoncé que la France allait reprendre ses essais nucléaires dans le Pacifique Sud. Quelques semaines seulement après son élection, Jacques Chirac a mis fin à un moratoire de trois ans sur les essais que son prédécesseur, François Mitterrand, avait mis en place en avril 1992.

Jacques Chirac a insisté sur le fait que cette nouvelle série d’essais nucléaires était essentielle à la sécurité nationale de la France et au maintien de l’indépendance de sa force de dissuasion nucléaire. Les huit essais prévus au cours des mois suivants fourniraient, selon lui, les données nécessaires pour passer des explosions réelles à de futures simulations informatiques. Il a également déclaré que cela permettrait à la France de signer le Traité d’interdiction complète des essais nucléaires (CTBT) interdisant toutes les explosions nucléaires, à des fins militaires ou autres, d’ici à l’automne 1996.

L’histoire des essais nucléaires en France

Un reportage sur les essais nucléaires français dans le Pacifique Sud. (Disclose).

L’annonce faite par Jacques Chirac en juin 1995, suivie de la première nouvelle explosion en septembre de la même année, a suscité une vive opposition de la part des groupes écologistes et des pacifistes, ainsi que des protestations allant de Paris à Papeete, à travers la région Pacifique et dans le monde entier.

Des représentants des autres puissances nucléaires mondiales ont exprimé leur inquiétude face à la décision de la France de mener de nouveaux essais si près de l’entrée en vigueur d’une interdiction complète. Les gouvernements de l’Australie, de la Nouvelle-Zélande et du Japon ont également manifesté leur ferme opposition, en publiant des déclarations diplomatiques, ainsi qu’en appelant au boycott des produits français et en mettant en œuvre d’autres mesures de rétorsion.

Une posture défensive a constitué un pilier de la politique française en matière d’armement nucléaire depuis l’entrée du pays dans le club atomique en 1960, avec la détonation de « Gerboise Bleue », une bombe de 70 kilotonnes, à Reggane, en Algérie. Les trois essais atmosphériques suivants ainsi que les treize essais souterrains réalisés au Sahara ont entraîné de graves conséquences sanitaires et environnementales à long terme pour les populations de la région.

En 1966, le programme d’essais nucléaires de la France fut transféré à Maō’hui Nui, connue sous le nom colonial de « Polynésie française ».

Au cours des 26 années suivantes, 187 détonations nucléaires et thermonucléaires françaises supplémentaires furent réalisées, en surface et en souterrain, sur les atolls pacifiques de Moruroa et Fangataufa. Ces essais ont exposé la population locale à des niveaux dangereux de radiation, contaminé les réserves alimentaires et en eau, endommagé les coraux ainsi que d’autres formes de vie marine.

Ces expériences – ainsi que les six dernières détonations souterraines menées par la France en 1995 et 1996 – ont laissé un héritage toxique pour les générations futures.

Des préjudices persistants, une indemnisation insuffisante

Lorsque Jacques Chirac a exposé ses raisons pour la nouvelle série d’essais nucléaires de la France devant une salle pleine de journalistes réunis au palais de l’Élysée en juin 1995, il a insisté sur le fait que ces essais prévus, ainsi que toutes les détonations nucléaires françaises, n’avaient absolument aucune conséquence écologique.

Aujourd’hui, nous savons que cette affirmation était bien plus qu’inexacte. Il s’agissait d’un mensonge fondé sur des données et des conclusions qui ont gravement sous-estimé les effets néfastes du programme d’essais nucléaires français sur la santé des soldats français et du personnel non militaire présents sur les sites, sur les habitants des zones environnantes, ainsi que sur les environnements où ces explosions ont eu lieu.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Plus récemment, lors des Jeux olympiques de Paris 2024, il était difficile de ne pas ressentir l’évidente contradiction entre la « Polynésie française » en tant que paradis touristique et lieu idyllique pour les compétitions de surf, et celle d’un territoire marqué par l’injustice persistante envers les victimes des essais nucléaires – une réalité qui met en lumière l’histoire de l’impérialisme nucléaire de la France dans la région.

En 2010, le gouvernement français a adopté la loi Morin censée répondre à la souffrance des personnes gravement affectées par les radiations lors des détonations nucléaires françaises entre 1960 et 1996.

Le nombre de personnes ayant obtenu une reconnaissance et une indemnisation reste insuffisant, en particulier en Algérie. Sur les 2 846 demandes déposées – émanant seulement d’une fraction des milliers de victimes estimées – un peu plus de 400 personnes à Maō’hui Nui et une seule en Algérie ont été indemnisées depuis 2010.

En 2021, le président Emmanuel Macron a reconnu que la France avait une « dette » envers le peuple de Maō’hui Nui. Il a depuis appelé à l’ouverture d’archives clés liées à cette histoire, mais de nombreux efforts restent à faire sur tous les fronts.

Les conclusions d’une récente commission parlementaire française sur les effets des essais dans le Pacifique, dont la publication est prévue prochainement, pourraient contribuer à une plus grande transparence et à une meilleure justice pour les victimes à l’avenir.

À Maʻohi Nui, les demandes de reconnaissance et de réparation sont étroitement liées au mouvement indépendantiste, tandis que l’impact et l’héritage des explosions nucléaires en Algérie restent une source de tensions persistantes avec la France, d’autant plus liée à son passé colonial.

L’avenir du traité d’interdiction des essais nucléaires

En janvier 1996, la France a procédé à son dernier essai nucléaire en faisant exploser une bombe de 120 kilotonnes sous terre dans le Pacifique Sud. En septembre de la même année, elle a signé le Traité d’interdiction complète des essais nucléaires (TICE), rejoignant les États-Unis, la Russie, le Royaume-Uni, la Chine et 66 autres États non dotés d’armes nucléaires dans leur engagement à ne plus effectuer d’explosions nucléaires, quel qu’en soit le motif.

Près de 30 ans plus tard, le TICE n’est toujours pas entré en vigueur. Bien que la majorité des signataires l’aient ratifié, la Chine, l’Égypte, l’Iran, Israël et les États-Unis figurent parmi les neuf pays qui ne l’ont pas encore fait. Par ailleurs, la Russie a retiré sa ratification en 2023. Parmi les principaux non-signataires se trouvent l’Inde, la Corée du Nord et le Pakistan – trois États dotés de l’arme nucléaire ayant mené leurs propres essais depuis 1996.

En raison de ces exceptions majeures à l’interdiction des essais, les perspectives d’un projet aussi ambitieux que le Traité sur l’interdiction des armes nucléaires de 2017, qu’aucun État possédant l’arme nucléaire n’a signé à ce jour, restent pour le moins incertaines.

The Conversation

Roxanne Panchasi a reçu des financements du Conseil de recherches en sciences humaines du Canada (CRSH).

ref. Trente ans après les derniers essais nucléaires français en Polynésie, un héritage toxique – https://theconversation.com/trente-ans-apres-les-derniers-essais-nucleaires-francais-en-polynesie-un-heritage-toxique-258994

Hygiène : les barbes sont-elles des nids à microbes ?

Source: – By Primrose Freestone, Senior Lecturer in Clinical Microbiology, University of Leicester

Les barbes fournies demandent un entretien certain. Bernardo Emanuelle/Shutterstock

Les barbes les plus fournies suscitent souvent un mélange d’admiration, pour le style qu’elles confèrent à leurs porteurs, et de suspicion, quant à leur propreté et aux problèmes d’hygiène qu’elles pourraient poser. À tort, ou à raison ?


La peau humaine héberge des milliards de microorganismes – non seulement des bactéries, pour l’essentiel, mais aussi des champignons et des virus. Or, la pilosité faciale constitue un environnement propice à leur prolifération. Des travaux de recherche ont révélé que les barbes abritent une population microbienne particulièrement dense et variée, ce qui a contribué à alimenter l’idée selon laquelle elles seraient intrinsèquement peu hygiéniques.

On a même récemment pu lire, dans les colonnes du très sérieux quotidien Washington Post, qu’une barbe « moyenne » pouvait contenir davantage de germes que certaines cuvettes de WC… Est-ce à dire que porter la barbe fait courir un risque sanitaire ?

Un examen attentif des données scientifiques disponibles révèle une réalité plus nuancée.

Des études contradictoires

La composition microbienne de la peau varie selon la zone considérée. Elle dépend de divers facteurs, tels que la température, le pH (qui rend compte du caractère acide ou basique d’un milieu), l’humidité et la disponibilité en nutriments. Le port de la barbe crée un milieu chaud et souvent humide où le sébum – et parfois les résidus alimentaires – peuvent s’accumuler, ce qui constitue des conditions idéales pour la prolifération microbienne.

Cette situation favorable est d’autant plus propice aux microorganismes que notre visage est exposé en permanence à de nouveaux contaminants, notamment par l’intermédiaire de nos mains, que nous portons fréquemment à notre visage.

Les premières préoccupations scientifiques quant à l’hygiène des barbes remontent à plus de cinquante ans. Des études pionnières avaient à l’époque démontré que la pilosité faciale pouvait retenir bactéries et toxines bactériennes, même après nettoyage, ce qui avait alimenté l’idée que la barbe aurait pu constituer un réservoir bactérien dangereux pour autrui, car exposant à des risques d’infection.

Chez les professionnels de santé, le port de la barbe a longtemps été controversé, notamment dans les hôpitaux, où la lutte contre la transmission des pathogènes est cruciale. Les résultats des recherches menées en milieu hospitalier sont toutefois contrastés. Certes, une étude a révélé que les soignants barbus avaient une charge bactérienne faciale plus élevée que leurs homologues rasés de près.

D’autres travaux, qui avaient comparé la charge microbienne de pilosités faciales humaines avec celle de pelages de chiens (pour savoir s’il existait un risque à employer un même appareil d’IRM pour les uns et pour les autres), ont révélé que la plupart des barbes hébergent nettement plus de microbes que le pelage des chiens, et notamment davantage de bactéries potentiellement pathogènes. La conclusion était claire : « Utiliser les mêmes machines d’IRM pour les chiens et les êtres humains ne présentent aucun risque pour ces derniers ».

Un chien se tenant devant une machine d’IRM.
Chiens et humains peuvent partager les mêmes IRM sans risque particulier.
Dmytro Zinkevych/Shutterstock

Cependant, d’autres recherches remettent en cause l’idée que le port de la barbe pourrait être à l’origine d’un surrisque infectieux. Ainsi, des travaux comparant des soignants barbus avec leurs collègues glabres n’ont mis en évidence aucune différence significative de colonisation bactérienne entre les uns et les autres. Les mêmes chercheurs ont, par ailleurs, observé que les praticiens barbus étaient moins souvent porteurs de la bactérie Staphylococcus aureus, qui est le principal agent à l’origine d’infections nosocomiales (infections acquises à l’hôpital). Ils n’ont pas non plus remarqué de taux d’infection plus élevés chez les patients opérés par des chirurgiens barbus (et portant un masque) que chez les autres.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Les barbes peuvent toutefois véhiculer certaines infections cutanées, telles que l’impétigo, un rash (ou éruption) contagieux souvent dû à S. aureus, lequel est malgré tout fréquemment présent au niveau de la pilosité faciale. Dans de rares cas, on peut aussi retrouver dans certaines barbes des parasites tels que les poux du pubis (communément appelés morpions) – qui, comme leur nom l’indique, sont habituellement plutôt localisés au niveau inguinal. En cas de mauvaise hygiène, ou de contact prolongé avec une personne infectée, ceux-ci peuvent en effet finir par coloniser la barbe, les sourcils voire les cils.

Maintenir une bonne hygiène de barbe

Une barbe négligée peut favoriser irritation, inflammation et infection. La peau sous la barbe – riche en vaisseaux sanguins, terminaisons nerveuses et cellules immunitaires – est en effet très sensible aux agressions microbiologiques et environnementales. L’accumulation de sébum, de cellules mortes, de résidus alimentaires et de polluants peut l’irriter, et favoriser la croissance de champignons et de bactéries.

En définitive, est-ce que les barbes sont sales ? Comme souvent, tout dépend du soin qui leur est porté. Les experts recommandent vivement de laver quotidiennement sa barbe et son visage afin d’éliminer saletés, sébum, allergènes et cellules mortes, et prévenir ainsi la prolifération microbienne.

Les dermatologues conseillent également de procéder à une hydratation, pour éviter la sécheresse. Autres recommandations : peigner régulièrement sa barbe avec un peigne consacré à cet usage, afin d’en éliminer les saletés, et la tailler régulièrement. Ces quelques gestes quotidiens améliorent l’esthétique de la barbe, et permettent de la garder en pleine santé, en assurant une hygiène irréprochable.

The Conversation

Primrose Freestone ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Hygiène : les barbes sont-elles des nids à microbes ? – https://theconversation.com/hygiene-les-barbes-sont-elles-des-nids-a-microbes-258850

Abandon du Nutri-Score de Danone : retrait de sa qualité de société à mission ?

Source: – By Stéphane Besançon, Associate Professor in Global Health at the Conservatoire National des Arts et Métiers (CNAM) / CEO NGO Santé Diabète, Conservatoire national des arts et métiers (CNAM)

En juin 2020, Danone est la première entreprise cotée au CAC 40 à obtenir cette qualité juridique. Pourra-t-elle encore le rester longtemps ? HJBC/Shutterstock

En abandonnant le Nutri-Score, Danone vient-elle d’acter le retrait de sa qualité de société à mission ? Toutes les hypothèses sont sur la table… Un véritable crash test pour l’avenir des entreprises à mission.


Danone décide le 5 septembre 2024 d’abandonner le logo nutritionnel Nutri-Score pour cinq de ses marques : Danonino, Actimel, Activia, Danone, HiPro. Le groupe d’agroalimentaire l’adopte en 2017. Il lui permet de remplir parfaitement sa mission d’information auprès des consommateurs pour les aider à faire leurs choix alimentaires de façon éclairée.

Une actualité en dissonance avec sa qualité de société à mission acquise en 2020 ? En France ce dispositif est créé par la loi Pacte de 2019. Il permet aux entreprises d’affirmer leur engagement dans la poursuite d’objectifs environnementaux et sociaux, et non plus seulement économiques. Un organisme tiers indépendant (OTI) assure la vérification de l’atteinte de ces objectifs et un comité de mission est chargé du suivi de l’exécution de cette mission.

Le 8e baromètre de l’Observatoire des sociétés à mission souligne le succès de cette démarche : fin 2024, 1 961 sociétés à mission sont recensées, soit un triplement en trois ans, dont Doctolib, Transdev, KMPG, KS Groupe, Camif, Bel, etc. Alors, Danone qui pourtant a été la première entreprise cotée au CAC 40 à obtenir cette qualité juridique, pourra-t-il rester une entreprise à mission ?

Santé des personnes

Pour illustrer sa vision et son ambition, Danone a choisi pour raison d’être : « apporter la santé par l’alimentation au plus grand nombre ». Dans ce cadre, Danone s’est fixé quatre objectifs généraux dont le premier vise à :

« Avoir un impact positif sur la santé des personnes au niveau local grâce à un portefeuille de produits plus sains, avec des marques encourageant de bons choix nutritionnels, et promouvoir de bonnes habitudes alimentaires. »

Le groupe Danone s’est engagé d’un côté à produire des aliments de meilleure qualité pour la santé des enfants, moins sucrés. De l’autre, permettre aux consommateurs de faire des choix nutritionnels éclairés, à l’aide d’un système d’information nutritionnelle interprétatif sur les emballages ou en ligne. Des engagements, sous forme de jalons quantifiés, sont pris, comme le rappelle le rapport du comité de mission de Danone en avril 2024 destiné à être présenté aux actionnaires lors de leur Assemblée générale.

Retour en arrière

Danone, qui a fortement soutenu le Nutri-Score depuis son officialisation en France en 2017, explique son retour en arrière. Selon le groupe, la version mise à jour de l’algorithme du Nutri-Score par le comité scientifique européen en charge de sa révision « pénaliserait » plus le classement de ses yaourts à boire et boissons végétales sucrées en les classant moins bien sur l’échelle du Nutri-Score par rapport à la « version initiale ».




À lire aussi :
Pourquoi Danone retire le Nutri-score de ses yaourts à boire


Avec le désengagement du Nutri-Score pour certaines de ses marques phares, moins de produits afficheront un logo interprétatif en 2025. Un recul par rapport à la situation de 2023. La question est de savoir si, avec ce retrait, Danone est en mesure d’atteindre les objectifs quantifiés annoncés dans le rapport de 2024 publié par son comité de mission. Le cas échéant, assiste-t-on à un retour en arrière par rapport à l’avancée des engagements évalués en 2023 et présentés dans ce même rapport ?


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


On trouve la réponse à cette question dans le rapport de mission 2024 paru le 02 avril 2025. Ses résultats démontrent que sur la question de l’étiquetage nutritionnel, les engagements pris ne sont pas tenus et que les objectifs chiffrés ne sont pas atteints. Malgré ces écarts, le comité de mission conclut que Danone a honoré l’intégralité de ses engagements en 2024. Cette conclusion peut interroger sur le rôle réel du comité de mission de Danone.

Rôle du comité de mission

Le comité de mission de Danone est composé de huit membres : Pascal Lamy, président du comité de mission, Arancha González, Lise Kingo, Hiromichi Mizuno, David Nabarro, Ron Oswald, Gabriela Ilian Ramos et Emna Lahmer. Son rôle ? Veiller à ce que Danone respecte ses engagements en tant que société à mission. Comment ? En évaluant les progrès réalisés et en formulant des recommandations à travers un rapport joint au rapport de gestion et présenté annuellement à l’Assemblée générale ordinaire de l’entreprise.

Actimel est un produit phare de Danone concerné par la suppression du Nutri-Score.
stoatphoto/Shutterstock

Il aurait été attendu que le comité de mission notifie, dans son dernier rapport 2024, le désengagement de Danone sur le Nutri-Score. Par conséquent, la non-atteinte de l’objectif concernant l’aide aux consommateurs pour faire des choix éclairés et la non atteinte du jalon « 95 % des volumes vendus de produits laitiers et d’origine végétale et de boissons aromatisées sont assortis d’un étiquetage nutritionnel interprétatif sur les emballages et/ou en ligne ».

Malheureusement, cela n’a pas été le cas. Le rapport de mission 2024 paru le 02 avril 2025 conclut :

« Concernant le bilan des résultats déjà obtenus, nous pouvons affirmer que Danone a honoré ses engagements. En 2024, l’entreprise a atteint ou dépassé tous les objectifs dont nous avons accepté de suivre la réalisation, à une exception près (la formation en ligne des salariés) – à laquelle Danone devrait remédier cette année. »

Plus préoccupant, le rapport du comité de mission affirme que « 95 % des volumes vendus de produits laitiers et d’origine végétale et de boissons aromatisées sont assortis d’un étiquetage nutritionnel interprétatif sur les emballages et/ou en ligne ». Pour combler le Nutri-Score, l’entreprise déploiera les Health Star Rating (HSR), utilisés en Australie et en Nouvelle-Zélande. Leur mode de calcul repose sur l’algorithme que le Nutri-Score utilisait avant sa mise à jour. Remplacer un logo qui informe le consommateur sur la forte teneur en sucre de gammes de produits peut-il être interprété comme une stratégie pour désinformer et tromper le consommateur ?

Retrait de la qualité par l’OTI ?

Si une entreprise ne tient pas ses engagements, elle peut perdre sa qualité de société à mission. L’organisme tiers indépendant (OTI), en charge de vérifier l’exécution des objectifs sociaux et environnementaux de l’entreprise, peut rendre un avis négatif. Il doit indiquer pourquoi l’entreprise ne respecte pas ou n’atteint pas les objectifs qu’elle s’est fixés. Le ministère public (procureurs de la République, ndlr) ou toute personne intéressée peut saisir le président du tribunal de commerce pour le retrait de la mention de société à mission.

Mazars est l’organisme tiers indépendant (OTI) de Danone. Le rapport du comité de mission de Danone évaluant l’année 2024 contient en annexe B « le rapport de l’organisme tiers indépendant sur la vérification de l’exécution des objectifs sociaux et environnementaux ». Le rapport du comité de mission 2024 contient la même annexe que le rapport du comité de mission 2023 à savoir l’analyse de la période allant du 1er janvier 2022 au 31 décembre 2023.

L’OTI n’a pas encore fourni de rapport concernant l’année 2024, année où Danone, par le choix du retrait du Nutri-Score, n’a pas été en mesure de respecter pleinement les engagements pris ainsi que les objectifs fixés.

Il est maintenant central d’attendre le rapport de l’OTI couvrant l’année 2024 pour savoir, si en analysant les données de l’année 2024, il joue pleinement son rôle. Rendra-t-il un avis négatif indiquant que la société ne respecte pas et n’a pas atteint certains de ces objectifs qu’elle s’était fixés ? Le rendu d’un avis négatif serait une première pour une société à mission. Il montrerait que les éléments économiques et financiers ne doivent pas l’emporter sur la poursuite d’objectifs visant la protection de la santé dans le cas d’une entreprise à mission.

DROIT DE REPONSE DU GROUPE DANONE, envoyé le 19 juin 2025

« L’article en question fonde son raisonnement sur une information fausse : l’engagement de société à mission de Danone ne porte pas sur le Nutri-Score. L’objectif opérationnel auquel il fait référence (parmi les 12 que s’est fixés l’entreprise dans le cadre de son statut de société à mission) est clair et formulé ainsi : « à fin 2025, Danone s’engage à rendre disponible sur emballage ou en ligne un indicateur d’information nutritionnelle interprétative pour 95% de ses produits dans le monde ».

Sur la base de cette allégation erronée, l’article multiplie les fausses informations, que nous vous listons ci-dessous :

-Il indique que les « résultats [du rapport de mission 2024] démontrent que sur la question de l’étiquetage nutritionnel, les engagements pris ne sont pas tenus et que les objectifs chiffrés ne sont pas atteints ». Cette affirmation est fausse. Le rapport 2024 du Comité de mission indique (p.10) : « Danone a ainsi dépassé son jalon 2024, atteignant 71,5 % de volumes vendus de produits laitiers et d’origine végétale et de boissons aromatisées (Aquadrinks) assortis d’un étiquetage nutritionnel interprétatif sur les emballages et/ou en ligne ».

-Par ailleurs, l’auteur avance qu’« il aurait été attendu que le comité de mission notifie, dans son dernier rapport 2024, le désengagement de Danone sur le Nutri-Score. Par conséquent, la non-atteinte de l’objectif concernant l’aide aux consommateurs pour faire des choix éclairés et la non atteinte du jalon « 95 % des volumes vendus de produits laitiers et d’origine végétale et de boissons aromatisées sont assortis d’un étiquetage nutritionnel interprétatif sur les emballages et/ou en ligne ». L’ensemble de cette affirmation est faux. D’abord, le rapport du Comité de mission note bien, à plusieurs reprises, le retrait de l’étiquetage nutritionnel Nutri-Score des produits laitiers et d’origine végétale à boire de Danone. Ensuite, l’objectif de 95% mentionné est un objectif à 2025, comme indiqué ci-dessus et précisément indiqué dans le rapport du Comité de mission. L’auteur ne peut donc en conclure qu’il n’a pas été atteint.

-Nous dénonçons par ailleurs vivement l’allégation de l’auteur, qui laisse entendre que l’adoption du système HSR serait « une stratégie pour désinformer et tromper le consommateur ». Le système HSR est un système d’étiquetage nutritionnel interprétatif fondé sur la science et référence de plusieurs organisations internationales pour évaluer la qualité nutritionnelle des portefeuilles de produits de grande consommation. Il ne saurait être assimilé à une entreprise de désinformation.

Danone est fier d’être reconnu pour notre mission d’apporter la santé par l’alimentation au plus grand nombre en figurant à la 1ère place de l’indice mondial d’accès à la nutrition 2024 (ATNI). Faire preuve de transparence pour aider les consommateurs à faire des choix d’alimentation sains et équilibrés est une priorité de notre Groupe.

Nous continuerons donc à soutenir la mise en place d’un étiquetage nutritionnel interprétatif à une échelle européenne, scientifiquement étayé, facile à comprendre pour le consommateur et permettant de distinguer les aliments à la fois au sein de leur catégorie et entre différentes catégories. »

The Conversation

Je travaille pour une ONG intervenant dans la santé

ref. Abandon du Nutri-Score de Danone : retrait de sa qualité de société à mission ? – https://theconversation.com/abandon-du-nutri-score-de-danone-retrait-de-sa-qualite-de-societe-a-mission-253169

Jews were barred from Spain’s New World colonies − but that didn’t stop Jewish and converso writers from describing the Americas

Source: – By Flora Cassen, Senior Faculty, Hartman Institute and Associate Professor of History and Jewish Studies, Washington University in St. Louis

An auto-da-fé − a public punishment for heretics − in San Bartolome Otzolotepec, in present-day Mexico. Museo Nacional de Arte via Wikimedia Commons

Every few years, a story about Columbus resurfaces: Was the Genoese navigator who claimed the Americas for Spain secretly Jewish, from a Spanish family fleeing the Inquisition?

This tale became widespread around the late 19th century, when large numbers of Jews came from Russia and Eastern Europe to the United States. For these immigrants, 1492 held double significance: the year of Jews’ expulsion from Spain, as well as Columbus’ voyage of discovery. At a time when many Americans viewed the explorer as a hero, the idea that he might have been one of their own offered Jewish immigrants a link to the beginnings of their new country and the American story of freedom from Old World tyranny.

The problem with the Columbus-was-a-Jew theory isn’t just that it’s based on flimsy evidence. It also distracts from the far more complex and true story of Spanish Jews in the Americas.

In the 15th century, the kingdom’s Jews faced a wrenching choice: convert to Christianity or leave the land their families had called home for generations. Portugal’s Jews faced similar persecution. Whether they sought a new place to settle or stayed and hoped to be accepted as members of Christian society, both groups were searching for belonging.

A display case shows an open book with Hebrew text, as well as leather religious objects and a velvet bag.
Jewish religious items at the Museo Metropolitano in Monterrey, Mexico.
Thelmadatter/Wikimedia Commons, CC BY-SA

We are scholars of Jewish history and have been working on the first English translations of two texts from the 16th century. “The Book of New India,” by Joseph Ha-Kohen, and the spiritual writings of Luis de Carvajal are two of the earliest Jewish texts about the Americas.

The story of the New World is not complete without the voices of Jewish communities that engaged with it from the very beginning.

Double consciousness

The first Jews in the Americas were, in fact, not Jews but “conversos,” meaning “converts,” and their descendants.

After a millennium of relatively peaceful and prosperous life on Iberian soil, the Jews of Spain were attacked by a wave of mob violence in the summer of 1391. Afterward, thousands of Jews were forcibly converted.

Two people stand in a tall hall with intricately carved windows and designs.
Synagogue of El Tránsito, a 14th-century Jewish congregation in Toledo, Spain.
Selbymay/Wikimedia Commons, CC BY-SA

While conversos were officially members of the Catholic Church, neighbors looked at them with suspicion. Some of these converts were “crypto-Jews,” who secretly held on to their ancestral faith. Spanish authorities formed the Inquisition to root out anyone the church considered heretics, especially people who had converted from Judaism and Islam.

In 1492, after conquering the last Muslim stronghold in Spain, monarchs Ferdinand and Isabella gave the remaining Spanish Jews the choice of conversion or exile. Eventually, people who converted from Islam would be expelled as well.

Among Jews who converted, some sought new lives within the rapidly expanding Spanish empire. As the historian Jonathan Israel wrote, Jews and conversos were both “agents and victims of empire.” Their familiarity with Iberian language and culture, combined with the dispersion of their community, positioned them to participate in the new global economy: trade in sugar, textiles, spices – and the trade in human lives, Atlantic slavery.

Yet conversos were also far more vulnerable than their compatriots: They could lose it all, even end up burned alive at the stake, because of their beliefs. This double consciousness – being part of the culture, yet apart from it – is what makes conversos vital to understanding the complexities of colonial Latin America.

By the 17th century, once the Dutch and the English conquered parts of the Americas, Jews would be able to live there. Often, these were families whose ancestors had been expelled from the Iberian peninsula. In the first Spanish and Portuguese colonies, however, Jews were not allowed to openly practice their faith.

Secret spirituality

One of these conversos was Luis de Carvajal. His uncle, the similarly named Luis de Carvajal y de la Cueva, was a merchant, slave trader and conquistador. As a reward for his exploits he was named governor of the New Kingdom of León, in the northeast of modern-day Mexico. In 1579 he brought over a large group of relatives to help him settle and administer the rugged territory, which was made up of swamps, deserts and silver mines.

A statue of a man looking deep in thought as he sits on a horse.
A statue in Monterrey, Mexico, of Luis Carvajal y de la Cueva.
Ricardo DelaG/Wikimedia Commons, CC BY-SA

The uncle was a devout Catholic who attempted to shed his converso past, integrating himself into the landed gentry of Spain’s New World empire. Luis the younger, however, his potential heir, was a passionate crypto-Jew who spent his free time composing prayers to the God of Israel and secretly following the commandments of the Torah.

When Luis and his family were arrested by the Inquisition in 1595, his book of spiritual writings was discovered and used as evidence of his secret Jewish life. Luis, his mother and sister were burned at the stake, but the small, leather-bound diary survived.

A black and white illustration of a woman about to be burned at the stake.
A 19th-century depiction of the execution of Luis de Carvajal the Younger’s sister.
‘El Libro Rojo, 1520-1867’ via Wikimedia Commons

Luis’ religious thought drew on a wide range of early modern Spanish culture. He used a Latin Bible and drew inspiration from the inwardly focused spirituality of Catholic thinkers such as Fray Luis de Granada, a Dominican theologian. He met with the hermit and mystic Gregorio López. He discovered passages from Maimonides and other rabbis quoted in the works of Catholic theologians whom he read at the famed monastery of Santiago de Tlatelolco, in Mexico City, where he worked as an assistant to the rector.

His spiritual writings are deeply American: The wide deserts and furious hurricanes of Mexico were the setting of his spiritual awakenings, and his encounters with the people and cultures of the emerging Atlantic world shaped his religious vision. This little book is a unique example of the brilliant, creative culture that developed in the crossing from Old World to New, born out of the exchange and conflict between diverse cultures, languages and faiths.

An open manuscript with large lettering in gold and black.
A glimpse of Luis de Carvajal’s spiritual writings, photographed in New York City.
Ronnie Perelis

More than translation

Spanish Jews who refused to convert in 1492, meanwhile, had been forced into exile and barred from the kingdom’s colonies.

The journey of Joseph Ha-Kohen’s family illustrates the hardships. After the expulsion, his parents moved to Avignon, the papal city in southern France, where Joseph was born in 1496. From there, they made their way to Genoa, the Italian merchant city, hoping to establish themselves. But it was not to be. The family was repeatedly expelled, permitted to return, and then expelled again.

Despite these upheavals, Ha-Kohen became a doctor and a merchant, a leader in the Jewish community – earning the respect of the Christian community, too. Toward the end of his life, he settled in a small mountain town beyond the city’s borders and turned to writing.

After a book on wars between Christianity and Islam, and another one on the history of the Jews, he began a new project. Ha-Kohen adapted “Historia General de las Indias,” an account of the Americas’ colonization by Spanish historian Francisco López de Gómara, reshaping the text for a Jewish audience.

A faded title page of a manuscript, with printed writing in Hebrew.
A 1733 edition of ‘Divrei Ha-Yamim,’ Ha-Kohen’s book about wars between Christian and Muslim cultures.
John Carter Brown Library via Wikimedia Commons

Ha-Kohen’s work was the first Hebrew-language book about the Americas. The text was hundreds of pages long – and he copied his entire manuscript nine times by hand. He had never seen the Americas, but his own life of repeated uprooting may have led him to wonder whether Jews would one day seek refuge there.

Ha-Kohen wanted his readers to have access to the text’s geographical, botanical and anthropological information, but not to Spain’s triumphalist narrative. So he created an adapted, hybrid translation. The differences between versions reveal the complexities of being a European Jew in the age of exploration.

Ha-Kohen omitted references to the Americas as Spanish territory and criticized the conquistadors for their brutality toward Indigenous peoples. At times, he compared Native Americans with the ancient Israelites of the Bible, feeling a kinship with them as fellow victims of oppression. Yet at other moments he expressed estrangement and even revulsion at Indigenous customs and described their religious practices as “darkness.”

Translating these men’s writing is not just a matter of bringing a text from one language into another. It is also a deep reflection on the complex position of Jews and conversos in those years. Their unique vantage point offers a window into the intertwined histories of Europe, the Americas and the in-betweenness that marked the Jewish experience in the early modern world.

The Conversation

The authors do not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. Jews were barred from Spain’s New World colonies − but that didn’t stop Jewish and converso writers from describing the Americas – https://theconversation.com/jews-were-barred-from-spains-new-world-colonies-but-that-didnt-stop-jewish-and-converso-writers-from-describing-the-americas-258278

Energies renouvelables, voitures électriques… quels sont leurs effets sur le réseau électrique ?

Source: The Conversation – France (in French) – By Nouredine Hadjsaïd, Professeur à Grenoble INP, directeur du G2Elab, Grenoble INP – UGA

Après la tentative de moratoire sur les énergies renouvelables du Rasemblement national en juin, c’est le ministre de l’intérieur Bruno Retailleau (Les Républicains) qui a demandé l’arrêt des subventions publiques à l’éolien et au photovoltaïque, estimant que ces énergies « n’apportent au mix énergétique français qu’une intermittence coûteuse à gérer ». Des propos dénoncés comme « irresponsables » par la ministre de la transition écologique, Agnès Pannier-Runacher.

Est-ce vraiment le cas ? Certes, la transition énergétique et la décarbonation de l’économie font peser des contraintes inédites sur les réseaux électriques. Les incertitudes de planification augmentent, à la fois du fait de la variabilité des énergies renouvelables sensibles aux conditions météorologiques (solaire, éolien…). Mais le problème vient aussi de la montée en puissance du véhicule électrique, dont le lieu de consommation change au cours du temps. Des défis qu’il est possible de relever, à condition de s’en donner les moyens.

Quant à l’augmentation des capacités nucléaires défendue par Bruno Retailleau, elle serait très coûteuse car elle impliquerait de sous-exploiter ces nouvelles installations une partie de l’année.


On l’appelle « fée électricité ». De fait, les réseaux électriques sont l’une des infrastructures les plus emblématiques jamais conçues par l’humain. Ils sont aussi l’une des plus complexes. Essentiels à l’électrification de nos sociétés humaines, ils sont devenus cruciaux pour d’autres infrastructures vitales, telles que les transports, les technologies de l’information en passant par la gestion des ressources en eau.

Ces réseaux sont aussi très étendus : leur échelle est celle de l’Europe, et même au-delà. De ce fait, ils peuvent être sources de tensions du fait du jeu d’interdépendances complexes et du comportement non linéaire des systèmes électriques. Ceci peut provoquer quelques fois des blackouts, comme on l’a vu en Espagne, fin avril 2025.

S’ajoute désormais l’impératif de transition énergétique et de décarbonation de l’économie. Pour atteindre la neutralité carbone en 2050, nous misons, en grande partie, sur une électrification encore plus poussée de nos usages et des sources d’énergies (renouvelables).

En cela, les réseaux électriques sont la véritable « colonne vertébrale » de la neutralité carbone. Déjà complexe à la base, ils font face aujourd’hui à de nouveaux défis dans le cadre de la décarbonation, qui ajoute un étage de complexité supplémentaire. Mais des pistes existent.




À lire aussi :
Avenir énergétique de la France : le texte du gouvernement est-il à la hauteur des enjeux ?


Les réseaux électriques, un système complexe…

Le principal facteur de complexité des systèmes électriques tient à la nécessité d’équilibrer la production (l’offre) et la consommation (la demande), dans un contexte où les capacités de stockage d’électricité sont limitées. De nombreuses technologies de stockage de l’électricité existent et sont en cours de développement. Mais, aujourd’hui, les moyens les plus répandus pour, les réseaux électriques, sont le stockage par turbinage-pompage sur certaines infrastructures hydroélectriques

Cet équilibre est fait à travers les réseaux électriques. Ces derniers, grâce au foisonnement qu’ils permettent entre les divers moyens de production et les diverses formes d’usage et de consommation, permettent à chaque utilisateur d’accéder à la source d’énergie la plus disponible et la plus économique à chaque instant. Ceci lui permet de bénéficier de la concurrence éventuelle entre les différentes sources d’énergie – même les plus éloignées – pour bénéficier des coûts les plus bas.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Cela permet aussi de faire face plus facilement aux diverses défaillances pouvant survenir dans le système électrique. En effet, en cas de défaillance d’une unité de production, le caractère interconnecté et mutualisé du réseau permet facilement à une autre de prendre le relais. Les réseaux électriques, à travers la mutualisation à large échelle qu’ils permettent, sont donc une source d’économie et de sécurité pour tous leurs utilisateurs.

… rendu plus complexe encore par l’enjeu de décarbonation

Pour atteindre la neutralité carbone, il faut poursuivre et accélérer l’électrification des usages (par exemple, passage du véhicule thermique au véhicule électrique) tout en augmentant les capacités de production d’électricité.

À titre indicatif, l’humanité a mis environ cent cinquante ans pour passer de 0 à près de 25 % de part d’électricité dans sa consommation d’énergie finale.

Affiche de la fin du XIXᵉ siècle vantant l’énergie électrique.

Or, pour atteindre les objectifs de la neutralité carbone, il faudra que la part d’électricité dans cette consommation d’énergie finale passe d’environ 25 % à 60 %, et cela en moins de vingt-cinq ans : c’est dire l’ampleur du défi. C’est une véritable seconde révolution électrique qui nous attend, la première étant celle qui a apporté la lumière à l’humanité – la fameuse « fée électricité » – à la fin du XIXe siècle.

Il faut également prendre en compte l’impact des énergies renouvelables (EnR) sur les systèmes électriques, en particulier, la variabilité de certaines productions du fait de leur dépendance des conditions météorologiques, ainsi que du caractère décentralisé et distribué pour une grande partie d’entre elles.

Le développement rapide des véhicules électriques est également un défi, comme leur lieu de consommation (en fonction du site de recharge) n’est pas constant dans le temps. Enfin, la complexité croissante du réseau européen interconnecté, dans un contexte de fort développement des EnR, constitue un enjeu supplémentaire.

Il est à noter que la grande majorité des EnR mais aussi les véhicules électriques rechargeables sont connectés au niveau des réseaux de distribution. Cependant, ces derniers n’ont pas été conçus pour raccorder en masse des sources d’énergie ni des charges « qui se déplacent », avec un niveau d’incertitude en constante augmentation, qui complexifient encore la gestion de ces réseaux.

Les réseaux électriques sont au cœur de cette révolution, qui pose des défis scientifiques, technologiques, économiques, sociologiques et réglementaires considérables.




À lire aussi :
La flexibilité électrique, ou comment décaler nos usages pour optimiser la charge du réseau


Une réalité physique : équilibrer production et consommation en temps réel

Le réseau électrique a ceci d’unique que la consommation (la demande) doit être égale à la production (l’offre) à tout instant. Les centrales de production interconnectées produisent à la même fréquence électrique, sous peine de perte de synchronisme. Une bonne analogie pour comprendre le phénomène est celle du vélo tandem. Pour qu’il roule à la vitesse souhaitée, il faut que les deux cyclistes pédalent à la même vitesse.

Des mécanismes de régulation permettant d’assurer cet équilibre sont donc essentiels à la stabilité du réseau, notamment en fréquence et en tension. Trois niveaux de réglages peuvent intervenir : le réglage primaire, qui vise à compenser rapidement le déséquilibre le réglage secondaire, qui vise à coordonner les réglages pour corriger les écarts qui peuvent persister localement du fait du réglage primaire et revenir aux valeurs de référence (p.ex., 50 Hz) et, enfin, le réglage tertiaire, qui intervient pour reconstituer les réserves. À la différence des réglages primaires et secondaires qui sont automatiques, le réglage tertiaire est mis en œuvre manuellement par le gestionnaire du réseau.

La difficulté, pour ces mécanismes de régulation, tient surtout aux temps de réponse nécessaires. Les dynamiques considérées, en termes d’ordres de grandeur, vont de la dizaine de secondes à une dizaine de minutes. Le temps à disposition pour réagir à un déséquilibre est donc très faible. Lors du black-out en Espagne, qui a récemment fait l’actualité, il ne s’est produit que 19 secondes entre la première perte de production et le blackout !

La complexification croissante des systèmes électriques tend à réduire davantage le temps de réaction disponible pour faire face à une défaillance. En effet, la décarbonation ajoute plusieurs difficultés supplémentaires dans la gestion dynamique des réseaux électriques :

  • elle impose de gérer des systèmes de production non pilotables (par exemple : éoliennes, solaire…) et souvent largement dispersés sur le territoire. De ce fait, il est plus difficile de prédire avec précision, à l’échelle locale, la production électrique qui sera disponible à un instant donné.

  • De même, il existe de plus en plus de charges « sans domicile fixe » (voitures électriques, par exemple) et de consommations qui changent de profil au cours du temps, qui compliquent les modèles traditionnels de prévision de la consommation.

  • De plus en plus d’EnR sont raccordées au réseau électrique à travers des interfaces basées sur l’électronique de puissance, qui introduisent moins « d’inertie » en cas de déséquilibre momentané que les systèmes électromécaniques traditionnels (à base d’alternateurs directement raccordés au réseau, par exemple via des turbines hydrauliques ou des centrales thermiques). De ce fait, leur raccordement impose des temps de réaction bien plus rapides que dans le cas des alternateurs classiques.

Tous ces facteurs d’incertitude représentent un défi pour la planification des nouvelles infrastructures à long terme.

Les défis pour l’avenir

Compte tenu de cette complexité, il n’existe pas de solution unique. Le salut viendra d’un savant cocktail de solutions multi-échelles, bien coordonnées entre elles avec une intelligence accrue.

Cela peut passer par :

  • des dispositifs de contrôle-commande et de pilotage avancés, que ce soit au niveau des composants du réseau ou des systèmes de gestion et de coordination,

  • des dispositifs et systèmes de protection intelligents,

  • davantage de coordination des solutions au niveau local (distribution) et globale (transport, stockage),

  • la généralisation et l’extension des solutions de flexibilité à tous les niveaux (consommation, production classique et production EnR).

Le défi tient notamment au caractère coûteux du stockage. Pour stocker de l’énergie, il faut d’abord l’acheter pour la stocker puis la déstocker au moment où l’on en a besoin. Ces deux opérations (stockage puis déstockage) entraînent des pertes énergétiques – et donc financières. À ceci il faut ajouter des coûts d’investissement élevés (par exemple pour acquérir des batteries) ainsi que le coût d’accès au réseau. Autant de paramètres qui compliquent le modèle économique du stockage.

D’un point de vue mathématique, les réseaux électriques ont un fonctionnement non-linéaire. Cette particularité impose des efforts de R&D accrus pour mieux modéliser les phénomènes complexes en jeu. Ceci permettra de proposer les solutions adaptées de contrôle, de pilotage, d’aide à la décision, de maîtrise de risque ou encore de planification stochastique (c’est-à-dire, qui prennent en compte les incertitudes). Dans ce contexte, les apports du numérique et de l’intelligence artificielle pour l’exploitation des données du réseau sont de plus en plus significatifs, permettant d’améliorer les temps de réaction et de mieux gérer les incertitudes.

Ces enjeux sont d’autant plus cruciaux qu’au-delà de la décarbonation, qui entraîne un besoin d’électrification accrue, les réseaux électriques font aussi face à de nouvelles menaces. Notamment, l’augmentation des risques de cyberattaques, mais aussi l’exigence de résilience du fait du changement climatique. La résilience des réseaux est par nature protéiforme, et elle sera clairement un des grands enjeux des systèmes électriques de demain.


Le colloque « Les grands enjeux de l’énergie », co-organisé par l’Académie des sciences et l’Académie des technologies, se tiendra les 20 et 21 juin 2025 en partenariat avec The Conversation et Le Point. Inscription gratuite en ligne.

The Conversation

Nouredine Hadjsaïd ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Energies renouvelables, voitures électriques… quels sont leurs effets sur le réseau électrique ? – https://theconversation.com/energies-renouvelables-voitures-electriques-quels-sont-leurs-effets-sur-le-reseau-electrique-258331