Source: – By Julia Henning, PhD Candidate in Feline Behaviour, School of Animal and Veterinary Science, University of Adelaide
Vous êtes-vous déjà demandé si votre chat était capable de vous reconnaître ? Et si oui, comment peut-il vous distinguer des autres humains ?
Des recherches ont montré que seulement 54 % des chats pouvaient reconnaître les humains à partir de leur seul visage. Une étude publiée le 28 mai 2025 dans la revue scientifique PLOS One suggère que les chats sont capables de nous reconnaître à notre odeur. Cette faculté n’avait jamais été étudiée et nous renseigne sur les liens qui se tissent entre les humains et les chats.
Les chats ont souvent la triste réputation d’être distants ou indifférents aux personnes qui les entourent, mais un nombre croissant d’études démontre le contraire. On sait désormais que les chats apprennent les noms que nous leur donnons et que la plupart d’entre eux préfèrent l’interaction sociale humaine à la nourriture, un choix que même les chiens ont du mal à faire.
L’étude, réalisée par Yutaro Miyairi et ses collègues de l’Université d’agriculture de Tokyo, a porté sur la capacité de 30 chats à différencier leur propriétaire d’une personne inconnue en se basant uniquement sur l’odeur.
Pour cette étude, les scientifiques ont présenté à des chats des tubes en plastique contenant des cotons-tiges frottés sous l’aisselle, derrière l’oreille et entre les orteils soit de leur propriétaire, soit d’un humain qu’ils n’avaient jamais rencontré. À titre de contrôle, on a présenté des cotons-tiges vierges (donc sans odeur humaine) aux chats.
Quand les chats nous acceptent dans leur groupe social
Les résultats ont montré que les chats ont passé plus de temps à renifler les tubes contenant l’odeur d’humains qu’ils ne connaissaient pas, par rapport au temps passé à renifler ceux de leur propriétaire ou du contrôle.
Un temps de reniflage plus court suggère que lorsque les chats rencontrent l’odeur de leur maître, ils la reconnaissent rapidement et passent à autre chose. En revanche, lorsqu’il s’agit de prélèvements effectués sur une personne inconnue, le chat renifle plus longtemps, utilisant son sens aigu de l’odorat pour recueillir des informations sur l’odeur.
Des comportements similaires ont déjà été observés : les chatons reniflent l’odeur des femelles inconnues plus longtemps que celle de leur propre mère, et les chats adultes reniflent les fèces des chats inconnus plus longtemps que celles des chats de leur groupe social. Les résultats de cette nouvelle étude pourraient indiquer que nous faisons également partie de ce groupe social.
Les chats utilisent leur odorat pour distinguer les chats familiers des chats inconnus. Chris Boyer/Unsplash
L’étude a également révélé que les chats avaient tendance à renifler les odeurs familières avec leur narine gauche, tandis que les odeurs inconnues étaient plus souvent reniflées avec leur narine droite. Lorsque les chats se familiarisent avec une odeur après l’avoir reniflée pendant un certain temps, ils passent de la narine droite à la narine gauche.
Cette tendance a également été observée chez les chiens. Selon les recherches actuelles, cette préférence pour les narines pourrait indiquer que les chats traitent et classent les nouvelles informations en utilisant l’hémisphère droit de leur cerveau, tandis que l’hémisphère gauche prend le relais lorsqu’une réponse habituelle est établie.
Les chats reniflent les objets avec des narines différentes selon que l’information leur est familière ou non. Kevin Knezic/Unsplash
L’odorat est d’importance pour les chats
Les chats s’appuient sur leur odorat pour recueillir des informations sur le monde qui les entoure et pour communiquer.
L’échange d’odeurs (par le frottement des joues et le toilettage mutuel) permet de reconnaître les chats du même cercle social, de maintenir la cohésion du groupe et d’identifier les chats non familiers ou d’autres animaux qui peuvent représenter une menace ou doivent être évités.
Les odeurs familières peuvent également être réconfortantes pour les chats, réduisant le stress et l’anxiété et créant un sentiment de sécurité dans leur environnement.
Lorsque vous revenez de vacances, si vous remarquez que votre chat est distant et agit comme si vous étiez un étranger, c’est peut-être parce que vous sentez une odeur étrangère. Essayez de prendre une douche en utilisant vos cosmétiques habituels et mettez vos vêtements de tous les jours. Les odeurs familières devraient vous aider, vous et votre chat, à retrouver plus rapidement votre ancienne dynamique.
N’oubliez pas que si votre chat passe beaucoup de temps à renifler quelqu’un d’autre, ce n’est pas parce qu’il le préfère. C’est probablement parce que votre odeur lui est familière et qu’elle lui demande moins de travail. Au lieu d’être nouvelle et intéressante, elle peut avoir un effet encore plus positif : aider votre chat à se sentir chez lui.
Julia Henning ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Source: – By Eugénie Hebrard, Directrice de recherche, Institut de recherche pour le développement (IRD)
Repiquage du riz dans le district de Rwamagana à l’Est du Rwanda.Dr I. Ndikumana/Rwanda Agricultural Board, Fourni par l’auteur
Une nouvelle étude retrace l’évolution du virus de la panachure jaune du riz et explique comment le commerce, les échanges de semences et même la Première Guerre mondiale lui ont permis de se répandre à travers tout le continent africain. Ce virus peut causer entre 20 % et 80 % de pertes de rendement.
Le virus de la panachure jaune du riz est une menace majeure pour la production rizicole en Afrique. Cette maladie, présente dans plus de 25 pays, peut causer entre 20 % et 80 % de pertes de rendement selon les épidémies. Retracer l’histoire de la dispersion du virus en Afrique permet de comprendre les causes et les modalités de l’émergence de la maladie, aide à mettre en place des stratégies de contrôle et contribue à évaluer les risques de propagation vers d’autres régions du monde. Par une approche multidisciplinaire intégrant données épidémiologiques, virologiques, agronomiques et historiques, nous avons exploré les liens entre l’histoire de la culture du riz en Afrique de l’Est et la propagation de ce virus à large échelle depuis la seconde moitié du XIXe siècle. Ces travaux sur le RYMV (l’acronyme de son nom anglais : Rice yellow mottle virus) viennent d’être publiés dans la revue scientifique PLoS Pathogens.
Il s’agit de l’aboutissement d’un travail de longue haleine basé sur des collectes de feuilles symptomatiques sur le terrain, parfois difficile d’accès, menées par plusieurs équipes de virologues, co-auteurs de cet article. La détection du virus par diagnostic immunologique en laboratoire puis sa caractérisation par séquençage ont abouti à une collection représentative de 50 génomes entiers et de 335 séquences du gène de la capside virale (la coque protéique qui protège le génome) prélevés entre 1966 et 2020 sur deux millions de kilomètres carrés (Burundi, Éthiopie, Kenya, Malawi, Ouganda, République du Congo, Rwanda, Tanzanie). Une partie de ces échantillons avaient été caractérisée préalablement et conservée dans des herbiers et des congélateurs. C’est une collaboration multilatérale internationale basée sur la mise en commun de tous les résultats qui a abouti à cette étude globale de la phylodynamique du RYMV, c’est-à-dire de la dispersion et de l’évolution des différentes lignées génétiques virales. Les approches bio-informatiques utilisées pour analyser et visualiser les résultats ont nécessité des développements méthodologiques mis au point par plusieurs co-auteurs spécialistes de ces disciplines, et qui sont transposables à tous types de virus. Les résultats obtenus avec les séquences virales partielles ou entières convergent vers un même scénario. C’est en intégrant les connaissances des agronomes et des historiens, également co-auteurs de cet article que nous avons pu interpréter cette « remontée dans le temps ».
Une transmission bien particulière
Beaucoup de virus de plantes sont transmis exclusivement par des insectes vecteurs dit piqueurs-suceurs comme les pucerons, qui en se nourrissant sur une plante malade, acquièrent le virus puis les réinjectent dans des plantes saines. Le RYMV, lui, est transmis par de multiples moyens, notamment :
grâce à l’intervention de coléoptères, insectes broyeurs qui n’ont pas de système d’injection de salive mais qui peuvent tout de même se contaminer mécaniquement en s’alimentant et qui se déplacent à courte distance ;
par des vaches ou d’autres animaux qui en broutant dans les champs de riz produisent des déjections dans lesquelles le virus reste infectieux ;
de manière passive par contact des feuilles ou des racines de plantes infectées où il se multiplie fortement.
Ces différents modes de transmission et de propagation du RYMV ne sont pas efficaces pour la transmission à longue distance. Or, le virus est présent sur tout le continent africain. C’est ce paradoxe que nous avons cherché à résoudre.
Une histoire complexe
Le RYMV est apparu au milieu du XIXe siècle dans l’Eastern Arc Montains en Tanzanie, où la riziculture sur brûlis était pratiquée. Plusieurs contaminations du riz cultivé à partir de graminées sauvages infectées ont eu lieu, aboutissant à l’émergence des trois lignées S4, S5 et S6 du virus. Le RYMV a ensuite été rapidement introduit dans la grande vallée rizicole voisine de Kilombero et dans la région de Morogoro. Les graines récoltées, bien qu’indemnes de virus, sont contaminées par des débris de plantes, elles-mêmes infectées, qui subsistent dans les sacs de riz après le battage et le vannage du riz. Le RYMV, très stable, est en mesure de subsister ainsi pendant plusieurs années. La dispersion à longue distance du RYMV en Afrique de l’Est a été marquée par trois évènements majeurs, cohérents avec : l’introduction du riz le long des routes de commerce caravanier des côtes de l’Océan Indien en direction du lac Victoria dans la seconde moitié du XIXe siècle (I), avec les échanges de semences du lac Victoria vers le nord de l’Éthiopie dans la seconde moitié du XXe siècle (II) et, de manière inattendue, avec le transport du riz à la fin de la Première Guerre mondiale comme aliment de base des troupes, de la vallée du Kilombero vers le sud du lac Malawi (III). Les échanges de semences expliquent également la dispersion du virus de l’Afrique de l’Est vers l’Afrique de l’Ouest à la fin du XIXe siècle, et vers Madagascar à la fin du XXe siècle. En somme, la dispersion du RYMV est associée à un large spectre d’activités humaines, certaines insoupçonnées. Par conséquent, le RYMV, bien que non transmis directement par la semence ou par des insectes vecteurs très mobiles comme beaucoup de virus de plantes, a une grande capacité de dissémination. Ses paramètres de dispersion, estimés à partir de nos reconstructions dites phylogéographiques, sont similaires à ceux des virus zoonotiques très mobiles, des virus infectant les animaux qui peuvent créer des épidémies chez l’homme comme la rage.
Reconstitution de la dispersion du RYMV en Afrique de l’Est de 1850 à 2020, basées sur les séquences génomiques non recombinantes de 50 isolats représentatifs de la diversité génétique et géographique du virus. Les trois évènements de dispersion à longue distance sont indiqués (I, II, III, voir texte). Fourni par l’auteur
En comparant la dispersion des trois lignées majeures présentes en Afrique de l’Est grâce aux nouveaux outils bio-informatiques développés dans cette étude, nous avons observé des dynamiques virales très contrastées. La lignée S4 a connu le plus grand succès épidémique avec une propagation précoce, rapide et généralisée. Elle a été découverte au sud du lac Victoria dans la seconde moitié du XIXe siècle puis a circulé autour du lac Victoria avant de se disperser vers le nord en Éthiopie, puis vers le sud au Malawi et enfin vers l’ouest en République du Congo, au Rwanda et au Burundi. La lignée S6, au contraire, est restée confinée à la vallée du Kilombero et dans la région de Morogoro pendant plusieurs décennies. Au cours des dernières décennies seulement, elle s’est propagée vers l’est de la Tanzanie, le sud-ouest du Kenya et les îles de Zanzibar et de Pemba. De façon inexpliquée, la lignée S5 est restée confinée dans la vallée du Kilombero et dans la région de Morogoro. Au cours des dernières décennies, on note un ralentissement des taux de dispersion de la plupart des souches virales issues des lignées S4 et S6 que nous n’expliquons pas encore.
En conclusion, notre étude multi-partenariale et multidisciplinaire met en évidence l’importance de la transmission humaine d’agents pathogènes de plantes et souligne le risque de transmission du RYMV, ainsi que celle d’autres phytovirus d’Afrique, vers d’autres continents. Nous étudions maintenant la dispersion et l’évolution du RYMV en Afrique de l’Ouest, en particulier de celle de lignées virales particulièrement préoccupantes car capables de se multiplier sur les variétés de riz, considérées résistantes au virus, compromettant ainsi les stratégies de contrôle.
Eugénie Hebrard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Source: – By Éric Collet, Professeur de Physique, expert en sciences des matériaux, Université de Rennes
Une nouvelle étude montre qu’il est possible de geler les positions des atomes qui constituent un matériau…, en le chauffant.
Ce concept ouvre la voie au développement de dispositifs innovants, tels que des capteurs piézoélectriques capables de fonctionner à température ambiante, sans avoir besoin de recourir à de très basses températures.
Lorsque l’eau liquide passe en dessous de 0 °C, les molécules d’eau gèlent leurs positions les unes par rapport aux autres, pour former de la glace. Dans l’immense majorité des matériaux, les atomes et les molécules gèlent quand la température baisse.
Mais, contrairement à l’intuition, nous avons découvert un matériau présentant un changement d’état magnétique, pour lequel des mesures de cristallographie par rayons X ont démontré que les positions des atomes gèlent… en chauffant !
Ceci nous a d’abord surpris, mais nous avons trouvé une explication, que nous détaillons dans notre récente publication.
Certains dispositifs électroniques ne fonctionnent qu’à basse température
Les positions des atomes se gèlent habituellement quand on abaisse sa température – c’est le cas, par exemple, quand l’eau gèle au congélateur ou encore quand du sucre fondu cristallise en refroidissant.
Ce phénomène existe aussi à l’état solide dans de nombreux matériaux. Même dans un solide, les atomes vibrent entre des positions équivalentes par symétrie (par exemple entre gauche et droite) – ils ne se figent dans une de ces positions que quand la température diminue.
Pour certains matériaux, comme le sucre ou les piézoélectriques utilisés sur les sonars ou capteurs pour l’échographie, les atomes sont gelés à température ambiante. Mais pour de nombreux matériaux moléculaires, ceci ne se produit qu’à -20 °C, -100 °C ou -200 °C, par exemple.
À haute température, les atomes en bleu et en rouge sont désordonnés entre des positions droite/gauche équivalentes par symétrie. Quand ils se gèlent sur une position à basse température, la symétrie droite/gauche est perdue. Ainsi, des charges peuvent apparaître en surface. Éric Collet, Fourni par l’auteur
Le changement de symétrie associé à la mise en ordre des atomes qui se gèlent suivant certaines positions est illustré sur la figure ci-dessus.
À droite, les atomes sont désordonnés et vibrent à haute température. Il y a ici une symétrie miroir et les positions des atomes d’un côté du miroir sont équivalentes à celles de l’autre côté.
À basse température, les positions des atomes se gèlent. Par exemple, les atomes rouges s’approchent d’atomes bleus à droite et s’éloignent des atomes bleus à gauche. Ceci modifie certaines propriétés physiques de matériaux et, par exemple, des charges (+ et -) apparaissent en surface.
Si on appuie sur un tel matériau, les charges changent, et c’est ce qui est à la base des capteurs piézoélectriques, par exemple. Une simple pression, comme un son, peut moduler ces charges et être alors détectée. C’est ainsi que fonctionnent les dispositifs pour l’échographie ou les sonars dans les sous-marins, par exemple : l’onde sonore qui est réfléchie sur un objet est détectée par le capteur piézoélectrique au travers d’un signal électrique.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
D’autres matériaux sont aussi ferroélectriques. Il est alors possible de retourner les positions atomiques avec un champ électrique et donc d’inverser les charges. C’est ce dispositif qui est à la base des mémoires RAM ferroélectriques.
Malheureusement, pour de nombreux matériaux moléculaires, ce type de propriétés liées au changement de symétrie n’apparaissent qu’à basse température. Il faut alors refroidir les matériaux pour obtenir la propriété, parfois à -200 °C. Cette contrainte limite donc l’application de ces matériaux, car de nombreuses applications nécessitent des dispositifs fonctionnant à température ambiante, parce qu’il est trop complexe et coûteux d’intégrer des dispositifs de refroidissement.
Une découverte surprenante : un matériau qui gèle à haute température
Dans la majorité des matériaux, les atomes qui les constituent se mettent en mouvement avec l’élévation de température. Cette agitation thermique crée un désordre, qui se mesure par une grandeur thermodynamique appelée « entropie ».
Les lois de la physique stipulent que plus la température augmente, plus le désordre et donc l’entropie augmentent. Ainsi, le désordre est plus grand à haute température, avec les atomes agités, qu’à basse température où les atomes sont figés. À l’inverse, à basse température, le désordre et, donc, l’entropie diminuent, ainsi que la symétrie.
Dans notre étude, nous observons pourtant le phénomène inverse : le matériau que nous étudions est plus symétrique en dessous de -40 °C qu’au-dessus. En d’autres termes, les molécules sont sur des positions désordonnées droite/gauche à basse température et ordonnées à haute température et donc, ici, à température ambiante.
Plusieurs types de désordre en compétition
Ce phénomène est rendu possible grâce au « désordre électronique ».
En effet, dans le matériau étudié, les états à haute et basse température correspondent aussi à deux états magnétiques.
À basse température, le matériau est dans l’état appelé « diamagnétique », c’est-à-dire que les électrons vivent en couple et que leurs spins (leurs moments magnétiques) sont opposés – c’est une contrainte imposée par la mécanique quantique. Ceci correspond à un état électronique ordonné, car il n’y a qu’une configuration possible : un spin vers le haut, l’autre vers le bas.
Dans le matériau étudié, les molécules sont désordonnées entre positions droite/gauche à basse température et gèlent suivant une des positions à haute température. Ceci est permis par la réorganisation concomitante des électrons. À basse température, les électrons dans ce matériau sont ordonnés : ils s’apparient avec des spins opposés (représenté par des flèches) et il n’existe qu’une configuration électronique. À haute température, les électrons célibataires peuvent prendre l’un des deux spins, sans contrainte, et il existe cinq configurations possibles. Éric Collet, Fourni par l’auteur
À haute température, au contraire, le matériau est dans l’état « paramagnétique », c’est-à-dire que les électrons sont célibataires et leurs spins peuvent s’orienter librement, ce qui donne lieu à plusieurs configurations (quelques-uns vers le haut, les autres vers le bas, comme illustré par les flèches rouges sur la figure ci-dessus).
En chauffant, nous favorisons le désordre « électronique » (le grand nombre de configurations des spins). Ce désordre entre en compétition avec la mise en ordre des positions des atomes.
Le gain en entropie lié au désordre électronique (qui passe d’une seule configuration à cinq) est alors plus grand que le coût en entropie lié à la mise en ordre des atomes (de deux configurations à une seule). D’autres phénomènes viennent aussi contribuer à cette augmentation d’entropie.
Au final, l’entropie globale, incluant désordre atomique et électronique, augmente donc bien avec la température comme l’imposent les lois de la physique. C’est donc le désordre des électrons qui autorise de geler les positions des molécules.
Par conséquent, ce nouveau concept, combinant désordre électronique et ordre atomique, ouvre la voie au développement de nouveaux matériaux pour des dispositifs tels que des capteurs, des mémoires, des transducteurs ou des actionneurs fonctionnant à température ambiante, sans recours aux basses températures.
Eric Collet est membre de l’Institut Universitaire de France et de l’Academia Europaea
Source: – By Paulomi (Polly) Burey, Professor in Food Science, University of Southern Queensland
Pourquoi certains œufs s’écalent facilement et d’autres non ? Une histoire de pH, de température et de chambre à air, répondent les scientifiques qui se sont penchés sur la question.
Nous sommes tous passés par là : essayer d’écaler un œuf dur, mais finir par le réduire en miettes tant la coquille s’accroche obstinément au blanc. Et ça peut être pire encore, quand l’œuf se retrouve couvert de petits morceaux de membrane.
Internet regorge d’astuces censées vous éviter ce désagrément mais plusieurs causes très différentes peuvent expliquer qu’un œuf soit difficile à « éplucher ». Heureusement, la science offre des stratégies pour contourner le problème.
Facteurs influençant la facilité d’écalage d’un œuf
Les œufs se composent d’une coquille dure et poreuse, d’une membrane coquillière externe et d’une membrane coquillière interne, du blanc d’œuf (ou albumen), et d’un jaune enveloppé d’une membrane. On trouve également une chambre à air entre les deux membranes, juste sous la coquille.
Dans les années 1960 et 1970, de nombreuses recherches ont été menées sur les facteurs influençant la facilité d’écalage des œufs après cuisson. L’un de ces facteurs est le pH du blanc d’œuf. Une étude des années 1960 a montré qu’un pH compris entre 8,7 et 8,9 — donc assez alcalin — facilitait l’épluchage des œufs.
La température de conservation joue également un rôle. Une étude de 1963 a révélé qu’un stockage à environ 22 °C donnait de meilleurs résultats en matière d’épluchage qu’un stockage à 13 °C, ou à des températures de réfrigérateur de 3 à 5 °C.
Les recherches ont également montré qu’un temps de stockage plus long avant cuisson — autrement dit des œufs moins frais — améliore la facilité d’épluchage.
Le fait que les œufs frais soient plus difficiles à éplucher est relativement bien connu. D’après les facteurs évoqués plus haut, plusieurs explications permettent de comprendre ce phénomène.
D’abord, dans un œuf frais, la chambre à air est encore très petite. En vieillissant, l’œuf perd lentement de l’humidité à travers sa coquille poreuse, ce qui agrandit la chambre à air à mesure que le reste du contenu se rétracte. Une chambre à air plus grande facilite le démarrage de l’épluchage.
Par ailleurs, même si le blanc d’œuf est déjà relativement alcalin au départ, son pH augmente encore avec le temps, ce qui contribue aussi à rendre l’écalage plus facile.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Conseil n°2 : la température de l’eau
Plusieurs experts de la cuisson des œufs estiment que commencer avec de l’eau bouillante puis la ramener à un frémissement avant d’y déposer délicatement les œufs donne de meilleurs résultats. Il est alors recommandé d’utiliser des œufs à température ambiante pour éviter qu’ils ne se fissurent à cause d’un choc thermique. L’idée derrière cette méthode est qu’une exposition immédiate à une température élevée facilite la séparation entre la membrane, la coquille et le blanc d’œuf.
En outre, un démarrage à chaud favorise la dénaturation des protéines du blanc d’œuf (c’est-à-dire leur changement de structure sous l’effet de la chaleur), ce qui les incite à se lier entre elles plutôt qu’à adhérer à la membrane.
Après avoir fait bouillir les œufs pendant le temps désiré (généralement 3 à 5 minutes pour un jaune coulant, 6 à 7 minutes pour un jaune crémeux, et 12 à 15 minutes pour un œuf dur), on peut les plonger dans de l’eau glacée. Cela aide le blanc à se rétracter légèrement, facilitant ainsi l’épluchage.
Commencer la cuisson dans de l’eau bouillante peut faciliter l’épluchage, surtout si l’on plonge les œufs dans de l’eau glacée ensuite. Max4ᵉ Photo/Shutterstock
Conseil n°3 (pas obligatoire) : ajouter des ingrédients à l’eau
Parmi les autres astuces suggérées pour faciliter l’écalage, on trouve l’ajout de sel dans l’eau bouillante, mais les résultats sont à nuancer. Une étude a montré que cela pouvait effectivement améliorer l’épluchage, mais que cet effet disparaissait après une période de stockage prolongée des œufs.
L’ajout d’acides et de bases a également démontré une certaine efficacité pour aider à retirer la coquille. Un brevet s’appuyant sur cette idée propose ainsi d’utiliser des substances agressives dans le but de dissoudre la coquille. Mais partant de ce principe, vous pourriez simplement tenter d’ajouter à l’eau de cuisson du bicarbonate de soude ou du vinaigre. En théorie, ce dernier devrait attaquer le carbonate de calcium de la coquille, facilitant ainsi son retrait. Quant au bicarbonate, étant alcalin, il devrait aider à détacher la membrane de la coquille.
Bonus : quelques méthodes de cuisson alternatives
Il existe plusieurs façons de cuire des œufs durs en dehors de l’ébullition classique. Parmi elles : la cuisson vapeur sous pression, la cuisson à l’air chaud (avec un air fryer), et même le micro-ondes.
Dans le cas de la cuisson vapeur, certains avancent que la vapeur d’eau traversant la coquille aiderait à décoller la membrane du blanc d’œuf, ce qui rendrait l’épluchage beaucoup plus facile.
Des recherches récentes ont porté sur la cuisson à l’air chaud d’autres aliments, mais on ne sait pas encore précisément comment ce mode de cuisson pourrait influencer la coquille et la facilité d’écalage des œufs.
Enfin, une fois vos œufs épluchés, évitez de jeter les coquilles à la poubelle. Elles peuvent servir à de nombreux usages : compost, répulsif naturel contre les limaces et escargots au jardin, petits pots biodégradables pour semis… ou même contribuer à des applications bien plus poussées, notamment dans la recherche sur le cancer.
Paulomi (Polly) Burey a reçu des financements du ministère australien de l’Éducation, qui a soutenu les recherches sur les coquilles d’œufs mentionnées à la fin de cet article.
Source: – By Kaitlin Cook, DECRA Fellow, Department of Nuclear Physics and Accelerator Applications, Australian National University
Quand on extrait de l’uranium du sol, il est composé à 99,27 % d’uranium-238.RHJPhtotos/Shutterstock
L’enrichissement de l’uranium est au cœur des tensions autour du programme nucléaire iranien. Cette technologie, indispensable pour produire de l’électricité, peut aussi permettre de fabriquer des armes atomiques si elle atteint des niveaux de concentration élevés.
En fin de semaine dernière, Israël a ciblé trois des principales installations nucléaires de l’Iran – Natanz, Ispahan et Fordo – tuant plusieurs scientifiques nucléaires iraniens. Ces sites sont fortement fortifiés et en grande partie souterrains, et les rapports divergent quant aux dégâts réellement causés.
Natanz et Fordo sont les centres d’enrichissement de l’uranium en Iran, tandis qu’Ispahan fournit les matières premières. Toute détérioration de ces installations pourrait donc limiter la capacité de l’Iran à produire des armes nucléaires. Mais qu’est-ce que l’enrichissement de l’uranium, et pourquoi cela suscite-t-il des inquiétudes ?
Pour comprendre ce que signifie « enrichir » de l’uranium, il faut d’abord connaître un peu les isotopes de l’uranium et le principe de la fission nucléaire.
Qu’est-ce qu’un isotope ?
Toute matière est composée d’atomes, eux-mêmes constitués de protons, de neutrons et d’électrons. Le nombre de protons détermine les propriétés chimiques d’un atome et définit ainsi les différents éléments chimiques.
Les atomes comportent autant de protons que d’électrons. L’uranium, par exemple, possède 92 protons, tandis que le carbone en a six. Toutefois, un même élément peut présenter un nombre variable de neutrons, formant ainsi ce qu’on appelle des isotopes.
Cette différence importe peu dans les réactions chimiques, mais elle a un impact majeur dans les réactions nucléaires.
La différence entre l’uranium-238 et l’uranium-235
Quand on extrait de l’uranium du sol, il est constitué à 99,27 % d’uranium-238 (92 protons et 146 neutrons). Seul 0,72 % correspond à l’uranium-235, avec 92 protons et 143 neutrons (le
0,01 % restant correspond à un autre isotope, qui ne nous intéresse pas ici).
Pour les réacteurs nucléaires ou les armes, il faut modifier ces proportions isotopiques. Car parmi les deux principaux isotopes, seul l’uranium-235 peut soutenir une réaction en chaîne de fission nucléaire : un neutron provoque la fission d’un atome, libérant de l’énergie et d’autres neutrons, qui provoquent à leur tour d’autres fissions, et ainsi de suite.
Cette réaction en chaîne libère une quantité d’énergie énorme. Dans une arme nucléaire, cette réaction doit avoir lieu en une fraction de seconde pour provoquer une explosion. Tandis que dans une centrale nucléaire civile, cette réaction est contrôlée.
Aujourd’hui, les centrales produisent environ 9 % de l’électricité mondiale. Les réactions nucléaires ont aussi une importance vitale dans le domaine médical, via la production d’isotopes utilisés pour le diagnostic et le traitement de diverses maladies.
Qu’est-ce que l’enrichissement de l’uranium ?
« Enrichir » de l’uranium consiste à augmenter la proportion d’uranium-235 dans l’élément naturel, en le séparant progressivement de l’uranium-238.
Il existe plusieurs techniques pour cela (certaines récemment développées en Australie), mais l’enrichissement commercial est actuellement réalisé via centrifugation, notamment dans les installations iraniennes.
Les centrifugeuses exploitent le fait que l’uranium-238 est environ 1 % plus lourd que l’uranium-235. Elles prennent l’uranium sous forme gazeuse et le font tourner à des vitesses vertigineuses, entre 50 000 et 70 000 tours par minute, les parois extérieures atteignant une vitesse de 400 à 500 mètres par seconde. C’est un peu comme une essoreuse à salade : l’eau (ici, l’uranium-238 plus lourd) est projetée vers l’extérieur, tandis que les feuilles (l’uranium-235 plus léger) restent plus au centre. Ce procédé n’est que partiellement efficace, donc il faut répéter l’opération des centaines de fois pour augmenter progressivement la concentration d’uranium-235.
La plupart des réacteurs civils fonctionnent avec de l’uranium faiblement enrichi, entre 3 % et 5 % d’uranium-235, ce qui suffit à entretenir une réaction en chaîne et produire de l’électricité.
Quel niveau d’enrichissement est nécessaire pour une arme nucléaire ?
Pour obtenir une réaction explosive, il faut une concentration bien plus élevée d’uranium-235 que dans les réacteurs civils. Techniquement, il est possible de fabriquer une arme avec de l’uranium enrichi à 20 % (on parle alors d’uranium hautement enrichi), mais plus le taux est élevé, plus l’arme peut être compacte et légère. Les États disposant de l’arme nucléaire utilisent généralement de l’uranium enrichi à environ 90 %, dit « de qualité militaire ».
C’est ce qui rend la situation iranienne particulièrement préoccupante pour ceux qui redoutent que le pays produise des armes nucléaires. Et c’est pour cela que la technologie des centrifugeuses utilisée pour l’enrichissement est gardée secrète. D’autant que les mêmes centrifugeuses peuvent servir à la fois à fabriquer du combustible civil et à produire de l’uranium de qualité militaire.
Des inspecteurs de l’AIEA surveillent les installations nucléaires dans le monde entier pour vérifier le respect du traité mondial de non-prolifération nucléaire. Bien que l’Iran affirme n’enrichir l’uranium que pour des fins pacifiques, l’AIEA a estimé la semaine dernière que l’Iran avait violé ses engagements au titre de ce traité.
Kaitlin Cook reçoit des financements de l’Australian Research Council (Conseil australien de la recherche).
Suffit-il de calculer l’espérance de vie maximale d’un humain pour deviner combien de temps mettrait l’humanité à disparaître si l’on arrêtait de se reproduire ? Pas si simple répond l’anthropologue américain Michael A. Little dans cet article à destination des plus jeunes.
Très peu de personnes vivent au-delà d’un siècle. Ainsi, si plus personne n’avait d’enfants, il ne resterait probablement plus d’humains sur Terre dans 100 ans. Mais avant cela, la population commencerait à diminuer, à mesure que les personnes âgées mourraient sans qu’aucune nouvelle naissance ne vienne les remplacer. Même si toutes les naissances cessaient soudainement, ce déclin serait au départ progressif.
Un effondrement des sociétés
Mais peu à peu, il n’y aurait plus assez de jeunes pour assurer les tâches essentielles, ce qui provoquerait un effondrement rapide des sociétés à travers le monde. Certains de ces bouleversements mettraient à mal notre capacité à produire de la nourriture, à fournir des soins de santé et à accomplir tout ce dont dépend notre quotidien. La nourriture se ferait rare, même s’il y avait moins de bouches à nourrir.
En tant que professeur d’anthropologie ayant consacré ma carrière à l’étude des comportements humains, de la biologie et des cultures, je reconnais volontiers que ce scénario n’aurait rien de réjouissant. À terme, la civilisation s’effondrerait. Il est probable qu’il ne resterait plus grand monde d’ici 70 ou 80 ans, plutôt que 100, en raison de la pénurie de nourriture, d’eau potable, de médicaments et de tout ce qui est aujourd’hui facilement accessible et indispensable à la survie.
L’élément déclencheur : une catastrophe mondiale
Il faut bien reconnaître qu’un arrêt brutal des naissances est hautement improbable, sauf en cas de catastrophe mondiale. Un scénario possible, exploré par l’écrivain Kurt Vonnegut dans son roman Galápagos, serait celui d’une maladie hautement contagieuse rendant infertiles toutes les personnes en âge de procréer.
Autre scénario : une guerre nucléaire dont personne ne sortirait vivant – un thème traité dans de nombreux films et livres effrayants. Beaucoup de ces œuvres de science-fiction mettent en scène des voyages dans l’espace. D’autres tentent d’imaginer un futur terrestre, moins fantaisiste, où la reproduction devient difficile, entraînant un désespoir collectif et la perte de liberté pour celles et ceux encore capables d’avoir des enfants.
Deux de mes livres préférés sur ce thème sont La Servante écarlate de l’autrice canadienne Margaret Atwood, et Les Fils de l’homme de l’écrivaine britannique P.D. James. Ce sont des récits dystopiques marqués par la souffrance humaine et le désordre. Tous deux ont d’ailleurs été adaptés en séries télévisées ou en films.
Dans les années 1960 et 1970, beaucoup s’inquiétaient au contraire d’une surpopulation mondiale, synonyme d’autres types de catastrophes. Ces craintes ont elles aussi nourri de nombreuses œuvres dystopiques, au cinéma comme en littérature.
Un exemple : la série américaine « The Last Man on Earth », une comédie postapocalyptique qui imagine ce qui pourrait se passer après qu’un virus mortel ait décimé la majeure partie de l’humanité.
The Last Man on Earth est une série télévisée américaine, à la fois postapocalyptique et comique, qui imagine ce qui pourrait se passer après qu’un virus mortel ait anéanti la majorité de la population mondiale.
En route vers les 10 milliards d’habitants
La population mondiale continue résolument de croître, même si le rythme de cette croissance a ralenti. Les experts qui étudient les dynamiques démographiques estiment que le nombre total d’habitants atteindra un pic de 10 milliards dans les années 2080, contre 8 milliards aujourd’hui et 4 milliards en 1974.
La population des États-Unis s’élève actuellement à 342 millions, soit environ 200 millions de plus qu’au moment de ma naissance dans les années 1930. C’est une population importante, mais ces chiffres pourraient progressivement diminuer, aux États-Unis comme ailleurs, si le nombre de décès dépasse celui des naissances.
À mesure que ces tendances évoluent, l’un des enjeux essentiels sera de maintenir un équilibre viable entre jeunes et personnes âgées. En effet, ce sont souvent les jeunes qui font tourner la société : ils mettent en œuvre les idées nouvelles et produisent les biens dont nous dépendons.
Par ailleurs, de nombreuses personnes âgées ont besoin d’aide pour les gestes du quotidien, comme préparer à manger ou s’habiller. Et un grand nombre d’emplois restent plus adaptés aux moins de 65 ans qu’à ceux ayant atteint l’âge habituel de la retraite (plus tardif aux États-Unis).
Taux de natalité en baisse
Dans de nombreux pays, les femmes ont aujourd’hui moins d’enfants au cours de leur vie fertile qu’autrefois. Cette baisse est particulièrement marquée dans certains pays comme l’Inde ou la Corée du Sud.
Le recul des naissances observé actuellement s’explique en grande partie par le choix de nombreuses personnes de ne pas avoir d’enfants, ou d’en avoir moins que leurs parents. Ce type de déclin démographique peut rester gérable grâce à l’immigration en provenance d’autres pays, mais des préoccupations culturelles et politiques freinent souvent cette solution.
Parallèlement, de plus en plus d’hommes rencontrent des problèmes de fertilité, ce qui rend leur capacité à avoir des enfants plus incertaine. Si cette tendance s’aggrave, elle pourrait accélérer fortement le déclin de la population.
La disparition des Néandertaliens
Notre espèce, Homo sapiens, existe depuis au moins 200 000 ans. C’est une très longue période, mais comme tous les êtres vivants sur Terre, nous sommes exposés au risque d’extinction.
Prenons l’exemple des Néandertaliens, proches parents d’Homo sapiens. Ils sont apparus il y a au moins 400 000 ans. Nos ancêtres humains modernes ont cohabité un temps avec eux, mais les Néandertaliens ont progressivement décliné jusqu’à disparaître il y a environ 40 000 ans.
Certaines recherches suggèrent que les humains modernes se sont montrés plus efficaces que les Néandertaliens pour assurer leur subsistance et se reproduire. Homo sapiens aurait ainsi eu plus d’enfants, ce qui a favorisé sa survie.
Si notre espèce venait à disparaître, cela pourrait ouvrir la voie à d’autres animaux pour prospérer sur Terre. Mais ce serait aussi une immense perte, car toute la richesse des réalisations humaines – dans les arts, les sciences, la culture – serait anéantie.
À mon sens, nous devons prendre certaines mesures pour assurer notre avenir sur cette planète. Cela passe par la lutte contre le changement climatique, la prévention des conflits armés, mais aussi par une prise de conscience de l’importance de préserver la diversité des espèces animales et végétales, qui est essentielle à l’équilibre de la vie sur Terre, y compris pour notre propre survie.
Michael A. Little ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Source: – By Etienne Farvaque, Professeur d’Économie, Université de Lille, LEM (UMR 9221), Université de Lille
Les partis populistes ont spectaculairement progressé entre 2002 et 2022. Si de multiples facteurs peuvent l’expliquer, la dégradation ou la disparition des services publics dans nombre de zones rurales ou périphériques jouent un rôle non négligeable. C’est ce que montre une étude analysant la relation entre la disparition des services publics et l’évolution des comportements électoraux en France.
La recherche d’une meilleure efficacité de l’administration se traduit, dans certains territoires, par une disparition progressive des services publics, générant pour les usagers le sentiment de devenir des « oubliés », comme dans la chanson de Gauvain Sers. En effet, la fermeture des écoles, des bureaux de poste, des trésoreries ou des services de police ne se limite pas, du point de vue des citoyens, à une réorganisation administrative : elle façonne le quotidien de milliers de communes, accentuant les inégalités d’accès à des infrastructures jugées essentielles. Ce n’est donc peut-être pas une coïncidence que ce phénomène s’accompagne d’une recomposition du paysage électoral, où les partis politiques d’extrême droite et de la gauche radicale captent une part croissante du vote protestataire.
Dans une étude, nous nous intéressons à la relation possible entre la réduction des services publics et l’évolution des comportements électoraux en France. L’analyse repose sur des données couvrant la période 1998-2018, recoupées avec les résultats des élections présidentielles de 2002, 2012 et 2022. Les résultats confirment notre intuition : plus un territoire voit l’État se retirer, plus le vote « extrême » y progresse.
Des fractures irréparables ?
En étudiant la présence des infrastructures publiques à l’échelle communale, nous dressons le portrait d’une France où l’accès aux services de l’État est de plus en plus inégal.
Dans les grandes agglomérations, l’offre publique demeure relativement stable, bien que certaines restructurations aient également lieu. En revanche, dans les zones rurales et périurbaines, le maillage administratif s’élargit peu à peu.
Les chiffres sont assez éloquents. Comme le montre le tableau 1, entre 1998 et 2018, la présence des services publics en matière d’écoles primaires et maternelles a reculé en moyenne de 7,36 %. Cette baisse concerne en premier lieu les établissements scolaires du primaire, et ce principalement dans les communes de petite et moyenne taille. Les bureaux de poste ont également été durement touchés, ainsi que les services de police et de gendarmerie.
Tableau 1 : Évolution de la présence des services publics.
Le niveau initial en 1998 et les taux de variation dans les équipements publics pour 100 000 habitants, en pourcentage. Paris, Lyon, Marseille et les communes absorbées ne sont pas incluses. Fourni par l’auteur
Les fermetures ne suivent pas un schéma uniforme. Certaines régions, notamment dans le nord-est et le centre de la France, cumulent des pertes importantes, alors que d’autres territoires, mieux intégrés aux réseaux métropolitains, sont moins affectés. Cette dynamique reflète des tendances de fond : la désindustrialisation, l’exode rural et la concentration des services dans les pôles urbains au détriment des petites communes.
Figure 1 : La carte ci-dessous montre la distribution spatiale des services publics en 2018
Calculs des auteurs à partir des données Insee. Fourni par l’auteur
Quand l’abandon de l’État nourrit le vote protestataire
Les effets de ces fermetures ne se limitent pas à une simple réorganisation administrative. La disparition progressive des infrastructures publiques modifie en profondeur la relation des citoyens à l’État, renforçant certainement un sentiment de déclassement territorial. Ce sentiment de marginalisation ne se traduit pas seulement par une abstention croissante, mais aussi par un vote contestataire qui s’exprime à la fois à gauche et à droite de l’échiquier politique.
Figure 2 : Évolution des voix des partis de la gauche radicale (2002-2022).
Les partis de la gauche radicale ont nettement progressé entre 2002 et 2022. Fourni par l’auteur
Figure 3 : Évolution des voix des partis d’extrême droite (2002-2022)
Ce graphique montre la très nette progression électorale des partis d’extrême droite entre 2002 et 2022, particulièrement dans les zones rurales. Fourni par l’auteur
Tableau 2 : Résultats électoraux des partis au cours des années
Le tableau présente la moyenne des résultats des élections en termes de pourcentage. Fourni par l’auteur
Les résultats de notre analyse sont clairs : chaque perte d’un service public pour 1000 habitants entraîne une augmentation du vote pour les partis de la gauche radicale de 0,233 point de pourcentage, et pour les partis d’extrême droite de 0,158 point.
Cependant, ce phénomène ne touche pas tous les électeurs de la même manière. En effet, les citoyens réagissent différemment en fonction du type de service qui disparaît. La fermeture des écoles et des bureaux de poste est davantage corrélée à un renforcement du vote pour les partis de la gauche radicale, probablement en raison de leur rôle central dans la vie quotidienne et la transmission des services essentiels.
Un phénomène qui s’intensifie au fil des élections
Loin de s’estomper, cette tendance s’est renforcée au cours des vingt dernières années. En comparant les résultats des élections présidentielles de 2002, 2012 et 2022, l’étude montre une accélération du vote « extrême » à mesure que les services publics se raréfient. Entre 2002 et 2022, la part des voix obtenues par les partis d’extrême droite a quasiment doublé, atteignant 38,7 % en 2022. Parallèlement, le vote en faveur des partis de la gauche radicale a également progressé, avec une dynamique plus marquée dans certaines régions.
Si d’autres facteurs sont évidemment à l’œuvre, le sentiment d’abandon, généré par le retrait de l’offre de services publics, est un facteur non négligeable.
Cette évolution s’inscrit dans un contexte plus large de polarisation politique. Alors qu’en 2002, les partis de gouvernement captaient encore la majorité des voix, les partis contestataires ont dépassé la barre des 50 % en 2022. L’étude montre que ce basculement n’est pas un simple phénomène conjoncturel, mais bien une transformation structurelle du vote, largement influencée par des facteurs territoriaux.
Causes multiples
Ce lien entre sentiment d’abandon et vote populiste ne se limite pas au cas français. Des dynamiques similaires sont présentes, entre autres, aux États-Unis ou au Royaume-Uni. Elles s’ancrent dans des réalités économiques, sociales et culturelles que la littérature académique a donc maintenant assez bien identifiées.
Les zones les plus particulièrement sensibles aux discours populistes sont celles abritant des populations marquées par un faible niveau d’éducation, des revenus modestes, un passé industriel aujourd’hui révolu, et un fort taux de chômage.
Quant aux politiques austéritaires, notamment les réformes ayant réduit l’ampleur et l’accessibilité des aides sociales, elles fragilisent davantage des populations déjà vulnérables.
La mondialisation est un autre moteur puissant de cette inquiétude. Les régions les plus touchées par la concurrence internationale, en particulier la concurrence des importations manufacturières à bas coût, ont vu disparaître des milliers d’emplois sans bénéficier des gains économiques générés ailleurs.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Réinvestir les territoires : un défi pour l’État
Face à ces constats, la question se pose : le retour des services publics pourrait-il suffire à inverser la tendance ? Il faut rester prudent : si la restauration des infrastructures publiques peut contribuer à atténuer le sentiment de marginalisation, le vote « extrême » est aussi alimenté par des dynamiques plus profondes. En outre, le coût du maintien des services publics n’est pas à négliger, en particulier dans la situation de finances publiques dégradées que connaît la France.
Pour lutter contre ces fractures, il s’agit aussi de repenser le développement des territoires, en tenant compte des besoins spécifiques de chaque région.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.
Source: – By Roxanne Panchasi, Associate Professor, Department of History, Simon Fraser University
En visite officielle, au Parlement européen à Strasbourg en juillet 1995, Jacques Chirac se heurte à une protestation de la part de ses membres. (European Parliament)
Le 13 juin 1995, le président Jacques Chirac annonçait la reprise des essais nucléaires dans le Pacifique Sud. La population de la Polynésie française attend encore une juste indemnisation pour les préjudices subis. En 2021, le président Macron a reconnu que la France avait une « dette » envers le peuple de Maō’hui Nui, appelant à l’ouverture d’archives clés. Une commission d’enquête parlementaire s’est emparée du sujet.
Ces derniers mois, la viabilité de l’arsenal nucléaire français a fait la une des journaux, entraînant des discussions sur un « parapluie nucléaire » français qui pourrait protéger ses alliés sur le continent européen. Face à la guerre entre la Russie et l’Ukraine, et aux déclarations du président russe Vladimir Poutine concernant la possibilité de déployer des armes nucléaires dans ce conflit, la question quant à la meilleure manière de défendre l’Europe crée une urgence inédite depuis l’époque la plus tendue de la guerre froide.
Le 13 juin 1995, le président Jacques Chirac a annoncé que la France allait reprendre ses essais nucléaires dans le Pacifique Sud. Quelques semaines seulement après son élection, Jacques Chirac a mis fin à un moratoire de trois ans sur les essais que son prédécesseur, François Mitterrand, avait mis en place en avril 1992.
Jacques Chirac a insisté sur le fait que cette nouvelle série d’essais nucléaires était essentielle à la sécurité nationale de la France et au maintien de l’indépendance de sa force de dissuasion nucléaire. Les huit essais prévus au cours des mois suivants fourniraient, selon lui, les données nécessaires pour passer des explosions réelles à de futures simulations informatiques. Il a également déclaré que cela permettrait à la France de signer le Traité d’interdiction complète des essais nucléaires (CTBT) interdisant toutes les explosions nucléaires, à des fins militaires ou autres, d’ici à l’automne 1996.
L’histoire des essais nucléaires en France
Un reportage sur les essais nucléaires français dans le Pacifique Sud. (Disclose).
Des représentants des autres puissances nucléaires mondiales ont exprimé leur inquiétude face à la décision de la France de mener de nouveaux essais si près de l’entrée en vigueur d’une interdiction complète. Les gouvernements de l’Australie, de la Nouvelle-Zélande et du Japon ont également manifesté leur ferme opposition, en publiant des déclarations diplomatiques, ainsi qu’en appelant au boycott des produits français et en mettant en œuvre d’autres mesures de rétorsion.
Une posture défensive a constitué un pilier de la politique française en matière d’armement nucléaire depuis l’entrée du pays dans le club atomique en 1960, avec la détonation de « Gerboise Bleue », une bombe de 70 kilotonnes, à Reggane, en Algérie. Les trois essais atmosphériques suivants ainsi que les treize essais souterrains réalisés au Sahara ont entraîné de graves conséquences sanitaires et environnementales à long terme pour les populations de la région.
En 1966, le programme d’essais nucléaires de la France fut transféré à Maō’hui Nui, connue sous le nom colonial de « Polynésie française ».
Au cours des 26 années suivantes, 187 détonations nucléaires et thermonucléaires françaises supplémentaires furent réalisées, en surface et en souterrain, sur les atolls pacifiques de Moruroa et Fangataufa. Ces essais ont exposé la population locale à des niveaux dangereux de radiation, contaminé les réserves alimentaires et en eau, endommagé les coraux ainsi que d’autres formes de vie marine.
Ces expériences – ainsi que les six dernières détonations souterraines menées par la France en 1995 et 1996 – ont laissé un héritage toxique pour les générations futures.
Des préjudices persistants, une indemnisation insuffisante
Lorsque Jacques Chirac a exposé ses raisons pour la nouvelle série d’essais nucléaires de la France devant une salle pleine de journalistes réunis au palais de l’Élysée en juin 1995, il a insisté sur le fait que ces essais prévus, ainsi que toutes les détonations nucléaires françaises, n’avaient absolument aucune conséquence écologique.
Aujourd’hui, nous savons que cette affirmation était bien plus qu’inexacte. Il s’agissait d’un mensonge fondé sur des données et des conclusions qui ont gravement sous-estimé les effets néfastes du programme d’essais nucléaires français sur la santé des soldats français et du personnel non militaire présents sur les sites, sur les habitants des zones environnantes, ainsi que sur les environnements où ces explosions ont eu lieu.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
En 2010, le gouvernement français a adopté la loi Morin censée répondre à la souffrance des personnes gravement affectées par les radiations lors des détonations nucléaires françaises entre 1960 et 1996.
Le nombre de personnes ayant obtenu une reconnaissance et une indemnisation reste insuffisant, en particulier en Algérie. Sur les 2 846 demandes déposées – émanant seulement d’une fraction des milliers de victimes estimées – un peu plus de 400 personnes à Maō’hui Nui et une seule en Algérie ont été indemnisées depuis 2010.
Les conclusions d’une récente commission parlementaire française sur les effets des essais dans le Pacifique, dont la publication est prévue prochainement, pourraient contribuer à une plus grande transparence et à une meilleure justice pour les victimes à l’avenir.
À Maʻohi Nui, les demandes de reconnaissance et de réparation sont étroitement liées au mouvement indépendantiste, tandis que l’impact et l’héritage des explosions nucléaires en Algérie restent une source de tensions persistantes avec la France, d’autant plus liée à son passé colonial.
L’avenir du traité d’interdiction des essais nucléaires
En janvier 1996, la France a procédé à son dernier essai nucléaire en faisant exploser une bombe de 120 kilotonnes sous terre dans le Pacifique Sud. En septembre de la même année, elle a signé le Traité d’interdiction complète des essais nucléaires (TICE), rejoignant les États-Unis, la Russie, le Royaume-Uni, la Chine et 66 autres États non dotés d’armes nucléaires dans leur engagement à ne plus effectuer d’explosions nucléaires, quel qu’en soit le motif.
En raison de ces exceptions majeures à l’interdiction des essais, les perspectives d’un projet aussi ambitieux que le Traité sur l’interdiction des armes nucléaires de 2017, qu’aucun État possédant l’arme nucléaire n’a signé à ce jour, restent pour le moins incertaines.
Roxanne Panchasi a reçu des financements du Conseil de recherches en sciences humaines du Canada (CRSH).
Les barbes les plus fournies suscitent souvent un mélange d’admiration, pour le style qu’elles confèrent à leurs porteurs, et de suspicion, quant à leur propreté et aux problèmes d’hygiène qu’elles pourraient poser. À tort, ou à raison ?
La peau humaine héberge des milliards de microorganismes – non seulement des bactéries, pour l’essentiel, mais aussi des champignons et des virus. Or, la pilosité faciale constitue un environnement propice à leur prolifération. Des travaux de recherche ont révélé que les barbes abritent une population microbienne particulièrement dense et variée, ce qui a contribué à alimenter l’idée selon laquelle elles seraient intrinsèquement peu hygiéniques.
Un examen attentif des données scientifiques disponibles révèle une réalité plus nuancée.
Des études contradictoires
La composition microbienne de la peau varie selon la zone considérée. Elle dépend de divers facteurs, tels que la température, le pH (qui rend compte du caractère acide ou basique d’un milieu), l’humidité et la disponibilité en nutriments. Le port de la barbe crée un milieu chaud et souvent humide où le sébum – et parfois les résidus alimentaires – peuvent s’accumuler, ce qui constitue des conditions idéales pour la prolifération microbienne.
Cette situation favorable est d’autant plus propice aux microorganismes que notre visage est exposé en permanence à de nouveaux contaminants, notamment par l’intermédiaire de nos mains, que nous portons fréquemment à notre visage.
Les premières préoccupations scientifiques quant à l’hygiène des barbes remontent à plus de cinquante ans. Des études pionnières avaient à l’époque démontré que la pilosité faciale pouvait retenir bactéries et toxines bactériennes, même après nettoyage, ce qui avait alimenté l’idée que la barbe aurait pu constituer un réservoir bactérien dangereux pour autrui, car exposant à des risques d’infection.
Chez les professionnels de santé, le port de la barbe a longtemps été controversé, notamment dans les hôpitaux, où la lutte contre la transmission des pathogènes est cruciale. Les résultats des recherches menées en milieu hospitalier sont toutefois contrastés. Certes, une étude a révélé que les soignants barbus avaient une charge bactérienne faciale plus élevée que leurs homologues rasés de près.
D’autres travaux, qui avaient comparé la charge microbienne de pilosités faciales humaines avec celle de pelages de chiens (pour savoir s’il existait un risque à employer un même appareil d’IRM pour les uns et pour les autres), ont révélé que la plupart des barbes hébergent nettement plus de microbes que le pelage des chiens, et notamment davantage de bactéries potentiellement pathogènes. La conclusion était claire : « Utiliser les mêmes machines d’IRM pour les chiens et les êtres humains ne présentent aucun risque pour ces derniers ».
Cependant, d’autres recherches remettent en cause l’idée que le port de la barbe pourrait être à l’origine d’un surrisque infectieux. Ainsi, des travaux comparant des soignants barbus avec leurs collègues glabres n’ont mis en évidence aucune différence significative de colonisation bactérienne entre les uns et les autres. Les mêmes chercheurs ont, par ailleurs, observé que les praticiens barbus étaient moins souvent porteurs de la bactérie Staphylococcus aureus, qui est le principal agent à l’origine d’infections nosocomiales (infections acquises à l’hôpital). Ils n’ont pas non plus remarqué de taux d’infection plus élevés chez les patients opérés par des chirurgiens barbus (et portant un masque) que chez les autres.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Les barbes peuvent toutefois véhiculer certaines infections cutanées, telles que l’impétigo, un rash (ou éruption) contagieux souvent dû à S. aureus, lequel est malgré tout fréquemment présent au niveau de la pilosité faciale. Dans de rares cas, on peut aussi retrouver dans certaines barbes des parasites tels que les poux du pubis (communément appelés morpions) – qui, comme leur nom l’indique, sont habituellement plutôt localisés au niveau inguinal. En cas de mauvaise hygiène, ou de contact prolongé avec une personne infectée, ceux-ci peuvent en effet finir par coloniser la barbe, les sourcils voire les cils.
Maintenir une bonne hygiène de barbe
Une barbe négligée peut favoriser irritation, inflammation et infection. La peau sous la barbe – riche en vaisseaux sanguins, terminaisons nerveuses et cellules immunitaires – est en effet très sensible aux agressions microbiologiques et environnementales. L’accumulation de sébum, de cellules mortes, de résidus alimentaires et de polluants peut l’irriter, et favoriser la croissance de champignons et de bactéries.
En définitive, est-ce que les barbes sont sales ? Comme souvent, tout dépend du soin qui leur est porté. Les experts recommandent vivement de laver quotidiennement sa barbe et son visage afin d’éliminer saletés, sébum, allergènes et cellules mortes, et prévenir ainsi la prolifération microbienne.
Les dermatologues conseillent également de procéder à une hydratation, pour éviter la sécheresse. Autres recommandations : peigner régulièrement sa barbe avec un peigne consacré à cet usage, afin d’en éliminer les saletés, et la tailler régulièrement. Ces quelques gestes quotidiens améliorent l’esthétique de la barbe, et permettent de la garder en pleine santé, en assurant une hygiène irréprochable.
Primrose Freestone ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Source: – By Stéphane Besançon, Associate Professor in Global Health at the Conservatoire National des Arts et Métiers (CNAM) / CEO NGO Santé Diabète, Conservatoire national des arts et métiers (CNAM)
En juin 2020, Danone est la première entreprise cotée au CAC 40 à obtenir cette qualité juridique. Pourra-t-elle encore le rester longtemps ?HJBC/Shutterstock
En abandonnant le Nutri-Score, Danone vient-elle d’acter le retrait de sa qualité de société à mission ? Toutes les hypothèses sont sur la table… Un véritable crash test pour l’avenir des entreprises à mission.
Danone décide le 5 septembre 2024 d’abandonner le logo nutritionnel Nutri-Score pour cinq de ses marques : Danonino, Actimel, Activia, Danone, HiPro. Le groupe d’agroalimentaire l’adopte en 2017. Il lui permet de remplir parfaitement sa mission d’information auprès des consommateurs pour les aider à faire leurs choix alimentaires de façon éclairée.
Une actualité en dissonance avec sa qualité de société à mission acquise en 2020 ? En France ce dispositif est créé par la loi Pacte de 2019. Il permet aux entreprises d’affirmer leur engagement dans la poursuite d’objectifs environnementaux et sociaux, et non plus seulement économiques. Un organisme tiers indépendant (OTI) assure la vérification de l’atteinte de ces objectifs et un comité de mission est chargé du suivi de l’exécution de cette mission.
Le 8e baromètre de l’Observatoire des sociétés à mission souligne le succès de cette démarche : fin 2024, 1 961 sociétés à mission sont recensées, soit un triplement en trois ans, dont Doctolib, Transdev, KMPG, KS Groupe, Camif, Bel, etc. Alors, Danone qui pourtant a été la première entreprise cotée au CAC 40 à obtenir cette qualité juridique, pourra-t-il rester une entreprise à mission ?
Santé des personnes
Pour illustrer sa vision et son ambition, Danone a choisi pour raison d’être : « apporter la santé par l’alimentation au plus grand nombre ». Dans ce cadre, Danone s’est fixé quatre objectifs généraux dont le premier vise à :
« Avoir un impact positif sur la santé des personnes au niveau local grâce à un portefeuille de produits plus sains, avec des marques encourageant de bons choix nutritionnels, et promouvoir de bonnes habitudes alimentaires. »
Le groupe Danone s’est engagé d’un côté à produire des aliments de meilleure qualité pour la santé des enfants, moins sucrés. De l’autre, permettre aux consommateurs de faire des choix nutritionnels éclairés, à l’aide d’un système d’information nutritionnelle interprétatif sur les emballages ou en ligne. Des engagements, sous forme de jalons quantifiés, sont pris, comme le rappelle le rapport du comité de mission de Danone en avril 2024 destiné à être présenté aux actionnaires lors de leur Assemblée générale.
Retour en arrière
Danone, qui a fortement soutenu le Nutri-Score depuis son officialisation en France en 2017, explique son retour en arrière. Selon le groupe, la version mise à jour de l’algorithme du Nutri-Score par le comité scientifique européen en charge de sa révision « pénaliserait » plus le classement de ses yaourts à boire et boissons végétales sucrées en les classant moins bien sur l’échelle du Nutri-Score par rapport à la « version initiale ».
Avec le désengagement du Nutri-Score pour certaines de ses marques phares, moins de produits afficheront un logo interprétatif en 2025. Un recul par rapport à la situation de 2023. La question est de savoir si, avec ce retrait, Danone est en mesure d’atteindre les objectifs quantifiés annoncés dans le rapport de 2024 publié par son comité de mission. Le cas échéant, assiste-t-on à un retour en arrière par rapport à l’avancée des engagements évalués en 2023 et présentés dans ce même rapport ?
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
On trouve la réponse à cette question dans le rapport de mission 2024 paru le 02 avril 2025. Ses résultats démontrent que sur la question de l’étiquetage nutritionnel, les engagements pris ne sont pas tenus et que les objectifs chiffrés ne sont pas atteints. Malgré ces écarts, le comité de mission conclut que Danone a honoré l’intégralité de ses engagements en 2024. Cette conclusion peut interroger sur le rôle réel du comité de mission de Danone.
Rôle du comité de mission
Le comité de mission de Danone est composé de huit membres : Pascal Lamy, président du comité de mission, Arancha González, Lise Kingo, Hiromichi Mizuno, David Nabarro, Ron Oswald, Gabriela Ilian Ramos et Emna Lahmer. Son rôle ? Veiller à ce que Danone respecte ses engagements en tant que société à mission. Comment ? En évaluant les progrès réalisés et en formulant des recommandations à travers un rapport joint au rapport de gestion et présenté annuellement à l’Assemblée générale ordinaire de l’entreprise.
Actimel est un produit phare de Danone concerné par la suppression du Nutri-Score. stoatphoto/Shutterstock
Il aurait été attendu que le comité de mission notifie, dans son dernier rapport 2024, le désengagement de Danone sur le Nutri-Score. Par conséquent, la non-atteinte de l’objectif concernant l’aide aux consommateurs pour faire des choix éclairés et la non atteinte du jalon « 95 % des volumes vendus de produits laitiers et d’origine végétale et de boissons aromatisées sont assortis d’un étiquetage nutritionnel interprétatif sur les emballages et/ou en ligne ».
« Concernant le bilan des résultats déjà obtenus, nous pouvons affirmer que Danone a honoré ses engagements. En 2024, l’entreprise a atteint ou dépassé tous les objectifs dont nous avons accepté de suivre la réalisation, à une exception près (la formation en ligne des salariés) – à laquelle Danone devrait remédier cette année. »
Plus préoccupant, le rapport du comité de mission affirme que « 95 % des volumes vendus de produits laitiers et d’origine végétale et de boissons aromatisées sont assortis d’un étiquetage nutritionnel interprétatif sur les emballages et/ou en ligne ». Pour combler le Nutri-Score, l’entreprise déploiera les Health Star Rating (HSR), utilisés en Australie et en Nouvelle-Zélande. Leur mode de calcul repose sur l’algorithme que le Nutri-Score utilisait avant sa mise à jour. Remplacer un logo qui informe le consommateur sur la forte teneur en sucre de gammes de produits peut-il être interprété comme une stratégie pour désinformer et tromper le consommateur ?
Retrait de la qualité par l’OTI ?
Si une entreprise ne tient pas ses engagements, elle peut perdre sa qualité de société à mission. L’organisme tiers indépendant (OTI), en charge de vérifier l’exécution des objectifs sociaux et environnementaux de l’entreprise, peut rendre un avis négatif. Il doit indiquer pourquoi l’entreprise ne respecte pas ou n’atteint pas les objectifs qu’elle s’est fixés. Le ministère public (procureurs de la République, ndlr) ou toute personne intéressée peut saisir le président du tribunal de commerce pour le retrait de la mention de société à mission.
Mazars est l’organisme tiers indépendant (OTI) de Danone. Le rapport du comité de mission de Danone évaluant l’année 2024 contient en annexe B « le rapport de l’organisme tiers indépendant sur la vérification de l’exécution des objectifs sociaux et environnementaux ». Le rapport du comité de mission 2024 contient la même annexe que le rapport du comité de mission 2023 à savoir l’analyse de la période allant du 1er janvier 2022 au 31 décembre 2023.
L’OTI n’a pas encore fourni de rapport concernant l’année 2024, année où Danone, par le choix du retrait du Nutri-Score, n’a pas été en mesure de respecter pleinement les engagements pris ainsi que les objectifs fixés.
Il est maintenant central d’attendre le rapport de l’OTI couvrant l’année 2024 pour savoir, si en analysant les données de l’année 2024, il joue pleinement son rôle. Rendra-t-il un avis négatif indiquant que la société ne respecte pas et n’a pas atteint certains de ces objectifs qu’elle s’était fixés ? Le rendu d’un avis négatif serait une première pour une société à mission. Il montrerait que les éléments économiques et financiers ne doivent pas l’emporter sur la poursuite d’objectifs visant la protection de la santé dans le cas d’une entreprise à mission.
DROIT DE REPONSE DU GROUPE DANONE, envoyé le 19 juin 2025
« L’article en question fonde son raisonnement sur une information fausse : l’engagement de société à mission de Danone ne porte pas sur le Nutri-Score. L’objectif opérationnel auquel il fait référence (parmi les 12 que s’est fixés l’entreprise dans le cadre de son statut de société à mission) est clair et formulé ainsi : « à fin 2025, Danone s’engage à rendre disponible sur emballage ou en ligne un indicateur d’information nutritionnelle interprétative pour 95% de ses produits dans le monde ».
Sur la base de cette allégation erronée, l’article multiplie les fausses informations, que nous vous listons ci-dessous :
-Il indique que les « résultats [du rapport de mission 2024] démontrent que sur la question de l’étiquetage nutritionnel, les engagements pris ne sont pas tenus et que les objectifs chiffrés ne sont pas atteints ». Cette affirmation est fausse. Le rapport 2024 du Comité de mission indique (p.10) : « Danone a ainsi dépassé son jalon 2024, atteignant 71,5 % de volumes vendus de produits laitiers et d’origine végétale et de boissons aromatisées (Aquadrinks) assortis d’un étiquetage nutritionnel interprétatif sur les emballages et/ou en ligne ».
-Par ailleurs, l’auteur avance qu’« il aurait été attendu que le comité de mission notifie, dans son dernier rapport 2024, le désengagement de Danone sur le Nutri-Score. Par conséquent, la non-atteinte de l’objectif concernant l’aide aux consommateurs pour faire des choix éclairés et la non atteinte du jalon « 95 % des volumes vendus de produits laitiers et d’origine végétale et de boissons aromatisées sont assortis d’un étiquetage nutritionnel interprétatif sur les emballages et/ou en ligne ». L’ensemble de cette affirmation est faux. D’abord, le rapport du Comité de mission note bien, à plusieurs reprises, le retrait de l’étiquetage nutritionnel Nutri-Score des produits laitiers et d’origine végétale à boire de Danone. Ensuite, l’objectif de 95% mentionné est un objectif à 2025, comme indiqué ci-dessus et précisément indiqué dans le rapport du Comité de mission. L’auteur ne peut donc en conclure qu’il n’a pas été atteint.
-Nous dénonçons par ailleurs vivement l’allégation de l’auteur, qui laisse entendre que l’adoption du système HSR serait « une stratégie pour désinformer et tromper le consommateur ». Le système HSR est un système d’étiquetage nutritionnel interprétatif fondé sur la science et référence de plusieurs organisations internationales pour évaluer la qualité nutritionnelle des portefeuilles de produits de grande consommation. Il ne saurait être assimilé à une entreprise de désinformation.
Danone est fier d’être reconnu pour notre mission d’apporter la santé par l’alimentation au plus grand nombre en figurant à la 1ère place de l’indice mondial d’accès à la nutrition 2024 (ATNI). Faire preuve de transparence pour aider les consommateurs à faire des choix d’alimentation sains et équilibrés est une priorité de notre Groupe.
Nous continuerons donc à soutenir la mise en place d’un étiquetage nutritionnel interprétatif à une échelle européenne, scientifiquement étayé, facile à comprendre pour le consommateur et permettant de distinguer les aliments à la fois au sein de leur catégorie et entre différentes catégories. »
Je travaille pour une ONG intervenant dans la santé