Trente ans après les derniers essais nucléaires français en Polynésie, un héritage toxique

Source: – By Roxanne Panchasi, Associate Professor, Department of History, Simon Fraser University

En visite officielle, au Parlement européen à Strasbourg en juillet 1995, Jacques Chirac se heurte à une protestation de la part de ses membres.
(European Parliament)

Le 13 juin 1995, le président Jacques Chirac annonçait la reprise des essais nucléaires dans le Pacifique Sud. La population de la Polynésie française attend encore une juste indemnisation pour les préjudices subis. En 2021, le président Macron a reconnu que la France avait une « dette » envers le peuple de Maō’hui Nui, appelant à l’ouverture d’archives clés. Une commission d’enquête parlementaire s’est emparée du sujet.


Ces derniers mois, la viabilité de l’arsenal nucléaire français a fait la une des journaux, entraînant des discussions sur un « parapluie nucléaire » français qui pourrait protéger ses alliés sur le continent européen. Face à la guerre entre la Russie et l’Ukraine, et aux déclarations du président russe Vladimir Poutine concernant la possibilité de déployer des armes nucléaires dans ce conflit, la question quant à la meilleure manière de défendre l’Europe crée une urgence inédite depuis l’époque la plus tendue de la guerre froide.

Malgré ses capacités nucléaires plus solides, les États-Unis, sous l’ère Donald Trump, semblent moins engagés dans la défense de leurs alliés de l’OTAN. Les débats sur le parapluie nucléaire français mis à part, ces discussions – combinées à l’augmentation des dépenses militaires dans le monde entier et à la résurgence des craintes d’une guerre nucléaire – rendent l’histoire française de la préparation nucléaire et de ses essais d’armes, douloureusement contemporaine.

Le 13 juin 1995, le président Jacques Chirac a annoncé que la France allait reprendre ses essais nucléaires dans le Pacifique Sud. Quelques semaines seulement après son élection, Jacques Chirac a mis fin à un moratoire de trois ans sur les essais que son prédécesseur, François Mitterrand, avait mis en place en avril 1992.

Jacques Chirac a insisté sur le fait que cette nouvelle série d’essais nucléaires était essentielle à la sécurité nationale de la France et au maintien de l’indépendance de sa force de dissuasion nucléaire. Les huit essais prévus au cours des mois suivants fourniraient, selon lui, les données nécessaires pour passer des explosions réelles à de futures simulations informatiques. Il a également déclaré que cela permettrait à la France de signer le Traité d’interdiction complète des essais nucléaires (CTBT) interdisant toutes les explosions nucléaires, à des fins militaires ou autres, d’ici à l’automne 1996.

L’histoire des essais nucléaires en France

Un reportage sur les essais nucléaires français dans le Pacifique Sud. (Disclose).

L’annonce faite par Jacques Chirac en juin 1995, suivie de la première nouvelle explosion en septembre de la même année, a suscité une vive opposition de la part des groupes écologistes et des pacifistes, ainsi que des protestations allant de Paris à Papeete, à travers la région Pacifique et dans le monde entier.

Des représentants des autres puissances nucléaires mondiales ont exprimé leur inquiétude face à la décision de la France de mener de nouveaux essais si près de l’entrée en vigueur d’une interdiction complète. Les gouvernements de l’Australie, de la Nouvelle-Zélande et du Japon ont également manifesté leur ferme opposition, en publiant des déclarations diplomatiques, ainsi qu’en appelant au boycott des produits français et en mettant en œuvre d’autres mesures de rétorsion.

Une posture défensive a constitué un pilier de la politique française en matière d’armement nucléaire depuis l’entrée du pays dans le club atomique en 1960, avec la détonation de « Gerboise Bleue », une bombe de 70 kilotonnes, à Reggane, en Algérie. Les trois essais atmosphériques suivants ainsi que les treize essais souterrains réalisés au Sahara ont entraîné de graves conséquences sanitaires et environnementales à long terme pour les populations de la région.

En 1966, le programme d’essais nucléaires de la France fut transféré à Maō’hui Nui, connue sous le nom colonial de « Polynésie française ».

Au cours des 26 années suivantes, 187 détonations nucléaires et thermonucléaires françaises supplémentaires furent réalisées, en surface et en souterrain, sur les atolls pacifiques de Moruroa et Fangataufa. Ces essais ont exposé la population locale à des niveaux dangereux de radiation, contaminé les réserves alimentaires et en eau, endommagé les coraux ainsi que d’autres formes de vie marine.

Ces expériences – ainsi que les six dernières détonations souterraines menées par la France en 1995 et 1996 – ont laissé un héritage toxique pour les générations futures.

Des préjudices persistants, une indemnisation insuffisante

Lorsque Jacques Chirac a exposé ses raisons pour la nouvelle série d’essais nucléaires de la France devant une salle pleine de journalistes réunis au palais de l’Élysée en juin 1995, il a insisté sur le fait que ces essais prévus, ainsi que toutes les détonations nucléaires françaises, n’avaient absolument aucune conséquence écologique.

Aujourd’hui, nous savons que cette affirmation était bien plus qu’inexacte. Il s’agissait d’un mensonge fondé sur des données et des conclusions qui ont gravement sous-estimé les effets néfastes du programme d’essais nucléaires français sur la santé des soldats français et du personnel non militaire présents sur les sites, sur les habitants des zones environnantes, ainsi que sur les environnements où ces explosions ont eu lieu.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Plus récemment, lors des Jeux olympiques de Paris 2024, il était difficile de ne pas ressentir l’évidente contradiction entre la « Polynésie française » en tant que paradis touristique et lieu idyllique pour les compétitions de surf, et celle d’un territoire marqué par l’injustice persistante envers les victimes des essais nucléaires – une réalité qui met en lumière l’histoire de l’impérialisme nucléaire de la France dans la région.

En 2010, le gouvernement français a adopté la loi Morin censée répondre à la souffrance des personnes gravement affectées par les radiations lors des détonations nucléaires françaises entre 1960 et 1996.

Le nombre de personnes ayant obtenu une reconnaissance et une indemnisation reste insuffisant, en particulier en Algérie. Sur les 2 846 demandes déposées – émanant seulement d’une fraction des milliers de victimes estimées – un peu plus de 400 personnes à Maō’hui Nui et une seule en Algérie ont été indemnisées depuis 2010.

En 2021, le président Emmanuel Macron a reconnu que la France avait une « dette » envers le peuple de Maō’hui Nui. Il a depuis appelé à l’ouverture d’archives clés liées à cette histoire, mais de nombreux efforts restent à faire sur tous les fronts.

Les conclusions d’une récente commission parlementaire française sur les effets des essais dans le Pacifique, dont la publication est prévue prochainement, pourraient contribuer à une plus grande transparence et à une meilleure justice pour les victimes à l’avenir.

À Maʻohi Nui, les demandes de reconnaissance et de réparation sont étroitement liées au mouvement indépendantiste, tandis que l’impact et l’héritage des explosions nucléaires en Algérie restent une source de tensions persistantes avec la France, d’autant plus liée à son passé colonial.

L’avenir du traité d’interdiction des essais nucléaires

En janvier 1996, la France a procédé à son dernier essai nucléaire en faisant exploser une bombe de 120 kilotonnes sous terre dans le Pacifique Sud. En septembre de la même année, elle a signé le Traité d’interdiction complète des essais nucléaires (TICE), rejoignant les États-Unis, la Russie, le Royaume-Uni, la Chine et 66 autres États non dotés d’armes nucléaires dans leur engagement à ne plus effectuer d’explosions nucléaires, quel qu’en soit le motif.

Près de 30 ans plus tard, le TICE n’est toujours pas entré en vigueur. Bien que la majorité des signataires l’aient ratifié, la Chine, l’Égypte, l’Iran, Israël et les États-Unis figurent parmi les neuf pays qui ne l’ont pas encore fait. Par ailleurs, la Russie a retiré sa ratification en 2023. Parmi les principaux non-signataires se trouvent l’Inde, la Corée du Nord et le Pakistan – trois États dotés de l’arme nucléaire ayant mené leurs propres essais depuis 1996.

En raison de ces exceptions majeures à l’interdiction des essais, les perspectives d’un projet aussi ambitieux que le Traité sur l’interdiction des armes nucléaires de 2017, qu’aucun État possédant l’arme nucléaire n’a signé à ce jour, restent pour le moins incertaines.

The Conversation

Roxanne Panchasi a reçu des financements du Conseil de recherches en sciences humaines du Canada (CRSH).

ref. Trente ans après les derniers essais nucléaires français en Polynésie, un héritage toxique – https://theconversation.com/trente-ans-apres-les-derniers-essais-nucleaires-francais-en-polynesie-un-heritage-toxique-258994

Hygiène : les barbes sont-elles des nids à microbes ?

Source: – By Primrose Freestone, Senior Lecturer in Clinical Microbiology, University of Leicester

Les barbes fournies demandent un entretien certain. Bernardo Emanuelle/Shutterstock

Les barbes les plus fournies suscitent souvent un mélange d’admiration, pour le style qu’elles confèrent à leurs porteurs, et de suspicion, quant à leur propreté et aux problèmes d’hygiène qu’elles pourraient poser. À tort, ou à raison ?


La peau humaine héberge des milliards de microorganismes – non seulement des bactéries, pour l’essentiel, mais aussi des champignons et des virus. Or, la pilosité faciale constitue un environnement propice à leur prolifération. Des travaux de recherche ont révélé que les barbes abritent une population microbienne particulièrement dense et variée, ce qui a contribué à alimenter l’idée selon laquelle elles seraient intrinsèquement peu hygiéniques.

On a même récemment pu lire, dans les colonnes du très sérieux quotidien Washington Post, qu’une barbe « moyenne » pouvait contenir davantage de germes que certaines cuvettes de WC… Est-ce à dire que porter la barbe fait courir un risque sanitaire ?

Un examen attentif des données scientifiques disponibles révèle une réalité plus nuancée.

Des études contradictoires

La composition microbienne de la peau varie selon la zone considérée. Elle dépend de divers facteurs, tels que la température, le pH (qui rend compte du caractère acide ou basique d’un milieu), l’humidité et la disponibilité en nutriments. Le port de la barbe crée un milieu chaud et souvent humide où le sébum – et parfois les résidus alimentaires – peuvent s’accumuler, ce qui constitue des conditions idéales pour la prolifération microbienne.

Cette situation favorable est d’autant plus propice aux microorganismes que notre visage est exposé en permanence à de nouveaux contaminants, notamment par l’intermédiaire de nos mains, que nous portons fréquemment à notre visage.

Les premières préoccupations scientifiques quant à l’hygiène des barbes remontent à plus de cinquante ans. Des études pionnières avaient à l’époque démontré que la pilosité faciale pouvait retenir bactéries et toxines bactériennes, même après nettoyage, ce qui avait alimenté l’idée que la barbe aurait pu constituer un réservoir bactérien dangereux pour autrui, car exposant à des risques d’infection.

Chez les professionnels de santé, le port de la barbe a longtemps été controversé, notamment dans les hôpitaux, où la lutte contre la transmission des pathogènes est cruciale. Les résultats des recherches menées en milieu hospitalier sont toutefois contrastés. Certes, une étude a révélé que les soignants barbus avaient une charge bactérienne faciale plus élevée que leurs homologues rasés de près.

D’autres travaux, qui avaient comparé la charge microbienne de pilosités faciales humaines avec celle de pelages de chiens (pour savoir s’il existait un risque à employer un même appareil d’IRM pour les uns et pour les autres), ont révélé que la plupart des barbes hébergent nettement plus de microbes que le pelage des chiens, et notamment davantage de bactéries potentiellement pathogènes. La conclusion était claire : « Utiliser les mêmes machines d’IRM pour les chiens et les êtres humains ne présentent aucun risque pour ces derniers ».

Un chien se tenant devant une machine d’IRM.
Chiens et humains peuvent partager les mêmes IRM sans risque particulier.
Dmytro Zinkevych/Shutterstock

Cependant, d’autres recherches remettent en cause l’idée que le port de la barbe pourrait être à l’origine d’un surrisque infectieux. Ainsi, des travaux comparant des soignants barbus avec leurs collègues glabres n’ont mis en évidence aucune différence significative de colonisation bactérienne entre les uns et les autres. Les mêmes chercheurs ont, par ailleurs, observé que les praticiens barbus étaient moins souvent porteurs de la bactérie Staphylococcus aureus, qui est le principal agent à l’origine d’infections nosocomiales (infections acquises à l’hôpital). Ils n’ont pas non plus remarqué de taux d’infection plus élevés chez les patients opérés par des chirurgiens barbus (et portant un masque) que chez les autres.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Les barbes peuvent toutefois véhiculer certaines infections cutanées, telles que l’impétigo, un rash (ou éruption) contagieux souvent dû à S. aureus, lequel est malgré tout fréquemment présent au niveau de la pilosité faciale. Dans de rares cas, on peut aussi retrouver dans certaines barbes des parasites tels que les poux du pubis (communément appelés morpions) – qui, comme leur nom l’indique, sont habituellement plutôt localisés au niveau inguinal. En cas de mauvaise hygiène, ou de contact prolongé avec une personne infectée, ceux-ci peuvent en effet finir par coloniser la barbe, les sourcils voire les cils.

Maintenir une bonne hygiène de barbe

Une barbe négligée peut favoriser irritation, inflammation et infection. La peau sous la barbe – riche en vaisseaux sanguins, terminaisons nerveuses et cellules immunitaires – est en effet très sensible aux agressions microbiologiques et environnementales. L’accumulation de sébum, de cellules mortes, de résidus alimentaires et de polluants peut l’irriter, et favoriser la croissance de champignons et de bactéries.

En définitive, est-ce que les barbes sont sales ? Comme souvent, tout dépend du soin qui leur est porté. Les experts recommandent vivement de laver quotidiennement sa barbe et son visage afin d’éliminer saletés, sébum, allergènes et cellules mortes, et prévenir ainsi la prolifération microbienne.

Les dermatologues conseillent également de procéder à une hydratation, pour éviter la sécheresse. Autres recommandations : peigner régulièrement sa barbe avec un peigne consacré à cet usage, afin d’en éliminer les saletés, et la tailler régulièrement. Ces quelques gestes quotidiens améliorent l’esthétique de la barbe, et permettent de la garder en pleine santé, en assurant une hygiène irréprochable.

The Conversation

Primrose Freestone ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Hygiène : les barbes sont-elles des nids à microbes ? – https://theconversation.com/hygiene-les-barbes-sont-elles-des-nids-a-microbes-258850

Abandon du Nutri-Score de Danone : retrait de sa qualité de société à mission ?

Source: – By Stéphane Besançon, Associate Professor in Global Health at the Conservatoire National des Arts et Métiers (CNAM) / CEO NGO Santé Diabète, Conservatoire national des arts et métiers (CNAM)

En juin 2020, Danone est la première entreprise cotée au CAC 40 à obtenir cette qualité juridique. Pourra-t-elle encore le rester longtemps ? HJBC/Shutterstock

En abandonnant le Nutri-Score, Danone vient-elle d’acter le retrait de sa qualité de société à mission ? Toutes les hypothèses sont sur la table… Un véritable crash test pour l’avenir des entreprises à mission.


Danone décide le 5 septembre 2024 d’abandonner le logo nutritionnel Nutri-Score pour cinq de ses marques : Danonino, Actimel, Activia, Danone, HiPro. Le groupe d’agroalimentaire l’adopte en 2017. Il lui permet de remplir parfaitement sa mission d’information auprès des consommateurs pour les aider à faire leurs choix alimentaires de façon éclairée.

Une actualité en dissonance avec sa qualité de société à mission acquise en 2020 ? En France ce dispositif est créé par la loi Pacte de 2019. Il permet aux entreprises d’affirmer leur engagement dans la poursuite d’objectifs environnementaux et sociaux, et non plus seulement économiques. Un organisme tiers indépendant (OTI) assure la vérification de l’atteinte de ces objectifs et un comité de mission est chargé du suivi de l’exécution de cette mission.

Le 8e baromètre de l’Observatoire des sociétés à mission souligne le succès de cette démarche : fin 2024, 1 961 sociétés à mission sont recensées, soit un triplement en trois ans, dont Doctolib, Transdev, KMPG, KS Groupe, Camif, Bel, etc. Alors, Danone qui pourtant a été la première entreprise cotée au CAC 40 à obtenir cette qualité juridique, pourra-t-il rester une entreprise à mission ?

Santé des personnes

Pour illustrer sa vision et son ambition, Danone a choisi pour raison d’être : « apporter la santé par l’alimentation au plus grand nombre ». Dans ce cadre, Danone s’est fixé quatre objectifs généraux dont le premier vise à :

« Avoir un impact positif sur la santé des personnes au niveau local grâce à un portefeuille de produits plus sains, avec des marques encourageant de bons choix nutritionnels, et promouvoir de bonnes habitudes alimentaires. »

Le groupe Danone s’est engagé d’un côté à produire des aliments de meilleure qualité pour la santé des enfants, moins sucrés. De l’autre, permettre aux consommateurs de faire des choix nutritionnels éclairés, à l’aide d’un système d’information nutritionnelle interprétatif sur les emballages ou en ligne. Des engagements, sous forme de jalons quantifiés, sont pris, comme le rappelle le rapport du comité de mission de Danone en avril 2024 destiné à être présenté aux actionnaires lors de leur Assemblée générale.

Retour en arrière

Danone, qui a fortement soutenu le Nutri-Score depuis son officialisation en France en 2017, explique son retour en arrière. Selon le groupe, la version mise à jour de l’algorithme du Nutri-Score par le comité scientifique européen en charge de sa révision « pénaliserait » plus le classement de ses yaourts à boire et boissons végétales sucrées en les classant moins bien sur l’échelle du Nutri-Score par rapport à la « version initiale ».




À lire aussi :
Pourquoi Danone retire le Nutri-score de ses yaourts à boire


Avec le désengagement du Nutri-Score pour certaines de ses marques phares, moins de produits afficheront un logo interprétatif en 2025. Un recul par rapport à la situation de 2023. La question est de savoir si, avec ce retrait, Danone est en mesure d’atteindre les objectifs quantifiés annoncés dans le rapport de 2024 publié par son comité de mission. Le cas échéant, assiste-t-on à un retour en arrière par rapport à l’avancée des engagements évalués en 2023 et présentés dans ce même rapport ?


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


On trouve la réponse à cette question dans le rapport de mission 2024 paru le 02 avril 2025. Ses résultats démontrent que sur la question de l’étiquetage nutritionnel, les engagements pris ne sont pas tenus et que les objectifs chiffrés ne sont pas atteints. Malgré ces écarts, le comité de mission conclut que Danone a honoré l’intégralité de ses engagements en 2024. Cette conclusion peut interroger sur le rôle réel du comité de mission de Danone.

Rôle du comité de mission

Le comité de mission de Danone est composé de huit membres : Pascal Lamy, président du comité de mission, Arancha González, Lise Kingo, Hiromichi Mizuno, David Nabarro, Ron Oswald, Gabriela Ilian Ramos et Emna Lahmer. Son rôle ? Veiller à ce que Danone respecte ses engagements en tant que société à mission. Comment ? En évaluant les progrès réalisés et en formulant des recommandations à travers un rapport joint au rapport de gestion et présenté annuellement à l’Assemblée générale ordinaire de l’entreprise.

Actimel est un produit phare de Danone concerné par la suppression du Nutri-Score.
stoatphoto/Shutterstock

Il aurait été attendu que le comité de mission notifie, dans son dernier rapport 2024, le désengagement de Danone sur le Nutri-Score. Par conséquent, la non-atteinte de l’objectif concernant l’aide aux consommateurs pour faire des choix éclairés et la non atteinte du jalon « 95 % des volumes vendus de produits laitiers et d’origine végétale et de boissons aromatisées sont assortis d’un étiquetage nutritionnel interprétatif sur les emballages et/ou en ligne ».

Malheureusement, cela n’a pas été le cas. Le rapport de mission 2024 paru le 02 avril 2025 conclut :

« Concernant le bilan des résultats déjà obtenus, nous pouvons affirmer que Danone a honoré ses engagements. En 2024, l’entreprise a atteint ou dépassé tous les objectifs dont nous avons accepté de suivre la réalisation, à une exception près (la formation en ligne des salariés) – à laquelle Danone devrait remédier cette année. »

Plus préoccupant, le rapport du comité de mission affirme que « 95 % des volumes vendus de produits laitiers et d’origine végétale et de boissons aromatisées sont assortis d’un étiquetage nutritionnel interprétatif sur les emballages et/ou en ligne ». Pour combler le Nutri-Score, l’entreprise déploiera les Health Star Rating (HSR), utilisés en Australie et en Nouvelle-Zélande. Leur mode de calcul repose sur l’algorithme que le Nutri-Score utilisait avant sa mise à jour. Remplacer un logo qui informe le consommateur sur la forte teneur en sucre de gammes de produits peut-il être interprété comme une stratégie pour désinformer et tromper le consommateur ?

Retrait de la qualité par l’OTI ?

Si une entreprise ne tient pas ses engagements, elle peut perdre sa qualité de société à mission. L’organisme tiers indépendant (OTI), en charge de vérifier l’exécution des objectifs sociaux et environnementaux de l’entreprise, peut rendre un avis négatif. Il doit indiquer pourquoi l’entreprise ne respecte pas ou n’atteint pas les objectifs qu’elle s’est fixés. Le ministère public (procureurs de la République, ndlr) ou toute personne intéressée peut saisir le président du tribunal de commerce pour le retrait de la mention de société à mission.

Mazars est l’organisme tiers indépendant (OTI) de Danone. Le rapport du comité de mission de Danone évaluant l’année 2024 contient en annexe B « le rapport de l’organisme tiers indépendant sur la vérification de l’exécution des objectifs sociaux et environnementaux ». Le rapport du comité de mission 2024 contient la même annexe que le rapport du comité de mission 2023 à savoir l’analyse de la période allant du 1er janvier 2022 au 31 décembre 2023.

L’OTI n’a pas encore fourni de rapport concernant l’année 2024, année où Danone, par le choix du retrait du Nutri-Score, n’a pas été en mesure de respecter pleinement les engagements pris ainsi que les objectifs fixés.

Il est maintenant central d’attendre le rapport de l’OTI couvrant l’année 2024 pour savoir, si en analysant les données de l’année 2024, il joue pleinement son rôle. Rendra-t-il un avis négatif indiquant que la société ne respecte pas et n’a pas atteint certains de ces objectifs qu’elle s’était fixés ? Le rendu d’un avis négatif serait une première pour une société à mission. Il montrerait que les éléments économiques et financiers ne doivent pas l’emporter sur la poursuite d’objectifs visant la protection de la santé dans le cas d’une entreprise à mission.

DROIT DE REPONSE DU GROUPE DANONE, envoyé le 19 juin 2025

« L’article en question fonde son raisonnement sur une information fausse : l’engagement de société à mission de Danone ne porte pas sur le Nutri-Score. L’objectif opérationnel auquel il fait référence (parmi les 12 que s’est fixés l’entreprise dans le cadre de son statut de société à mission) est clair et formulé ainsi : « à fin 2025, Danone s’engage à rendre disponible sur emballage ou en ligne un indicateur d’information nutritionnelle interprétative pour 95% de ses produits dans le monde ».

Sur la base de cette allégation erronée, l’article multiplie les fausses informations, que nous vous listons ci-dessous :

-Il indique que les « résultats [du rapport de mission 2024] démontrent que sur la question de l’étiquetage nutritionnel, les engagements pris ne sont pas tenus et que les objectifs chiffrés ne sont pas atteints ». Cette affirmation est fausse. Le rapport 2024 du Comité de mission indique (p.10) : « Danone a ainsi dépassé son jalon 2024, atteignant 71,5 % de volumes vendus de produits laitiers et d’origine végétale et de boissons aromatisées (Aquadrinks) assortis d’un étiquetage nutritionnel interprétatif sur les emballages et/ou en ligne ».

-Par ailleurs, l’auteur avance qu’« il aurait été attendu que le comité de mission notifie, dans son dernier rapport 2024, le désengagement de Danone sur le Nutri-Score. Par conséquent, la non-atteinte de l’objectif concernant l’aide aux consommateurs pour faire des choix éclairés et la non atteinte du jalon « 95 % des volumes vendus de produits laitiers et d’origine végétale et de boissons aromatisées sont assortis d’un étiquetage nutritionnel interprétatif sur les emballages et/ou en ligne ». L’ensemble de cette affirmation est faux. D’abord, le rapport du Comité de mission note bien, à plusieurs reprises, le retrait de l’étiquetage nutritionnel Nutri-Score des produits laitiers et d’origine végétale à boire de Danone. Ensuite, l’objectif de 95% mentionné est un objectif à 2025, comme indiqué ci-dessus et précisément indiqué dans le rapport du Comité de mission. L’auteur ne peut donc en conclure qu’il n’a pas été atteint.

-Nous dénonçons par ailleurs vivement l’allégation de l’auteur, qui laisse entendre que l’adoption du système HSR serait « une stratégie pour désinformer et tromper le consommateur ». Le système HSR est un système d’étiquetage nutritionnel interprétatif fondé sur la science et référence de plusieurs organisations internationales pour évaluer la qualité nutritionnelle des portefeuilles de produits de grande consommation. Il ne saurait être assimilé à une entreprise de désinformation.

Danone est fier d’être reconnu pour notre mission d’apporter la santé par l’alimentation au plus grand nombre en figurant à la 1ère place de l’indice mondial d’accès à la nutrition 2024 (ATNI). Faire preuve de transparence pour aider les consommateurs à faire des choix d’alimentation sains et équilibrés est une priorité de notre Groupe.

Nous continuerons donc à soutenir la mise en place d’un étiquetage nutritionnel interprétatif à une échelle européenne, scientifiquement étayé, facile à comprendre pour le consommateur et permettant de distinguer les aliments à la fois au sein de leur catégorie et entre différentes catégories. »

The Conversation

Je travaille pour une ONG intervenant dans la santé

ref. Abandon du Nutri-Score de Danone : retrait de sa qualité de société à mission ? – https://theconversation.com/abandon-du-nutri-score-de-danone-retrait-de-sa-qualite-de-societe-a-mission-253169

Jews were barred from Spain’s New World colonies − but that didn’t stop Jewish and converso writers from describing the Americas

Source: – By Flora Cassen, Senior Faculty, Hartman Institute and Associate Professor of History and Jewish Studies, Washington University in St. Louis

An auto-da-fé − a public punishment for heretics − in San Bartolome Otzolotepec, in present-day Mexico. Museo Nacional de Arte via Wikimedia Commons

Every few years, a story about Columbus resurfaces: Was the Genoese navigator who claimed the Americas for Spain secretly Jewish, from a Spanish family fleeing the Inquisition?

This tale became widespread around the late 19th century, when large numbers of Jews came from Russia and Eastern Europe to the United States. For these immigrants, 1492 held double significance: the year of Jews’ expulsion from Spain, as well as Columbus’ voyage of discovery. At a time when many Americans viewed the explorer as a hero, the idea that he might have been one of their own offered Jewish immigrants a link to the beginnings of their new country and the American story of freedom from Old World tyranny.

The problem with the Columbus-was-a-Jew theory isn’t just that it’s based on flimsy evidence. It also distracts from the far more complex and true story of Spanish Jews in the Americas.

In the 15th century, the kingdom’s Jews faced a wrenching choice: convert to Christianity or leave the land their families had called home for generations. Portugal’s Jews faced similar persecution. Whether they sought a new place to settle or stayed and hoped to be accepted as members of Christian society, both groups were searching for belonging.

A display case shows an open book with Hebrew text, as well as leather religious objects and a velvet bag.
Jewish religious items at the Museo Metropolitano in Monterrey, Mexico.
Thelmadatter/Wikimedia Commons, CC BY-SA

We are scholars of Jewish history and have been working on the first English translations of two texts from the 16th century. “The Book of New India,” by Joseph Ha-Kohen, and the spiritual writings of Luis de Carvajal are two of the earliest Jewish texts about the Americas.

The story of the New World is not complete without the voices of Jewish communities that engaged with it from the very beginning.

Double consciousness

The first Jews in the Americas were, in fact, not Jews but “conversos,” meaning “converts,” and their descendants.

After a millennium of relatively peaceful and prosperous life on Iberian soil, the Jews of Spain were attacked by a wave of mob violence in the summer of 1391. Afterward, thousands of Jews were forcibly converted.

Two people stand in a tall hall with intricately carved windows and designs.
Synagogue of El Tránsito, a 14th-century Jewish congregation in Toledo, Spain.
Selbymay/Wikimedia Commons, CC BY-SA

While conversos were officially members of the Catholic Church, neighbors looked at them with suspicion. Some of these converts were “crypto-Jews,” who secretly held on to their ancestral faith. Spanish authorities formed the Inquisition to root out anyone the church considered heretics, especially people who had converted from Judaism and Islam.

In 1492, after conquering the last Muslim stronghold in Spain, monarchs Ferdinand and Isabella gave the remaining Spanish Jews the choice of conversion or exile. Eventually, people who converted from Islam would be expelled as well.

Among Jews who converted, some sought new lives within the rapidly expanding Spanish empire. As the historian Jonathan Israel wrote, Jews and conversos were both “agents and victims of empire.” Their familiarity with Iberian language and culture, combined with the dispersion of their community, positioned them to participate in the new global economy: trade in sugar, textiles, spices – and the trade in human lives, Atlantic slavery.

Yet conversos were also far more vulnerable than their compatriots: They could lose it all, even end up burned alive at the stake, because of their beliefs. This double consciousness – being part of the culture, yet apart from it – is what makes conversos vital to understanding the complexities of colonial Latin America.

By the 17th century, once the Dutch and the English conquered parts of the Americas, Jews would be able to live there. Often, these were families whose ancestors had been expelled from the Iberian peninsula. In the first Spanish and Portuguese colonies, however, Jews were not allowed to openly practice their faith.

Secret spirituality

One of these conversos was Luis de Carvajal. His uncle, the similarly named Luis de Carvajal y de la Cueva, was a merchant, slave trader and conquistador. As a reward for his exploits he was named governor of the New Kingdom of León, in the northeast of modern-day Mexico. In 1579 he brought over a large group of relatives to help him settle and administer the rugged territory, which was made up of swamps, deserts and silver mines.

A statue of a man looking deep in thought as he sits on a horse.
A statue in Monterrey, Mexico, of Luis Carvajal y de la Cueva.
Ricardo DelaG/Wikimedia Commons, CC BY-SA

The uncle was a devout Catholic who attempted to shed his converso past, integrating himself into the landed gentry of Spain’s New World empire. Luis the younger, however, his potential heir, was a passionate crypto-Jew who spent his free time composing prayers to the God of Israel and secretly following the commandments of the Torah.

When Luis and his family were arrested by the Inquisition in 1595, his book of spiritual writings was discovered and used as evidence of his secret Jewish life. Luis, his mother and sister were burned at the stake, but the small, leather-bound diary survived.

A black and white illustration of a woman about to be burned at the stake.
A 19th-century depiction of the execution of Luis de Carvajal the Younger’s sister.
‘El Libro Rojo, 1520-1867’ via Wikimedia Commons

Luis’ religious thought drew on a wide range of early modern Spanish culture. He used a Latin Bible and drew inspiration from the inwardly focused spirituality of Catholic thinkers such as Fray Luis de Granada, a Dominican theologian. He met with the hermit and mystic Gregorio López. He discovered passages from Maimonides and other rabbis quoted in the works of Catholic theologians whom he read at the famed monastery of Santiago de Tlatelolco, in Mexico City, where he worked as an assistant to the rector.

His spiritual writings are deeply American: The wide deserts and furious hurricanes of Mexico were the setting of his spiritual awakenings, and his encounters with the people and cultures of the emerging Atlantic world shaped his religious vision. This little book is a unique example of the brilliant, creative culture that developed in the crossing from Old World to New, born out of the exchange and conflict between diverse cultures, languages and faiths.

An open manuscript with large lettering in gold and black.
A glimpse of Luis de Carvajal’s spiritual writings, photographed in New York City.
Ronnie Perelis

More than translation

Spanish Jews who refused to convert in 1492, meanwhile, had been forced into exile and barred from the kingdom’s colonies.

The journey of Joseph Ha-Kohen’s family illustrates the hardships. After the expulsion, his parents moved to Avignon, the papal city in southern France, where Joseph was born in 1496. From there, they made their way to Genoa, the Italian merchant city, hoping to establish themselves. But it was not to be. The family was repeatedly expelled, permitted to return, and then expelled again.

Despite these upheavals, Ha-Kohen became a doctor and a merchant, a leader in the Jewish community – earning the respect of the Christian community, too. Toward the end of his life, he settled in a small mountain town beyond the city’s borders and turned to writing.

After a book on wars between Christianity and Islam, and another one on the history of the Jews, he began a new project. Ha-Kohen adapted “Historia General de las Indias,” an account of the Americas’ colonization by Spanish historian Francisco López de Gómara, reshaping the text for a Jewish audience.

A faded title page of a manuscript, with printed writing in Hebrew.
A 1733 edition of ‘Divrei Ha-Yamim,’ Ha-Kohen’s book about wars between Christian and Muslim cultures.
John Carter Brown Library via Wikimedia Commons

Ha-Kohen’s work was the first Hebrew-language book about the Americas. The text was hundreds of pages long – and he copied his entire manuscript nine times by hand. He had never seen the Americas, but his own life of repeated uprooting may have led him to wonder whether Jews would one day seek refuge there.

Ha-Kohen wanted his readers to have access to the text’s geographical, botanical and anthropological information, but not to Spain’s triumphalist narrative. So he created an adapted, hybrid translation. The differences between versions reveal the complexities of being a European Jew in the age of exploration.

Ha-Kohen omitted references to the Americas as Spanish territory and criticized the conquistadors for their brutality toward Indigenous peoples. At times, he compared Native Americans with the ancient Israelites of the Bible, feeling a kinship with them as fellow victims of oppression. Yet at other moments he expressed estrangement and even revulsion at Indigenous customs and described their religious practices as “darkness.”

Translating these men’s writing is not just a matter of bringing a text from one language into another. It is also a deep reflection on the complex position of Jews and conversos in those years. Their unique vantage point offers a window into the intertwined histories of Europe, the Americas and the in-betweenness that marked the Jewish experience in the early modern world.

The Conversation

The authors do not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. Jews were barred from Spain’s New World colonies − but that didn’t stop Jewish and converso writers from describing the Americas – https://theconversation.com/jews-were-barred-from-spains-new-world-colonies-but-that-didnt-stop-jewish-and-converso-writers-from-describing-the-americas-258278

Energies renouvelables, voitures électriques… quels sont leurs effets sur le réseau électrique ?

Source: The Conversation – France (in French) – By Nouredine Hadjsaïd, Professeur à Grenoble INP, directeur du G2Elab, Grenoble INP – UGA

Après la tentative de moratoire sur les énergies renouvelables du Rasemblement national en juin, c’est le ministre de l’intérieur Bruno Retailleau (Les Républicains) qui a demandé l’arrêt des subventions publiques à l’éolien et au photovoltaïque, estimant que ces énergies « n’apportent au mix énergétique français qu’une intermittence coûteuse à gérer ». Des propos dénoncés comme « irresponsables » par la ministre de la transition écologique, Agnès Pannier-Runacher.

Est-ce vraiment le cas ? Certes, la transition énergétique et la décarbonation de l’économie font peser des contraintes inédites sur les réseaux électriques. Les incertitudes de planification augmentent, à la fois du fait de la variabilité des énergies renouvelables sensibles aux conditions météorologiques (solaire, éolien…). Mais le problème vient aussi de la montée en puissance du véhicule électrique, dont le lieu de consommation change au cours du temps. Des défis qu’il est possible de relever, à condition de s’en donner les moyens.

Quant à l’augmentation des capacités nucléaires défendue par Bruno Retailleau, elle serait très coûteuse car elle impliquerait de sous-exploiter ces nouvelles installations une partie de l’année.


On l’appelle « fée électricité ». De fait, les réseaux électriques sont l’une des infrastructures les plus emblématiques jamais conçues par l’humain. Ils sont aussi l’une des plus complexes. Essentiels à l’électrification de nos sociétés humaines, ils sont devenus cruciaux pour d’autres infrastructures vitales, telles que les transports, les technologies de l’information en passant par la gestion des ressources en eau.

Ces réseaux sont aussi très étendus : leur échelle est celle de l’Europe, et même au-delà. De ce fait, ils peuvent être sources de tensions du fait du jeu d’interdépendances complexes et du comportement non linéaire des systèmes électriques. Ceci peut provoquer quelques fois des blackouts, comme on l’a vu en Espagne, fin avril 2025.

S’ajoute désormais l’impératif de transition énergétique et de décarbonation de l’économie. Pour atteindre la neutralité carbone en 2050, nous misons, en grande partie, sur une électrification encore plus poussée de nos usages et des sources d’énergies (renouvelables).

En cela, les réseaux électriques sont la véritable « colonne vertébrale » de la neutralité carbone. Déjà complexe à la base, ils font face aujourd’hui à de nouveaux défis dans le cadre de la décarbonation, qui ajoute un étage de complexité supplémentaire. Mais des pistes existent.




À lire aussi :
Avenir énergétique de la France : le texte du gouvernement est-il à la hauteur des enjeux ?


Les réseaux électriques, un système complexe…

Le principal facteur de complexité des systèmes électriques tient à la nécessité d’équilibrer la production (l’offre) et la consommation (la demande), dans un contexte où les capacités de stockage d’électricité sont limitées. De nombreuses technologies de stockage de l’électricité existent et sont en cours de développement. Mais, aujourd’hui, les moyens les plus répandus pour, les réseaux électriques, sont le stockage par turbinage-pompage sur certaines infrastructures hydroélectriques

Cet équilibre est fait à travers les réseaux électriques. Ces derniers, grâce au foisonnement qu’ils permettent entre les divers moyens de production et les diverses formes d’usage et de consommation, permettent à chaque utilisateur d’accéder à la source d’énergie la plus disponible et la plus économique à chaque instant. Ceci lui permet de bénéficier de la concurrence éventuelle entre les différentes sources d’énergie – même les plus éloignées – pour bénéficier des coûts les plus bas.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Cela permet aussi de faire face plus facilement aux diverses défaillances pouvant survenir dans le système électrique. En effet, en cas de défaillance d’une unité de production, le caractère interconnecté et mutualisé du réseau permet facilement à une autre de prendre le relais. Les réseaux électriques, à travers la mutualisation à large échelle qu’ils permettent, sont donc une source d’économie et de sécurité pour tous leurs utilisateurs.

… rendu plus complexe encore par l’enjeu de décarbonation

Pour atteindre la neutralité carbone, il faut poursuivre et accélérer l’électrification des usages (par exemple, passage du véhicule thermique au véhicule électrique) tout en augmentant les capacités de production d’électricité.

À titre indicatif, l’humanité a mis environ cent cinquante ans pour passer de 0 à près de 25 % de part d’électricité dans sa consommation d’énergie finale.

Affiche de la fin du XIXᵉ siècle vantant l’énergie électrique.

Or, pour atteindre les objectifs de la neutralité carbone, il faudra que la part d’électricité dans cette consommation d’énergie finale passe d’environ 25 % à 60 %, et cela en moins de vingt-cinq ans : c’est dire l’ampleur du défi. C’est une véritable seconde révolution électrique qui nous attend, la première étant celle qui a apporté la lumière à l’humanité – la fameuse « fée électricité » – à la fin du XIXe siècle.

Il faut également prendre en compte l’impact des énergies renouvelables (EnR) sur les systèmes électriques, en particulier, la variabilité de certaines productions du fait de leur dépendance des conditions météorologiques, ainsi que du caractère décentralisé et distribué pour une grande partie d’entre elles.

Le développement rapide des véhicules électriques est également un défi, comme leur lieu de consommation (en fonction du site de recharge) n’est pas constant dans le temps. Enfin, la complexité croissante du réseau européen interconnecté, dans un contexte de fort développement des EnR, constitue un enjeu supplémentaire.

Il est à noter que la grande majorité des EnR mais aussi les véhicules électriques rechargeables sont connectés au niveau des réseaux de distribution. Cependant, ces derniers n’ont pas été conçus pour raccorder en masse des sources d’énergie ni des charges « qui se déplacent », avec un niveau d’incertitude en constante augmentation, qui complexifient encore la gestion de ces réseaux.

Les réseaux électriques sont au cœur de cette révolution, qui pose des défis scientifiques, technologiques, économiques, sociologiques et réglementaires considérables.




À lire aussi :
La flexibilité électrique, ou comment décaler nos usages pour optimiser la charge du réseau


Une réalité physique : équilibrer production et consommation en temps réel

Le réseau électrique a ceci d’unique que la consommation (la demande) doit être égale à la production (l’offre) à tout instant. Les centrales de production interconnectées produisent à la même fréquence électrique, sous peine de perte de synchronisme. Une bonne analogie pour comprendre le phénomène est celle du vélo tandem. Pour qu’il roule à la vitesse souhaitée, il faut que les deux cyclistes pédalent à la même vitesse.

Des mécanismes de régulation permettant d’assurer cet équilibre sont donc essentiels à la stabilité du réseau, notamment en fréquence et en tension. Trois niveaux de réglages peuvent intervenir : le réglage primaire, qui vise à compenser rapidement le déséquilibre le réglage secondaire, qui vise à coordonner les réglages pour corriger les écarts qui peuvent persister localement du fait du réglage primaire et revenir aux valeurs de référence (p.ex., 50 Hz) et, enfin, le réglage tertiaire, qui intervient pour reconstituer les réserves. À la différence des réglages primaires et secondaires qui sont automatiques, le réglage tertiaire est mis en œuvre manuellement par le gestionnaire du réseau.

La difficulté, pour ces mécanismes de régulation, tient surtout aux temps de réponse nécessaires. Les dynamiques considérées, en termes d’ordres de grandeur, vont de la dizaine de secondes à une dizaine de minutes. Le temps à disposition pour réagir à un déséquilibre est donc très faible. Lors du black-out en Espagne, qui a récemment fait l’actualité, il ne s’est produit que 19 secondes entre la première perte de production et le blackout !

La complexification croissante des systèmes électriques tend à réduire davantage le temps de réaction disponible pour faire face à une défaillance. En effet, la décarbonation ajoute plusieurs difficultés supplémentaires dans la gestion dynamique des réseaux électriques :

  • elle impose de gérer des systèmes de production non pilotables (par exemple : éoliennes, solaire…) et souvent largement dispersés sur le territoire. De ce fait, il est plus difficile de prédire avec précision, à l’échelle locale, la production électrique qui sera disponible à un instant donné.

  • De même, il existe de plus en plus de charges « sans domicile fixe » (voitures électriques, par exemple) et de consommations qui changent de profil au cours du temps, qui compliquent les modèles traditionnels de prévision de la consommation.

  • De plus en plus d’EnR sont raccordées au réseau électrique à travers des interfaces basées sur l’électronique de puissance, qui introduisent moins « d’inertie » en cas de déséquilibre momentané que les systèmes électromécaniques traditionnels (à base d’alternateurs directement raccordés au réseau, par exemple via des turbines hydrauliques ou des centrales thermiques). De ce fait, leur raccordement impose des temps de réaction bien plus rapides que dans le cas des alternateurs classiques.

Tous ces facteurs d’incertitude représentent un défi pour la planification des nouvelles infrastructures à long terme.

Les défis pour l’avenir

Compte tenu de cette complexité, il n’existe pas de solution unique. Le salut viendra d’un savant cocktail de solutions multi-échelles, bien coordonnées entre elles avec une intelligence accrue.

Cela peut passer par :

  • des dispositifs de contrôle-commande et de pilotage avancés, que ce soit au niveau des composants du réseau ou des systèmes de gestion et de coordination,

  • des dispositifs et systèmes de protection intelligents,

  • davantage de coordination des solutions au niveau local (distribution) et globale (transport, stockage),

  • la généralisation et l’extension des solutions de flexibilité à tous les niveaux (consommation, production classique et production EnR).

Le défi tient notamment au caractère coûteux du stockage. Pour stocker de l’énergie, il faut d’abord l’acheter pour la stocker puis la déstocker au moment où l’on en a besoin. Ces deux opérations (stockage puis déstockage) entraînent des pertes énergétiques – et donc financières. À ceci il faut ajouter des coûts d’investissement élevés (par exemple pour acquérir des batteries) ainsi que le coût d’accès au réseau. Autant de paramètres qui compliquent le modèle économique du stockage.

D’un point de vue mathématique, les réseaux électriques ont un fonctionnement non-linéaire. Cette particularité impose des efforts de R&D accrus pour mieux modéliser les phénomènes complexes en jeu. Ceci permettra de proposer les solutions adaptées de contrôle, de pilotage, d’aide à la décision, de maîtrise de risque ou encore de planification stochastique (c’est-à-dire, qui prennent en compte les incertitudes). Dans ce contexte, les apports du numérique et de l’intelligence artificielle pour l’exploitation des données du réseau sont de plus en plus significatifs, permettant d’améliorer les temps de réaction et de mieux gérer les incertitudes.

Ces enjeux sont d’autant plus cruciaux qu’au-delà de la décarbonation, qui entraîne un besoin d’électrification accrue, les réseaux électriques font aussi face à de nouvelles menaces. Notamment, l’augmentation des risques de cyberattaques, mais aussi l’exigence de résilience du fait du changement climatique. La résilience des réseaux est par nature protéiforme, et elle sera clairement un des grands enjeux des systèmes électriques de demain.


Le colloque « Les grands enjeux de l’énergie », co-organisé par l’Académie des sciences et l’Académie des technologies, se tiendra les 20 et 21 juin 2025 en partenariat avec The Conversation et Le Point. Inscription gratuite en ligne.

The Conversation

Nouredine Hadjsaïd ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Energies renouvelables, voitures électriques… quels sont leurs effets sur le réseau électrique ? – https://theconversation.com/energies-renouvelables-voitures-electriques-quels-sont-leurs-effets-sur-le-reseau-electrique-258331

Les bienfaits des animaux de compagnie sont connus. Il faut s’attaquer aux obstacles qui empêchent certains d’en profiter

Source: The Conversation – in French – By Renata Roma, Researcher Associate – Pawsitive Connections Lab, University of Saskatchewan

Les bienfaits des animaux de compagnie sont largement reconnus et étudiés.

Les animaux domestiques peuvent améliorer l’humeur et renforcer le système immunitaire. Ils incitent à rester actif et en forme, apportent de la compagnie et du réconfort émotionnel, tout en favorisant les liens sociaux. Ils peuvent même augmenter l’espérance de vie.

Malheureusement, tout le monde n’a pas accès à un animal de compagnie. Plusieurs groupes se heurtent à des obstacles lorsqu’il s’agit de passer du temps ou de vivre avec un animal. Parmi ces obstacles, citons le manque de logements adaptés et de ressources pour payer la nourriture et les soins vétérinaires.

Il peut également y avoir des freins plus concrets, tels que des clauses interdisant les animaux dans les contrats de location ou des politiques interdisant leur présence dans les maisons de retraite.




À lire aussi :
Vieillir avec son animal de compagnie, une question de santé et de bien-être


Dans notre quête d’égalité sociale, il est essentiel de s’attaquer à ce qui empêche certaines personnes de profiter des bienfaits de la vie avec un animal de compagnie.

Défis et idées reçues

De nombreux facteurs peuvent empêcher les gens d’adopter un animal de compagnie. Parmi ceux-ci, citons le manque de logements appropriés et de ressources financières pour la nourriture et les soins vétérinaires. Une enquête canadienne a montré que les nouveaux immigrants et les jeunes de 18 à 34 ans sont les groupes les plus touchés par ces facteurs, et que les personnes âgées connaissent souvent des problèmes de logement et des difficultés financières.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Les propriétaires d’animaux peuvent éprouver un sentiment de détresse lorsqu’ils ne sont pas en mesure de payer les services de toilettage, la nourriture ou les soins de leur animal, dont la qualité de vie risque alors d’être réduite. Dans un tel cas, on constate que le bien-être des propriétaires et de leur bête peut être compromis.

De plus, des recherches ont montré que les personnes qui gagnent plus d’argent possèdent davantage d’animaux compagnie. En ce qui concerne les facteurs économiques, il est inquiétant d’entendre dire que certaines personnes ne devraient pas avoir d’animaux. La Michelson Found Animals Foundation met en lumière plusieurs idées reçues, généralement associées aux finances, concernant la vie avec des animaux domestiques.

Certaines personnes pensent que si on vit dans un appartement plutôt que dans une maison dotée d’une cour et d’un espace vert, on ne devrait avoir que des chiens de petite taille. Cette croyance ne tient pas compte du niveau d’énergie de l’animal, car certains petits chiens sont beaucoup plus dynamiques que des chiens plus gros. Elle ne considère pas non plus la capacité du maître à stimuler mentalement et physiquement son animal.

D’autres estiment qu’une personne qui n’a pas les ressources financières pour répondre aux besoins d’un animal de compagnie ne devrait pas en avoir. Cette pensée ne fait que renforcer les inégalités sociales et reflète une forme de discrimination insidieuse.

Les problèmes financiers et les conditions de logement peuvent contraindre certaines personnes à se séparer de leur animal de compagnie, ce qui constitue un choix difficile sur le plan émotionnel. Une de nos recherches menées, menées avec Rebecca Raby, chercheuse sur l’enfance et la jeunesse, et des étudiants de l’université Brock, montrent que les enfants sans foyer ont souvent des sentiments d’intimité affective envers leurs animaux de compagnie en même temps que des sentiments de perte et de deuil. Dans le cadre de cette recherche, des enfants sans foyer ont raconté des histoires où ils avaient perdu un animal, que ce soit à la suite d’une séparation ou d’un décès.




À lire aussi :
S’attacher à son animal, c’est bon pour la santé!


D’autres études indiquent que la plupart des personnes en situation d’itinérance sont des propriétaires d’animaux responsables, que leurs bêtes sont souvent en bonne santé et profitent de la compagnie humaine. Le lien émotionnel est réciproque et mutuellement bénéfique.

Animaux de compagnie pour tous

Les inégalités systémiques influencent la possibilité d’adopter un animal de compagnie. Nous devons mettre en place des stratégies et des politiques ciblées pour réduire les difficultés que rencontrent ces familles et ces communautés. Nous devons augmenter les possibilités de cohabitation avec des animaux afin de diminuer les inégalités sociales dans ce domaine.

Plusieurs études soulignent la nécessité d’améliorer l’accès aux soins vétérinaires gratuits ou peu coûteux. Il est également essentiel de rendre les refuges et les logements plus accueillants pour les animaux de compagnie. Les campagnes visant à réduire les idées reçues sur l’adoption d’animaux par certains groupes constituent également une stratégie importante.

Le Community Veterinary Outreach (CVO) est un exemple de programme qui contribue à rendre l’adoption d’un animal de compagnie plus accessible. Cet organisme de bienfaisance est présent dans plusieurs provinces du Canada. Il fournit des soins de santé aux humains ainsi que des soins préventifs aux animaux de compagnie. Il organise également des programmes d’éducation sur des sujets tels que le comportement, l’alimentation et l’hygiène dentaire des animaux. L’ensemble de ces services permet de soutenir des personnes vulnérables qui possèdent des animaux.

Un autre exemple est le programme canadien de financement PetCard, qui offre des options de paiement flexibles pour des services vétérinaires.

Nous devons toutefois intensifier notre collaboration et sensibiliser la population à l’importance des animaux de compagnie pour divers groupes de personnes. Élargir ce débat permettra de concevoir des politiques plus équitables, de favoriser la justice sociale et de rapprocher les communautés.

En négligeant la pertinence de cette réflexion, nous risquons de perpétuer des points de vue discriminatoires à l’égard de l’adoption d’animaux de compagnie.

Des bienfaits pour tous

Le fait que la situation économique d’une famille ou ses possibilités de logement restreignent son accès à un animal domestique est problématique, car cela fait en sorte que certaines personnes ne peuvent profiter du bien-être que procure la compagnie d’un animal. Ces bienfaits sont ainsi limités à un groupe privilégié.

Nous pouvons aider les humains et les animaux à bâtir des liens significatifs en promouvant un accès équitable à l’adoption d’animaux. Toutes les initiatives en ce sens doivent accorder la priorité aux besoins physiques et émotionnels des animaux de compagnie, en veillant à ce que le lien avec les humains leur soit bénéfique. Le bien-être et les droits des animaux de compagnie ne doivent jamais être négligés.

Pour créer une approche équitable qui permette à diverses populations de profiter de la compagnie d’animaux domestiques, nous devons concilier les besoins des humains et des animaux en tenant compte du bien-être de tous.

La Conversation Canada

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Les bienfaits des animaux de compagnie sont connus. Il faut s’attaquer aux obstacles qui empêchent certains d’en profiter – https://theconversation.com/les-bienfaits-des-animaux-de-compagnie-sont-connus-il-faut-sattaquer-aux-obstacles-qui-empechent-certains-den-profiter-258038

La RDC et le Rwanda signent un accord de paix négocié par les États-Unis : quelles sont ses chances de succès ?

Source: The Conversation – in French – By Jonathan Beloff, Postdoctoral Research Associate, King’s College London

Les ministres des Affaires étrangères du Rwanda et de la République démocratique du Congo (RDC) ont signé un nouvel accord de paix le 27 juin 2025 sous l’égide des États-Unis.

Cet accord vise à favoriser une paix durable, à développer les échanges économiques et à renforcer la sécurité. La RDC est l’un des plus grands pays d’Afrique, avec plus de 110 millions d’habitants. Le Rwanda compte 14 millions d’habitants.

Après trois décennies de guerre et de tensions entre les deux pays voisins depuis le génocide des Tutsis de 1994, cet accord devrait permettre de jeter les bases d’un progrès bénéfique pour les deux nations.

Pour l’administration Donald Trump, c’est l’occasion de montrer l’efficacité de sa politique étrangère « transactionnelle », axée sur les échanges et les avantages à court terme pour chaque acteur.

La plupart des détails de l’accord n’ont pas été divulgués avant sa signature. Une information a toutefois filtré: la RDC aurait renoncé à exiger le retrait des soldats rwandais de son territoire.

Depuis 2021, le gouvernement congolais, des chercheurs et l’ONU accusent le Rwanda de soutenir militairement le M23, en guerre contre le gouvernement de Kinshasa depuis 2021. Le gouvernement rwandais nie toute implication active, mais éprouve une certaine sympathie pour le groupe rebelle congolais.

En vertu de l’accord de juin 2025, chaque partie a fait des concessions et formulé des demandes qui sont peut-être plus faciles à dire qu’à faire. Les deux pays veulent également montrer à l’administration Trump leur volonté de négocier et de parvenir à un accord. Ils espèrent ainsi conclure de futurs accords avec les États-Unis, sur lesquels Trump est resté vague.

La RDC possède d’immenses richesses minérales, notamment de l’or, des diamants, du tungstène, du coltan, de l’étain et du lithium. Ces derniers minéraux sont utilisés dans les puces informatiques, les batteries et d’autres technologies.




Read more:
RD Congo : l’industrie numérique alimente les conflits et la violation des droits humains


La question est de savoir si ce dernier accord permettra d’instaurer la paix en RDC. La réponse est probablement non, si l’on en croit les recherches sur l’instabilité dans l’est de la RDC. la politique étrangère rwandaise et les dynamiques sécuritaires et politiques entre le Rwanda et la RDC depuis plus de 15 ans.

Cela s’explique principalement par le fait que :

  • les principaux acteurs impliqués dans la crise ont été écartés des négociations

  • aucune disposition n’a été prise pour garantir l’application de l’accord

  • les opportunités pour les entreprises américaines restent incertaines compte tenu de l’insécurité qui règne dans les régions minières.

Les racines de la crise

Après le génocide des Tutsis en 1994, d’anciens auteurs du génocide ont profité de l’immensité de la RDC pour planifier des attaques contre le Rwanda. Ils avaient l’intention de retourner au Rwanda pour achever le génocide. Les conséquences ont conduit à la première guerre du Congo (1996-1997) et à la deuxième guerre du Congo (1998-2003).

C’est au cours de cette deuxième guerre sanglante que la RDC a été démembrée par plusieurs groupes rebelles alignés sur divers pays et acteurs politiques. L’ONU accuse le Rwanda et l’Ouganda de se livrer à un commerce illégal massif de minerais. Les deux pays nient ces accusations.

Les conséquences du conflit se font encore sentir plus de 20 ans après. Malgré de multiples accords de paix et des programmes de désarmement, de démobilisation et de réintégration, on estime à 120 le nombre de groupes rebelles encore actifs au Congo.

L’un d’entre eux, les Forces démocratiques pour la libération du Rwanda (FDLR), vise à rétablir la division ethnique et le génocide au Rwanda. Le gouvernement rwandais craint l’idéologie génocidaire et haineuse de ce groupe.

En outre, les FDLR et d’autres acteurs extrémistes tels que Wazalendo prennent pour cible les Banyarwanda. Ce groupe ethnique, qui réside principalement dans l’est de la RDC, est historiquement lié au Rwanda. Il a été la cible d’attaques qui ont contraint des dizaines de milliers de personnes à fuir vers le Rwanda.




Read more:
The Banyamulenge: how a minority ethnic group in the DRC became the target of rebels – and its own government


Ces attaques ont conduit à la résurgence du M23. Malgré ses échecs en 2013, le M23 a réalisé des avancées majeures fin 2021 en réponse aux attaques contre les Banyarwanda. Le groupe rebelle a mené une campagne militaire couronnée de succès qui lui a permis d’occuper de vastes territoires dans l’est de la RDC.

Leur succès est largement attribué aux Forces de défense rwandaises, bien que Kigali nie cette affirmation.

Les concessions mutuelles

Le dernier accord de paix tente de concilier les intérêts sécuritaires, politiques et économiques des deux nations.

Les détails de l’accord n’ont pas été rendus publics, mais certaines hypothèses peuvent être formulées à partir de son cadre général et des documents fuités.

La première hypothèse est que chaque pays s’engage à respecter la souveraineté de l’autre et à cesser tout soutien aux groupes armés. Cela inclura une coordination conjointe en matière de sécurité et une collaboration avec la mission de maintien de la paix de l’ONU déjà en place. En outre, les réfugiés congolais qui ont fui l’est de la RDC, estimés à plus de 80 000, seront autorisés à rentrer chez eux. Enfin, les deux pays mettront en place des mécanismes visant à favoriser une plus grande intégration économique.

La RDC a également signalé sa volonté d’attirer les investisseurs américains. Les vastes richesses minérales de la RDC restent largement sous-exploitées. Les investissements américains pourraient permettre de développer une exploitation minière plus sûre et plus rentable que les méthodes actuelles. Kinshasa a également accepté de lutter contre la corruption et de simplifier le système fiscal.

Si la plupart de ces mesures incitatives visent les entreprises d’extraction minière, elles concernent également les sociétés de sécurité privées. L’incapacité de l’armée congolaise à vaincre le M23 montre à quel point la situation sécuritaire est fragile. Certains en RDC estiment que cela justifie une intervention étrangère.

Cependant, les garanties sécuritaires offertes dans le cadre de cet accord restent floues. Ces incertitudes pourraient freiner sa mise en œuvre et compromettre son succès.

Les faiblesses

Plusieurs raisons expliquent pourquoi ce dernier accord a peu de chances de mener à la paix.

Premièrement, le M23 n’a pas participé aux négociations. Or, ce groupe est le principal acteur militaire dans l’est de la RDC. Étant donné qu’il s’agit du principal acteur militaire dans l’est de la RDC, son engagement en faveur du processus de paix ne peut être garanti.

Deuxièmement, d’autres forces rebelles dans différentes régions du pays se sentiront également exclues. Elles pourraient voir cet accord comme une opportunité pour obtenir davantage de concessions de la part du gouvernement congolais.

Troisièmement, il existe peu de mécanismes pour faire respecter l’accord. Depuis la deuxième guerre du Congo, de nombreux traités, accords et programmes de désarmement ont été conclus, sans grand succès. L’accord de Pretoria conclu entre le Rwanda et la RDC en 2002 n’a pas abouti à une paix durable. Le nom M23 fait référence à leur mécontentement suite l’échec de l’accord en 2009.

En 2024, le Rwanda et le Congo ont failli parvenir à un accord sous la médiation de l’Angola, après le retrait de ce dernier s’est retiré. Le processus a ensuite été repris par le Qatar, puis par les États-Unis.

Enfin, les investisseurs américains pourraient être découragés par les problèmes de sécurité, de réglementation et de corruption qui affligent la RDC. Même si le gouvernement congolais promet de s’attaquer à ces problèmes, il ne dispose pas des capacités nécessaires pour tenir ses engagements.

The Conversation

Jonathan Beloff a reçu un financement du Conseil de recherche en arts et sciences humaines (AH/W001217/1).

ref. La RDC et le Rwanda signent un accord de paix négocié par les États-Unis : quelles sont ses chances de succès ? – https://theconversation.com/la-rdc-et-le-rwanda-signent-un-accord-de-paix-negocie-par-les-etats-unis-quelles-sont-ses-chances-de-succes-260247

Les fondations philanthropiques doivent-elles mourir pour mieux agir ?

Source: The Conversation – in French – By Sacha-Emmanuel Mossu, Doctorant en philosophie, Université Laval

Le modèle traditionnel de la philanthropie repose sur l’idée que les fondations doivent durer éternellement, en préservant leur capital et en redistribuant chaque année une petite partie de leurs revenus. Pourtant, de plus en plus de voix s’élèvent pour remettre en question cette logique, parfois jugée lente, inefficace et déconnectée de l’urgence des besoins sociaux. Et certains philanthropes commencent à montrer l’exemple.

En mai, le milliardaire Bill Gates a annoncé qu’il comptait épuiser le fonds de dotation de la Fondation Bill & Melinda Gates d’ici 2045. Cela représentera des investissements philanthropiques de plus de 200 milliards de dollars américains ainsi que la fermeture, à terme, de l’organisation. Cette annonce rompt avec les normes de la philanthropie partout dans le monde, où les fondations sont généralement conçues pour durer indéfiniment.

Le Canada n’y fait pas exception. En s’enregistrant auprès de l’Agence du revenu du Canada (ARC), les fondations peuvent faire fructifier leurs actifs tout en générant des revenus exempts d’impôts. Même si la loi les oblige à dépenser chaque année un minimum de 5 % de leurs actifs, les rendements réalisés sur les marchés financiers égalent ou dépassent souvent ce seuil. Les fondations peuvent donc se contenter de distribuer année après année les intérêts de leurs investissements, sans jamais toucher au capital.

Ce modèle « de charité à perpétuité » se fait souvent reprocher son inefficience fiscale. Selon la fiscaliste Brigitte Alepin, il faut en moyenne 35 ans pour que les activités caritatives d’une fondation compensent les avantages fiscaux perçus par ses fondateurs.

Je suis doctorant en philosophie à l’Université Laval en cotutelle à l’Université Paris 1 Panthéon-Sorbonne, et mon collègue David Grant-Poitras est doctorant en sociologie à l’Université du Québec à Montréal. Affiliés au Réseau canadien de recherche partenariale sur la philanthropie (PhiLab), basé à l’Université du Québec à Montréal, nous étudions la philanthropie dans le cadre de nos travaux de recherche. Nous travaillons à documenter le processus de fermeture de la Ivey Foundation, qui co-finance la recherche.

Un modèle alternatif qui fait ses premiers pas au Canada

Bien que la perpétuité fasse office de norme dans le milieu philanthropique, certaines fondations remettent en question sa pertinence. À côté des fondations dites « pérennes », un nouveau modèle prend forme : les fondations à durée de vie limitée (ou sunsetting foundations en anglais). Celles-ci s’engagent délibérément à dépenser l’entièreté de leurs actifs et cesser leurs activités au terme d’une période donnée ou suivant l’atteinte d’objectifs spécifiques.




À lire aussi :
Les fondations philanthropiques sont riches, mais dépensent peu. Les nouvelles règles pourraient changer la donne


Ce modèle n’est pas nouveau : il a été mis en œuvre par des pionniers comme le Rosenwald Fund, la Aaron Diamond Foundation ou encore la John M. Olin Foundation, fermés respectivement en 1948, 1996 et 2005. Toutefois, il connaît un regain d’intérêt, particulièrement aux États-Unis, où un nombre croissant de fondations, surtout les plus jeunes, adoptent cette approche. Même si la pratique reste marginale au Canada, certaines fondations comme la Ivey Foundation, dont la fermeture est planifiée pour 2027, commencent à suivre le mouvement.

Moins de temps, plus d’impact !

Pourquoi choisir de fermer une fondation plutôt que de lui assurer une existence perpétuelle ? Pourquoi des philanthropes comme Bill Gates ne préfèrent-ils pas assurer la survie d’une institution qui immortalisera son nom ? Dans un cahier de recherche publié récemment, le Réseau canadien de recherche partenariale sur la philanthropie s’est penché sur la question.

Plusieurs raisons peuvent motiver un tel choix : décès des fondateurs, conflits familiaux, ou encore volonté de constater de son vivant les effets de sa philanthropie. Mais au-delà de ces facteurs, c’est souvent un souci d’efficacité qui pousse ces fondations à limiter leur durée de vie.

À ce sujet, la sociologue Francie Ostrower, professeure à la LBJ School of Public Affairs and College of Fine Arts de l’université du Texas à Austin, suggère que les fondations « pérennes » ont parfois tendance à faire de leur propre survie un objectif, au détriment de leur mission sociale. À l’inverse, les fondations à durée limitée se perçoivent davantage comme des « véhicules » au service des causes sociales qu’elles soutiennent. Dans cette optique, rejeter la perpétuité devient une stratégie pour maximiser l’impact social.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Programmer sa fermeture donne souvent aux fondations plus de flexibilité et de marge de manœuvre. Cela permet, par exemple, d’augmenter les dépenses annuelles bien au-delà du seuil de 5 %, et donc de soutenir davantage d’organismes ou de financer des projets ambitieux nécessitant des investissements massifs à court terme. Dans certains cas, l’abandon de la perpétuité réduit les dépenses administratives, ce qui dégage des ressources à réinvestir dans ce qui compte vraiment.

De plus, puisque la gestion des dépenses est affranchie des contraintes liées à la pérennisation du fonds de dotation, les fondations à durée de vie limitée s’adaptent plus facilement aux événements imprévus et sont plus réactives à l’évolution des besoins sur le terrain.

Ce modèle est d’autant plus attrayant pour les petites et moyennes fondations qui peuvent ainsi accroître considérablement leur influence dans leur secteur, chose difficile dans un modèle fondé sur la préservation du capital.

Ne pas juste donner plus, mais donner mieux

Notre recherche montre également que les avantages ne sont pas seulement d’ordre quantitatif ou financier, mais aussi qualitatif. Planifier sa fermeture pousse aussi à réfléchir en profondeur à l’utilisation optimale des ressources disponibles dans un laps de temps limité. D’après plusieurs témoignages, l’échéance imposée par la fermeture motive le personnel de la fondation, génère un sentiment d’urgence et instaure une meilleure discipline. Cela incite à concentrer efforts et ressources sur les projets essentiels et à éviter le gaspillage sur des activités jugées secondaires.

Paradoxalement, limiter la durée de vie d’une fondation ne signifie pas adopter une vision à court terme. Au contraire, tout indique que cela favorise une réflexion sérieuse sur la durabilité et les impacts à long terme des projets financés.

Sachant qu’elles ne seront pas là pour toujours, les fondations à durée de vie limitée sont naturellement portées à trouver des solutions pérennes aux problèmes sociaux et à renforcer les capacités des organisations qui prendront le relais une fois qu’elles auront cessé leurs activités. Bref, comme l’affirme le philanthrope américain Jack Eckerd, « si les fondations sont éternelles, elles mettront une éternité à accomplir quoi que ce soit ».

Alors que 135 milliards dorment dans les fonds de dotation des fondations canadiennes, le moment est peut-être venu de repenser le modèle dominant. En encourageant le développement de fondations à durée de vie limitée, le Canada pourrait non seulement réinjecter massivement des ressources dans la société, mais aussi revitaliser le rôle du secteur philanthropique dans la réponse aux enjeux sociaux les plus pressants.

La Conversation Canada

Sacha-Emmanuel Mossu a reçu des financements du Conseil de recherches en sciences humaines (CRSH), de la Fondation Famille Choquette et du Fonds François-et-Rachel-Routhier. Il est membre du PhiLab dont le projet de recherche est co-financé par la Ivey Foundation.

David Grant-Poitras ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les fondations philanthropiques doivent-elles mourir pour mieux agir ? – https://theconversation.com/les-fondations-philanthropiques-doivent-elles-mourir-pour-mieux-agir-257162

Feux de forêt : voici pourquoi il faut une structure nationale pour mieux les gérer

Source: The Conversation – in French – By Alizée Pillod, Doctorante en science politique, Université de Montréal

L’été ne fait que commencer au Canada et l’on comptabilise déjà près de 2000 feux de forêt depuis le début de l’année. Ce sont plus de 4 millions d’hectares qui sont partis en fumée, soit l’équivalent de la taille du territoire de la Suisse. À ce rythme, la saison 2025 pourrait s’avérer tout aussi catastrophique – voire pire – que celle de 2023, l’une des plus dévastatrices jamais enregistrées au pays.

Face à ces feux toujours plus difficiles à maîtriser et ne connaissant pas de frontières, la création d’une structure nationale capable de coordonner efficacement les efforts des pompiers sur le terrain est à nouveau envisagée.

En quoi cela consisterait-il exactement ? À quel prix ?

Doctorante et chargée de cours en science politique à l’Université de Montréal, mes travaux portent sur la construction sociale des problèmes publics. Je m’intéresse notamment aux effets de cadrage de la crise climatique et à leur rôle dans l’apport de changements de politique publique.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Une gestion fragmentée en perte d’efficacité

Le Canada compte environ 3 200 services d’incendie, majoritairement organisés au niveau local – municipalités, comtés ou districts. À cela s’ajoutent, dans chaque province et territoire, des agences spécialisées dans la lutte contre les feux de forêt, distinctes des services municipaux. La coordination interprovinciale en matière de feux de forêt est assurée par le Centre interservices des feux de forêt du Canada (CIFFC). Le gouvernement fédéral intervient également, notamment par l’entremise du ministère de la Sécurité publique, et détient l’autorité nécessaire pour déclarer l’état d’urgence.

Ainsi, les trois paliers de gouvernement peuvent être mobilisés dans la gestion des incendies de forêt. Or, bien qu’ils répondent à des mandats complémentaires, ces services demeurent fragmentés. L’absence d’un mécanisme centralisé de coordination peut engendrer des chevauchements, des lenteurs dans les interventions et une certaine confusion sur le terrain.

Les pompiers sonnent l’alarme

L’idée d’une structure nationale dédiée à la gestion des incendies ne date pas d’hier. En 2006, l’Association canadienne des chefs de pompiers soulevait déjà la question lors de son assemblée générale annuelle. À l’époque, elle reconnaissait que les enjeux devenaient trop vastes et trop complexes pour être gérés de façon dispersée.

En décembre 2023, après une saison des feux record, l’idée a refait surface et semble plus que jamais dans l’air du temps. Cette fois, l’Association a décidé d’aller plus loin dans sa réflexion. Elle a publié un rapport destiné aux responsables politiques, dans lequel elle propose la création d’une véritable « administration nationale des incendies », afin de mieux coordonner les interventions à l’échelle du pays.




À lire aussi :
Les feux de forêt de l’été 2023 ont été les plus dévastateurs en 50 ans. Le pire reste-t-il à venir ?


Ce qu’une meilleure coordination permettrait

Les changements climatiques entraînent une multiplication et une intensification des feux de forêt. Les pompiers sont donc appelés à intervenir plus souvent, et sur des périodes plus longues.

Cette pression accrue a des conséquences humaines importantes. En plus de l’épuisement, ces interventions prolongées exposent les pompiers à des fumées toxiques, augmentant ainsi les risques de maladies cardiorespiratoires. Leur santé – et parfois leur vie – est en jeu. Dans ce contexte, l’Association canadienne des chefs de pompiers constate des difficultés croissantes de recrutement et de rétention.

À cela s’ajoute un autre enjeu : tous les pompiers ne sont pas formés pour combattre les feux de forêt, dont les dynamiques diffèrent des incendies urbains.

Par ailleurs, certains incendies dépassent les frontières administratives, comme en témoignent les brasiers toujours actifs aux abords des provinces des Prairies.

Dans son rapport, l’Association soutient qu’une structure nationale permettrait de mieux répondre à ces défis. D’une part, elle offrirait la possibilité d’investir de façon plus stratégique, en orientant les budgets vers la formation spécialisée et l’achat d’équipement, souvent inadéquat face aux réalités du terrain. D’autre part, elle faciliterait le déploiement du personnel entre les régions et améliorerait la gestion des ressources essentielles – notamment l’eau, utilisée en grande quantité pour éteindre les incendies.

Au-delà des feux de forêt, l’Association rappelle que d’autres risques justifient la création d’une telle structure. Elle cite en exemple le transport de marchandises dangereuses, un domaine où l’uniformisation des pratiques et des capacités de réponse à l’échelle nationale s’avère également nécessaire.

Enfin, une administration nationale permettrait de mieux intégrer les pompiers à l’élaboration des politiques qui ont un impact direct sur leur travail. Cela concerne par exemple les normes de construction, la réglementation des feux d’artifice ou d’autres enjeux touchant la sécurité publique et qui affectent, de près ou de loin, la gestion des feux de forêt.

Pour toutes ces raisons, plutôt que de simplement élargir le mandat du Centre interservices des feux de forêt du Canada (CIFFC), les représentants défendent une approche plus holistique.

Passer de l’idée à l’action

Pour étayer ses recommandations, l’Association canadienne des chefs de pompiers a mené une analyse comparative rigoureuse en s’intéressant à des modèles internationaux, notamment ceux des États-Unis et de la Nouvelle-Zélande, où des délégations se sont rendues sur place pour rencontrer les responsables d’organismes similaires.

Cette veille internationale leur a permis d’identifier les bonnes pratiques et d’anticiper les défis rencontrés ailleurs. Cela leur a permis, par exemple, d’échanger sur les budgets alloués, les compétences confiées à ces agences, leur degré d’autonomie par rapport aux gouvernements.

Sur le plan budgétaire, la création d’une administration nationale des incendies au Canada ne représenterait pas une charge insurmontable. Comme le souligne l’Association, il ne s’agirait pas de repartir de zéro, mais de s’appuyer sur les structures existantes – l’association elle-même étant déjà bien organisée – pour les transformer. Les services d’incendie disposent d’un budget annuel d’environ 5,6 milliards de dollars. Selon l’Association, un investissement supplémentaire de 2 millions de dollars par an serait suffisant pour mettre en place cette coordination nationale.

Ces dernières semaines, des représentants de l’Association ont rencontré des membres du gouvernement fédéral pour discuter de leur proposition. Mais les gouvernements des territoires, des provinces et des municipalités devront aussi être consultés. Or, les discussions intergouvernementales semblent pour l’instant dominées par la guerre commerciale avec les États-Unis.

Autre frein : le premier ministre Carney n’a pas été élu avec un mandat environnemental fort. Pourtant, il aurait tout intérêt à s’emparer du dossier, étant donné que les coûts liés à la lutte contre les incendies de forêts, à eux seuls, dépassent désormais le milliard de dollars par an.

La Conversation Canada

Alizée Pillod est affiliée au Centre d’Études et de Recherches Internationales de l’UdeM (CERIUM), au Centre de recherche sur les Politiques et le Développement Social (CPDS) et au Centre pour l’Étude de la citoyenneté démocratique (CECD). Ses recherches sont subventionnées par les Fonds de Recherche du Québec (FRQ). Alizée a aussi obtenu la Bourse départementale de recrutement en politiques publiques (2021) ainsi que la Bourse d’excellence Rosdev (2023). Elle a également été la coordonnatrice pour un projet financé par Ouranos et le MELCCFP sur la communication climatique en contexte pandémique.

ref. Feux de forêt : voici pourquoi il faut une structure nationale pour mieux les gérer – https://theconversation.com/feux-de-foret-voici-pourquoi-il-faut-une-structure-nationale-pour-mieux-les-gerer-259216

Tour de France 2025 : quand le peloton traverse les mystères géologiques de la Flandre

Source: The Conversation – in French – By Patrick de Wever, Professeur, géologie, micropaléontologie, Muséum national d’histoire naturelle (MNHN)

Le Cap Blanc-Nez et la Manche vus du cimetière de Tardinghen. Jean-Pol Grandmont / Wikimedia commons, CC BY-NC-SA

Au-delà du sport, le Tour de France donne aussi l’occasion de (re)découvrir nos paysages et parfois leurs bizarreries géologiques. Le Tour de France 2025 s’ouvre ainsi dans les Hauts de France. Ses coureurs traverseront notamment, au cours de ces premiers jours, la plaine flamande. C’est la partie française du « pays bas » qui borde la mer du nord du Boulonnais à la Frise. Et est depuis des millions d’années sujette aux submersions marines.


À l’est des Hauts de France, la Flandre française est limitée par les contreforts du Massif ardennais ; au sud, par les collines qui, du Cambrésis au Boulonnais, appartiennent à un bombement qui se poursuit en Angleterre. Jalonnant cette structure, un relief modeste de moins de 300 mètres de haut, dont fait partie le Blanc-Nez, a été entaillé par le trop-plein du lac qui occupait la mer du Nord pendant les périodes de grande extension glaciaire : cette entaille a formé la vallée étroite qu’est le détroit du Pas-de-Calais.

Au Nord, la Flandre intérieure (le houtland) est constituée de collines molles, formées d’alternances de sables et d’argiles, accumulées dans un bassin marin calme il y a 55 à 35 millions d’années environ. La ligne de rivage était d’abord adossée sur les collines du Boulonnais-Artois, et s’en est progressivement éloignée en migrant vers le nord, effet lointain de la formation des Alpes.

Depuis quelques millions d’années, la Flandre française est épisodiquement submergée par la mer du fait des interactions entre tectonique des plaques et climat. Le changement climatique d’origine anthropique vient renforcer le phénomène.

Un paysage issu de la dernière glaciation

Dans le passé, des torrents dévalaient les collines méridionales de la Flandre française, à l’image des oueds sahariens autour de certains massifs montagneux. De nombreuses nappes de cailloutis (reg) se sont ainsi disséminées sur toute la Flandre. Une période climatique particulière, très chaude, a figé certains de ces dépôts au niveau du rivage de l’époque, en les cimentant par des oxydes ferrugineux. Ces cailloutis transformés en cuirasses ont protégé de l’érosion ultérieure les sables qu’ils recouvraient, formant l’alignement des monts de Flandres qui a étonné géologues et curieux : le Mont Cassel (176 m) est l’un de ces témoins.

Au cours du Quaternaire (depuis 2,6 millions d’années), les glaciations ont fait varier le niveau marin de plus de 100 m, asséchant plus ou moins la Manche et la mer du Nord lors de chaque pic glaciaire. Archéologues, paléontologues et géologues ont su reconstituer à partir des terrasses fluviatiles de la Somme, 10 cycles glaciaires de 100 000 ans chacun environ. Les travaux du canal Seine-Nord-Europe vont aussi contribuer à préciser ces reconstitutions.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Le paysage actuel de la plaine maritime flamande résulte du façonnement produit depuis la fin de la dernière glaciation, c’est-à-dire environ 20 000 ans. Les archéologues néerlandais, belges et français qui coordonnent leurs recherches démontrent que la montée naturelle du niveau marin s’estompe, mais que le phénomène est désormais engendré sous l’effet prépondérant du réchauffement d’origine anthropique.

Des digues à partir du XIᵉ siècle

La dernière invasion marine a été bien documentée par les géologues : à partir de la fin du IIIe siècle et jusqu’au IXe siècle, ils ont mis en évidence l’enfouissement par une tourbe puis par des dépôts marins de traces d’activités agricoles et commerciales (salines entre autres). En réponse, montrent les archéologues de l’Inrap, les humains ont construit durant les 11e et XIIe siècles des digues pour se protéger de la submersion marine occasionnelle, et ont aménagé des espaces de collecte d’eaux pluviales pour se ménager une ressource en eau douce.

Dans cet ensemble, le moulin est sans doute la structure la plus connue. On en comptait plus de 200 au début de XXᵉ siècle, qui avaient deux destinations principales : certains servaient à pomper l’eau pour l’assèchement, d’autres à moudre les céréales. Ici, le « Moulin tour » de Watten (Nord) est composé d’une base en craie et d’un sommet en rouges-barres, alternance de craie et de briques. C’est un moulin à vent classique constitué d’une tour en maçonnerie, surmontée d’une calotte orientable dans le sens du vent, supportant les ailes fixées à un axe horizontal ou légèrement incliné vers le haut et un toit en bardage.
Wikimedia, Fourni par l’auteur

Jusque-là en effet, chaque propriétaire défendant son champ ne pouvait le faire qu’en renvoyant l’eau en excès chez ses voisins. Cette situation, qui engendrait des conflits, a mené dès le XIIe siècle Philippe d’Alsace, comte de Flandre, à tenter de mettre en place un système de gestion commun, ordonné et contrôlé. Mais il faut attendre le XVIIe siècle pour qu’un ingénieur hollandais, Cobergher, acquière la lagune résiduelle (Les Moëres) pour y construire un dispositif mécanique dont le principe est encore actuel. Seules la forme d’énergie et la commande des manœuvres, autorégulée aujourd’hui, ont depuis changé.

Aujourd’hui, la poldérisation – l’assèchement de marais littoraux pour en faire des terres cultivables – est de plus en plus gênée par la montée du niveau marin, par le développement de l’urbanisme et de l’industrialisation. La période de pluies soutenues, génératrices d’inondations au cours de l’hiver 2023-2024 a mis en évidence une autre limite : le processus de poldérisation a été élaboré pour drainer des terres agricoles ; à cette occasion, il a aussi été utilisé comme ouvrage d’assainissement à portée régionale pour drainer la totalité de la plaine maritime. Or ce système n’a jamais été dimensionné pour un tel objectif !

Un système de gestion désormais dépassé

Le principe de gestion est connu sous le nom de wateringues. Chaque propriétaire d’un lopin de terre est chargé de le cultiver et de l’entretenir : il rejette les eaux en excès (pluviales et ruissellements, donc douces), dans un drain (watergang) qui entoure sa parcelle et paye une redevance pour qu’elles soient collectées par un canal plus important (ringslot) qui les conduit vers des canaux classiques, gérés, eux, par Voies Navigables de France.

Formation du polder de la Flandre maritime. Le flux marin apporte des sédiments détritiques.
Modifié d’après AGUR, Fourni par l’auteur
Les sédiments apportés commencent à former des cordons dans la sens des courants.
Modifié d’après AGUR, Fourni par l’auteur
Les apports continentaux comblent l’espace derrière les cordons. À la fin du Quaternaire, la plaine maritime est une lagune protégée par un cordon dunaire qui se renouvelle sans cesse.
Modifié d’après AGUR, Fourni par l’auteur
Localisation des canaux (VNF) et coupe transversale (barre rouge) du polder au nord-est de Dunkerque.
Modifié d’après AGUR/IIW, Fourni par l’auteur

Le principal problème est qu’aujourd’hui, à marée haute, l’écoulement de l’eau à la mer ne peut plus se faire naturellement par gravité, à cause de la montée du niveau marin. L’eau est donc momentanément stockée derrière des écluses, soit en attendant la marée basse, soit pour être reprise par des pompes qui la rejetteront au-dessus de ces écluses. L’épisode d’inondations de l’hiver 2023-2024 a démontré qu’on ne détourne pas impunément un aménagement si l’on n’a pas compris le système fonctionnel du territoire.

Dans ce contexte, il s’agit de repenser dans sa totalité l’aménagement de ce territoire, porteur d’enjeux très lourds, économiques, sociaux, environnementaux. La dépression des Moëres, en particulier, est aujourd’hui officiellement située sous le niveau de la mer : elle devrait donc être (progressivement) libérée de tout habitat et peu à peu transformée en bassin de collecte des eaux pluviales et de ruissellement. Diverses formes de valorisation économique sont à étudier. Seul problème : les négociateurs du Traité d’Utrecht (1713) ont fait passer la frontière au milieu de cette dépression… ce qui implique de traiter ce problème dans un cadre européen.

The Conversation

Francis Meilliez est Professeur honoraire de Géologie et directeur de la Société Géologique du Nord.

Patrick de Wever ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Tour de France 2025 : quand le peloton traverse les mystères géologiques de la Flandre – https://theconversation.com/tour-de-france-2025-quand-le-peloton-traverse-les-mysteres-geologiques-de-la-flandre-258131