Parler deux langues dès le plus jeune âge : un entraînement cérébral pour toute la vie

Source: The Conversation – France (in French) – By Alejandro Martínez, Personal de investigación en el grupo Neuro-colab, UDIT – Universidad de Diseño, Innovación y Tecnología

Grandir avec deux langues, ce n’est pas une confusion mais une richesse : le cerveau bilingue se développe avec plus de souplesse et de force, offrant des bénéfices qui durent toute la vie. Tolikoff Photography/Shutterstock

Même s’ils commencent à parler un peu plus tard, les enfants bilingues traitent les informations avec plus de souplesse. Voici ce qui se passe dans leur cerveau et comment favoriser ce processus.


Lorsque les enfants grandissent en entendant deux langues, leur famille et leurs enseignants s’inquiètent parfois : vont-ils s’embrouiller ? Vont-ils mettre plus de temps à parler ? Cela va-t-il affecter leurs résultats scolaires ?

Ces doutes sont compréhensibles : en effet, les enfants bilingues peuvent mettre un peu plus de temps à prononcer leurs premiers mots ou mélanger les deux langues au début. Cependant, il ne s’agit pas d’un retard pathologique, mais d’une étape naturelle de leur apprentissage. En réalité, ils traitent deux fois plus d’informations linguistiques, ce qui constitue un entraînement supplémentaire pour leur cerveau, qui s’en trouve renforcé de manière très bénéfique pour toute leur vie.

Que signifie être bilingue ?

Être bilingue ne signifie pas simplement parler couramment deux langues : une personne bilingue est celle qui utilise régulièrement les deux langues dans sa vie. Cela inclut ceux qui apprennent une langue à la maison et une autre à l’école, les enfants qui parlent une langue avec un parent et une autre avec l’autre, ou ceux qui vivent dans des communautés où deux langues sont couramment utilisées.

Mais est-on bilingue pour toujours ? La réponse est nuancée. Une personne peut cesser d’utiliser l’une de ses langues et, avec le temps, la perdre : perte de vocabulaire, de fluidité ou de précision. Cependant, même si la compétence pratique diminue, le cerveau conserve les traces de cet apprentissage précoce. Des études récentes montrent que les avantages cognitifs, tels que la flexibilité mentale ou la réserve cognitive, persistent même chez ceux qui ont cessé d’utiliser activement leurs deux langues.

Le cerveau bilingue en développement

Pendant l’enfance, le cerveau est très plastique. L’hypothèse de la période critique suggère que l’apprentissage précoce des langues favorise une organisation cérébrale plus intégrée : les réseaux neuronaux des différentes langues se chevauchent et coopèrent, au lieu de fonctionner séparément comme c’est souvent le cas chez les adultes.

Par exemple, un enfant qui apprend l’anglais et l’espagnol dès son plus jeune âge peut passer d’une langue à l’autre rapidement et naturellement, tandis qu’un adulte aura besoin de plus d’efforts et d’énergie pour changer de langue. Il existe diverses études de neuro-imagerie montrent que plus une deuxième langue est acquise tôt, plus ses réseaux neuronaux se superposent à ceux de la première langue, ce qui réduit l’effort nécessaire pour changer de langue.

Un double apprentissage, sans ralentissement

Dans la pratique, même si les enfants bilingues semblent commencer à parler plus tard, ils répartissent en fait leur vocabulaire entre deux langues. Si un enfant monolingue connaît 60 mots en espagnol, un enfant bilingue peut en connaître 30 en anglais et 30 en espagnol : le total est le même. En d’autres termes, ils progressent plus lentement dans chaque langue séparément, mais pas dans leur développement linguistique global.

Au-delà du vocabulaire, la gestion de deux langues dès le plus jeune âge entraîne le contrôle exécutif, qui comprend la capacité à se concentrer, à alterner les tâches et à filtrer les distractions. Par exemple, un enfant bilingue peut passer rapidement des instructions en espagnol à celles en anglais en classe, ou choisir la langue appropriée en fonction de son interlocuteur. Ces situations renforcent la mémoire de travail et l’attention soutenue.

Le cerveau bilingue supprime également temporairement la langue dont il n’a pas besoin dans chaque contexte. Ce processus, connu sous le nom de « contrôle inhibiteur », ne signifie pas « effacer » une langue, mais la désactiver momentanément afin que l’autre puisse s’exprimer sans interférence. Cette gymnastique cérébrale renforce les réseaux liés à la prise de décision, à la planification et à la résolution de problèmes.

Des avantages tout au long de la vie

Le bilinguisme n’apporte pas seulement des avantages pendant l’enfance : ses effets positifs peuvent perdurer même si, avec les années, l’une des langues n’est plus utilisée régulièrement. Même si cette deuxième langue peut être perdue, l’entraînement cognitif précoce continue à agir.

Par exemple, les personnes âgées qui ont grandi en parlant deux langues présentent plus de matière grise dans des zones clés du cerveau et peuvent retarder l’apparition des symptômes de la maladie d’Alzheimer.

Flexibilité cognitive

De plus, la maîtrise de deux langues favorise la flexibilité cognitive, c’est-à-dire la capacité à s’adapter à des situations changeantes. Lorsqu’un enfant ou un adolescent change de langue en fonction de son interlocuteur, lit un texte dans une langue puis explique la même idée dans une autre, il exerce sa capacité de concentration et d’attention focalisée dans d’autres contextes : jeux, conversations dans des environnements bruyants, changements inattendus en classe ou activités extrascolaires. Cette flexibilité lui permet d’acquérir de nouvelles compétences plus facilement.

La conclusion n’est pas que les personnes bilingues soient « meilleures » que les autres, mais que leur cerveau apprend à gérer les informations différemment, ce qui leur permet de relever plus facilement des défis variés.

Ces expériences contribuent à ce que les scientifiques appellent la « réserve cognitive », une ressource mentale qui protège le cerveau et aide à maintenir les capacités cognitives pendant des décennies, même chez les personnes âgées.

Comment tirer parti des avantages du bilinguisme

Encourager le bilinguisme ne signifie pas faire pression ou forcer les résultats, mais créer des contextes naturels d’exposition aux deux langues. Lire des histoires dans deux langues, regarder des films en version originale sous-titrée, chanter des chansons, jouer à des jeux de rôle ou avoir des conversations dans une langue étrangère sont des moyens informels de pratiquer sans en faire une obligation.

C’est important car, même si les programmes scolaires, tels que la méthode EMILE (enseignement d’une matière intégré à une langue étrangère) ont un rôle à jouer, le bilinguisme quotidien s’enrichit dans des situations plus spontanées : cuisiner en suivant des recettes en français, jouer à des jeux vidéo en anglais ou partager des histoires familiales dans la langue maternelle. Ces expériences renforcent le lien émotionnel avec la langue et en font un outil vivant, au-delà de l’école.

Loin d’être un défi, l’exposition à deux langues est une opportunité pour les enfants de développer un cerveau flexible, bien connecté et capable d’organiser efficacement les connaissances. Grandir dans des contextes qui valorisent les deux langues permet de tirer parti de ces avantages cognitifs et culturels, en soutenant à la fois leur apprentissage scolaire et leur développement personnel.

The Conversation

Alejandro Martínez ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Parler deux langues dès le plus jeune âge : un entraînement cérébral pour toute la vie – https://theconversation.com/parler-deux-langues-des-le-plus-jeune-age-un-entrainement-cerebral-pour-toute-la-vie-265601

Délocalisations : L’effet « havre de pollution » n’est pas un mythe populaire

Source: The Conversation – France (in French) – By Raphaël Chiappini, Maître de conférences en économie, Université de Bordeaux

Le « havre de pollution » existe-t-il vraiment ? Face au durcissement des politiques climatiques, certaines entreprises déplacent-elles réellement leurs activités vers des pays aux normes plus souples ? Une nouvelle étude lève le doute : ce phénomène existe bel et bien.


Face à l’urgence climatique, de nombreux pays renforcent leurs réglementations environnementales afin de favoriser leur transition écologique. Cependant, dans un monde où tous les pays ne sont pas vertueux, cette démarche ne risque-t-elle pas de faire fuir les investisseurs étrangers vers des destinations disposant de règlementations environnementales moins contraignantes, créant une sorte de « havre de pollution », là où les activités polluantes échappent aux mesures les plus répressives ? Cette question divise les économistes et les décideurs publics depuis des décennies.

Notre récente étude empirique, publiée dans Macroeconomic Dynamics, apporte un éclairage nouveau sur cette question. En analysant les flux d’investissements directs étrangers (IDE) de 121 pays investisseurs vers 111 pays hôtes entre 2001 et 2018, et à partir de la construction d’un nouvel indicateur de sévérité des politiques environnementales, nous confirmons l’existence d’un effet de « havre de pollution ». Cependant, les dynamiques en jeu restent complexes.

Deux hypothèses en confrontation

La littérature économique reste divisée sur l’impact des réglementations environnementales sur les entreprises. Deux visions s’opposent. D’un côté, « l’hypothèse de Porter » (1991) suggère que des règles strictes peuvent stimuler l’innovation, améliorer la productivité et renforcer la compétitivité. De l’autre, l’« hypothèse du havre de pollution » développée notamment dans les années 1990, avance que les industries se déplacent vers les pays où les normes sont plus souples afin de réduire leurs coûts. Ce phénomène a été amplifié par la mondialisation des années 1990, marquée par la baisse des coûts de transport et l’essor des pays à bas salaires. Ainsi, une part de la réduction des émissions dans les pays développés pourrait s’expliquer par la délocalisation d’activités polluantes vers des pays moins stricts, accompagnée d’une hausse des importations plus intensives en gaz à effet de serre, selon une étude récente.

Un nouvel outil pour les politiques environnementales

Les études empiriques antérieures aboutissent souvent à des résultats contradictoires, en grande partie parce qu’il est difficile de comparer la rigueur des politiques environnementales d’un pays à l’autre. Pour dépasser cet obstacle, nous avons construit un nouvel indice de sévérité des politiques environnementales, l’Environmental Stringency Index (ESI), couvrant plus de 120 pays entre 2001 et 2020.

Cet indicateur repose sur deux dimensions :

  1. La mise en œuvre, mesurée par l’engagement formel d’un pays à travers le nombre de lois climatiques adoptées et sa participation aux grands accords internationaux (comme le Protocole de Montréal ou l’Accord de Paris) ;

  2. L’application effective, évaluée en comparant les émissions prédites d’un pays, en fonction de sa structure industrielle, à ses émissions réelles. Lorsqu’un pays émet moins que prévu, cela traduit des efforts concrets d’atténuation.

Les signaux politiques sont efficaces

Nos résultats empiriques confirment clairement l’existence d’un effet de « havre de pollution » : une hausse d’un écart-type de notre indice de rigueur environnementale dans un pays hôte entraîne en moyenne une baisse de 22 % des IDE entrants.

Plus encore, nous montrons que les investisseurs étrangers réagissent davantage à l’annonce des politiques plutôt qu’à leur application effective. Autrement dit, l’adoption de nouvelles lois climatiques ou la ratification d’accords internationaux envoie un signal crédible aux entreprises quant à l’évolution future des coûts réglementaires. À l’inverse, les performances environnementales réelles ne semblent pas influencer significativement les décisions d’investissement.

Cette observation suggère que les entreprises anticipent les contraintes futures plutôt que de se limiter à évaluer la situation actuelle.

Des effets asymétriques

Nos résultats montrent que l’impact des réglementations environnementales diffère fortement selon le niveau de développement et la qualité institutionnelle du pays hôte. Dans les économies émergentes et en développement, des règles plus strictes freinent nettement les IDE, confirmant leur statut de « havres de pollution » potentiels. L’effet est en revanche plus limité dans les pays à haut revenu, où des institutions solides et des cadres réglementaires établis atténuent ce phénomène. La corruption joue aussi un rôle clé. Pour évaluer cet aspect, nous avons utilisé l’indice de Contrôle de la corruption de la Banque mondiale : là où la gouvernance est faible, même des politiques ambitieuses peuvent être contournées, renforçant l’attractivité de ces pays pour les activités polluantes.

La réalité d’un arbitrage réglementaire

Au-delà de la rigueur absolue des réglementations, notre étude met également en évidence un phénomène d’arbitrage réglementaire : plus l’écart de sévérité des politiques environnementales entre le pays d’origine et le pays d’accueil des IDE est important, plus l’effet incitatif de délocalisation s’accroît. Les entreprises semblent ainsi comparer activement les cadres réglementaires internationaux afin d’optimiser leurs coûts de mise en conformité. Cette dynamique est particulièrement visible lorsque des investisseurs issus de pays aux normes strictes se tournent vers des destinations moins contraignantes, confirmant l’hypothèse d’une recherche délibérée de « havres de pollution ».

Une coopération internationale nécessaire dans un monde fragmenté

L’hypothèse du « havre de pollution » n’est donc pas un simple « mythe populaire », comme l’avait suggéré une étude des années 2000.

Face à ce constat, plusieurs pistes s’imposent. D’abord, renforcer la coopération internationale à travers des accords multilatéraux capables de réduire les écarts de normes et de limiter les possibilités d’arbitrage. Ensuite, améliorer l’application effective des règles, en particulier dans les pays à bas salaires, afin de préserver leur crédibilité sur le long terme. Le déploiement de mécanismes correcteurs, comme l’ajustement carbone aux frontières introduit par l’Union européenne (UE), constitue également une voie prometteuse puisqu’il permet de taxer les importations en fonction des émissions de gaz à effet de serre qu’elles incorporent. Enfin, le développement d’incitations fiscales et financières pour les technologies propres peut orienter les IDE vers des secteurs compatibles avec la transition écologique.

La lutte contre le changement climatique ne peut donc ignorer ces dynamiques économiques. Comprendre comment les entreprises réagissent aux réglementations environnementales est indispensable pour concevoir des politiques à la fois efficaces sur le plan écologique et équitables sur le plan économique. L’enjeu est de taille : réussir la transition verte sans creuser davantage les inégalités de développement entre le Nord et le Sud, dans un monde déjà marqué par des tensions importantes et une fragmentation croissante.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Délocalisations : L’effet « havre de pollution » n’est pas un mythe populaire – https://theconversation.com/delocalisations-leffet-havre-de-pollution-nest-pas-un-mythe-populaire-265035

La montée en puissance du nationalisme en Angleterre

Source: The Conversation – France in French (3) – By Kevin Rocheron, Doctorant en civilisation britannique, Université Sorbonne Nouvelle, Paris 3

La lourde défaite du Parti conservateur aux législatives de l’été 2024 a entraîné une recomposition politique au Royaume-Uni, les travaillistes au pouvoir considérent désormais que leur premier adversaire est le parti d’extrême droite Reform UK. C’est dans ce contexte qu’intervient l’essor du nationalisme en Angleterre.


Ces dernières semaines ont été marquées par une spectaculaire multiplication du nombre de drapeaux accrochés et brandis dans l’espace public en Angleterre. La croix de saint Georges, emblème de l’Angleterre, et l’Union Jack, drapeau britannique, ont occupé les lampadaires, les boîtes aux lettres, les ponts d’autoroute voire des ronds-points ou des passages piétons repeints aux couleurs nationales. La présence de ces symboles a culminé le 13 septembre, lorsque près de 110 000 personnes se sont rassemblées à Londres pour participer à la marche « Unite the Kingdom », organisée à l’initiative de Tommy Robinson, figure controversée de l’extrême droite britannique.

Traditionnellement, le drapeau britannique est hissé lors d’événements militaires ou monarchiques. La croix de saint Georges, quant à elle, n’apparaît que lors de grandes compétitions sportives, lorsque l’Angleterre joue en tant que nation. Mais depuis l’été dernier, le drapeau a quitté les stades pour investir le quotidien et le champ politique, transformant ce symbole national en enjeu identitaire.

Le déclencheur fut l’appel du collectif Weoley Warriors à une opération d’affichage de drapeaux, finançant et hissant des centaines de bannières sur le mobilier urbain. Leur mot d’ordre : « Une population fière est une population forte » (« A proud community is a strong community »). L’initiative, relayée par l’organisation Operation Raise the Colours, s’est diffusée dans tout le pays. À Birmingham (Midlands de l’Ouest, Angleterre), le conseil municipal travailliste a ordonné le retrait de ces drapeaux pour des raisons de sécurité, déclenchant une polémique. Plusieurs groupes ont accusé les autorités locales d’avoir fait preuve de « deux poids, deux mesures », en tolérant par exemple l’affichage de drapeaux palestiniens lors de manifestations ou sur des bâtiments publics, tout en retirant les drapeaux de la croix de saint Georges. Cet épisode a été instrumentalisé par certains militants nationalistes pour dénoncer une marginalisation de l’identité anglaise au profit d’autres revendications politiques ou communautaires.

Si Weoley Warriors et Operation Raise the Colours se disent apolitiques et revendiquent un simple patriotisme, les publications de leurs membres sur les réseaux sociaux sont, elles, clairement politisées : appels à des élections anticipées, critiques virulentes de la BBC, du Parti travailliste, de Keir Starmer, du maire travailliste de Londres Sadiq Khan ainsi que de la politique d’accueil des demandeurs d’asile.

Les racines de la colère

Contrairement au pays de Galles, à l’Écosse et à l’Irlande du Nord, dont l’identité s’appuie sur une langue, des institutions ou des coutumes propres, l’identité anglaise a longtemps été confondue avec celle du Royaume-Uni.

La confusion entre les termes « Angleterre », « Grande-Bretagne » et « Royaume-Uni » reste d’ailleurs fréquente dans le langage courant. Majoritaire sur les plans politique, économique et géographique, l’Angleterre n’a longtemps pas ressenti le besoin de se doter d’une conscience nationale distincte. Cependant, depuis vingt ans, un sentiment « anglais » (plutôt que « britannique ») a émergé, se construisant souvent par opposition : à l’Écosse, à l’Union européenne et, plus récemment, aux demandeurs d’asile.

Le tournant s’est produit au début des années 2000, lorsque le gouvernement travailliste de Tony Blair a mis en place un ambitieux projet de création de Parlements et de gouvernements nationaux en Écosse, au pays de Galles et en Irlande du Nord (un processus appelé « devolution »). L’Angleterre en fut exclue, créant une situation paradoxale : les députés écossais, gallois et nord-irlandais pouvaient voter à Westminster sur des sujets touchant exclusivement l’Angleterre, alors que les députés anglais ne pouvaient pas se prononcer sur les matières dévolues aux Parlements nationaux.

Cette asymétrie a donné naissance à la fameuse « West Lothian Question », symbole d’une injustice démocratique ressentie. La situation s’est aggravée avec le référendum d’indépendance écossais de 2014 (soldé par une victoire à 55 % du non à la question « L’Écosse doit-elle devenir un pays indépendant ? ») et la montée en puissance en Écosse du Scottish National Party (SNP) (parti indépendantiste écossais, ndlr)), qui ont nourri l’impression que l’Union se définissait selon les priorités de l’Écosse, au détriment de l’Angleterre.

Le référendum sur le Brexit de 2016 a fourni un nouvel exutoire. L’Angleterre a voté majoritairement en faveur du Leave, c’est-à-dire pour quitter l’UE (53,4 %), contrairement à l’Écosse (62 % pour le Remain, rester) et à l’Irlande du Nord (55,8 % pour le Remain). Le pays de Galles a lui aussi opté pour le Leave (52,5 %), malgré les importants financements européens dont il bénéficiait. Ce vote traduit une combinaison de ressentiment économique et de défiance vis-à-vis des élites, rejoignant ainsi le camp anglais plus que l’écossais ou le nord-irlandais. Le slogan des partisans du Leave, « Take back control », cristallisait une volonté de reprendre le pouvoir, de contrôler les frontières et de rompre avec un sentiment d’abandon économique.

Plus récemment, la question migratoire est devenue un nouveau catalyseur de colère.

Depuis le Brexit, l’immigration nette a augmenté. La liberté de circulation en provenance de l’UE a pris fin mais le Royaume-Uni a mis en place un système à points qui a encouragé l’arrivée de travailleurs qualifiés issus de pays extérieurs à l’UE.

Dans le même temps, les pénuries de main-d’œuvre dans la santé, les services sociaux, l’hôtellerie-restauration et l’agriculture ont conduit de nombreux employeurs à dépendre davantage des travailleurs immigrés. Il en a résulté un décalage entre les attentes, selon lesquelles le Brexit devait réduire l’immigration, et la réalité, marquée par un maintien ou même une augmentation des flux migratoires, ce qui a nourri un profond sentiment de frustration.

Parallèlement, la hausse des traversées de la Manche en petites embarcations depuis 2018 est devenue un enjeu particulièrement visible et hautement symbolique. Bien que les traversées de la Manche sur des bateaux de fortune ne représentent qu’une très faible part des flux migratoires, l’importante médiatisation de ces arrivées sur les côtes du sud de l’Angleterre a renforcé l’impression d’une perte de contrôle.




À lire aussi :
Comment au moins 27 personnes qui tentaient de rejoindre l’Angleterre se sont noyées dans la Manche le 24 novembre 2021, et peut-on éviter que de tels drames se reproduisent ?


En outre, le projet des gouvernements conservateurs visant à transférer certains demandeurs d’asile vers le Rwanda, ainsi que les promesses répétées de « Stop the boats » (« Arrêtez les bateaux »), un slogan popularisé par l’ancien premier ministre conservateur Rishi Sunak (octobre 2022-juillet 2024), soulignent que l’immigration a été l’un des sujets les plus mis en avant par les premiers ministres britanniques.

À cela s’ajoutent l’effet des réseaux sociaux et la désinformation. L’exemple de l’affaire de Southport, à l’été 2024, est révélateur. Trois personnes avaient été tuées et dix blessées lors d’une attaque au couteau ; quand un suspect a été arrêté, de fausses informations circulant sur Internet ont rapidement associé la tragédie à l’immigration et à l’islam, des affirmations dont il s’est révélé qu’elles étaient infondées.

Durant tout l’été, des manifestations se sont multipliées devant les hôtels et centres d’accueil de réfugiés dans tout le pays, et particulièrement en Angleterre. Les organisateurs, plusieurs mouvements d’extrême droite comme Patriotic Alternative ou Homeland Party, ont activement contribué à l’organisation de ces protestations locales, notamment sur les réseaux sociaux.

Le fait que de nombreux drapeaux aient été levés dans la région de Birmingham, l’une des plus cosmopolites du pays, souligne la sensibilité accrue de ces tensions et met en lumière les défis auxquels le modèle multiculturaliste britannique est confronté. Cette crispation est d’autant plus forte que, dans le débat politique actuel, rares sont les responsables de partis prêts à défendre ouvertement les bénéfices de l’immigration.

Les enquêtes « Future of England Survey » ont montré que ceux qui se définissent comme « anglais » plutôt que « britanniques » sont plus eurosceptiques, considèrent que l’Angleterre est désavantagée par rapport aux autres nations au sein du Royaume-Uni, ressentent davantage de colère et de peur face à l’avenir politique et votent plus que les autres catégories en faveur du parti Reform UK.

Une identité captée par le parti Reform UK

Jusqu’à récemment, le parti conservateur, plus implanté en Angleterre que dans les trois autres nations, attirait ce vote pro-anglais. Mais sa défaite électorale de 2024 a ouvert un espace politique que le parti d’extrême droite Reform UK, dirigé par Nigel Farage, occupe désormais.

Bien que Nigel Farage n’ait pas participé au rassemblement Unite the Kingdom et qu’il ait toujours pris ses distances vis-à-vis de Tommy Robinson, lequel a eu de nombreux démêlés judiciaires et a été condamné à plusieurs peines de prison entre 2005 et 2025, il a pu tirer parti politiquement de ses thématiques. En effet, les émeutes et protestations encouragées ou soutenues par Robinson placent au centre de l’agenda médiatique la question migratoire, laquelle se trouve au cœur du programme de Farage. Cela lui permet de capter un électorat inquiet sans endosser l’étiquette d’extrémiste, en offrant aux mécontents une traduction électorale plus crédible que le militantisme de rue.

Considérant désormais Reform UK comme son principal opposant, le gouvernement travailliste de Keir Starmer a préféré reprendre une partie de son discours sur l’immigration plutôt que le contester, ce qui renforce la légitimité des thèmes portés par Nigel Farage auprès d’une partie de l’électorat anglais. Le choix récent du premier ministre de nommer au poste de Home Secretary (ministre de l’intérieur) Shabana Mahmood, réputée particulièrement ferme sur le thème de l’immigration, montre que Reform UK dicte l’agenda politique britannique.

Lors des dernières législatives, Reform UK a recueilli 19 % des voix en Angleterre contre seulement 7 % en Écosse, confirmant son ancrage essentiellement anglais. Les élections locales de mai dernier ont également abouti à un succès pour Reform UK, qui a ravi nombre de sièges aux conservateurs. Les sondages YouGov le donnent aujourd’hui en tête devant les travaillistes si de nouvelles élections devaient avoir lieu.

La campagne de Nigel Farage s’articule autour d’un agenda populiste en opposant « le peuple » à Westminster : arrêt de l’immigration, lutte contre un gouvernement qualifié de corrompu, sortie du Royaume-Uni de la Convention de sauvegarde des droits de l’homme et libertés fondamentales (dont le pays est partie en sa qualité de membre du Conseil de l’Europe) qui est accusée d’être un frein à l’expulsion d’immigrés et défense des valeurs et de la culture britanniques. Autant de thèmes qui lui permettent de capter un électorat conservateur déçu, en quête de réponses claires et d’un discours centré sur l’« anglicité ».

Quelles réponses au nationalisme anglais ?

Plusieurs solutions ont été envisagées par les gouvernements successifs pour apaiser ce malaise identitaire.

Symboliquement, certains députés ont proposé de doter l’Angleterre d’un hymne national distinct de God Save the King, l’hymne national britannique, ou de créer un jour férié pour célébrer la Saint-Georges, comme c’est déjà le cas pour saint Andrew et saint Patrick, respectivement les saints patrons de l’Écosse et de l’Irlande du Nord. Ces projets n’ont pas abouti par manque de soutien au niveau politique.

Sur le plan institutionnel, la procédure parlementaire « English Votes for English Laws » (EVEL) (« Des votes anglais pour des lois anglaises »), introduite en 2015 pour répondre à la West Lothian Question, et qui devait corriger les défauts induits par la devolution, en permettant aux seuls députés anglais de voter uniquement sur les projets de loi ne concernant que l’Angleterre, a été supprimée en 2021, car jugée trop lourde et porteuse de division. La voie régionale envisagée par Tony Blair, permettant de doter des assemblées régionales en Angleterre dans un État britannique jugé trop centralisé, a été testée lors du référendum de 2004 dans le Nord-Est. Rejetée par 74 % des votants, elle a été abandonnée.

Sur le plan économique, la politique de Levelling Up (rééquilibrage) lancée par le conservateur Boris Johnson (premier ministre de 2019 à 2022) visait à réduire les inégalités régionales et à redonner « un sens de fierté et d’appartenance » aux collectivités locales, mais son impact est resté limité, faute de financements suffisants et de continuité politique.

Le basculement d’une partie notable de l’électorat vers le parti de Nigel Farage s’explique non seulement par l’accumulation de crises et la perte de confiance dans la capacité des gouvernements conservateurs comme travaillistes à y répondre, mais aussi par le rôle joué par des premiers ministres successifs, de Boris Johnson à Keir Starmer, dont les déclarations sur l’immigration ont contribué à nourrir ces tensions.

La multiplication des drapeaux illustre un nationalisme anglais en quête de reconnaissance. Ce mouvement s’inscrit dans une poussée identitaire plus large à l’échelle mondiale. Des figures, comme Éric Zemmour en France ou Elon Musk aux États-Unis, y trouvent un écho et participent à alimenter ce réveil patriotique, comme le montre leur participation à la manifestation Unite the Kingdom du 13 septembre à Londres.

Plutôt que d’unir le royaume, ce sursaut national risque d’accentuer les fractures et de faire du Royaume-Uni un État plus désuni encore. En effet, si Reform UK capitalise sur cette colère, les nations dévolues, notamment l’Écosse, restent méfiantes face à ce renforcement de l’« anglicité ».

The Conversation

Kevin Rocheron ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La montée en puissance du nationalisme en Angleterre – https://theconversation.com/la-montee-en-puissance-du-nationalisme-en-angleterre-265814

L’écriture inclusive, une arme contre les stéréotypes de genre

Source: The Conversation – in French – By Benjamin Storme, Professeur assistant en linguistique française, Leiden University

L’écriture inclusive vise une égalité des représentations entre femmes et hommes. Mais face à la diversité des options proposées, quelle stratégie adopter ? Une étude récente montre que les formulations rendant visibles à la fois le masculin et le féminin – comme « étudiants et étudiantes » – sont les plus efficaces pour réduire les stéréotypes de genre.


La réduction des inégalités femmes-hommes est un des objectifs affichés des politiques publiques contemporaines. Diverses mesures ont été prises en France dans ce but au cours des dernières décennies, qu’il s’agisse des lois sur l’égalité salariale ou plus récemment de la mise en place du congé paternité ou des programmes de sensibilisation aux stéréotypes de genre.

À côté de ces mesures sociales, des recherches suggèrent que même des actions aussi simples en apparence que l’utilisation de l’écriture inclusive peuvent également jouer un rôle, en offrant une représentation plus équilibrée des femmes et des hommes dans la langue.

Souvent réduite au point médian (« étudiant·e·s ») ou au pronom « iel », sujets de vifs débats ces dernières années, l’écriture inclusive correspond en réalité à une pluralité de stratégies, incluant les doublets (« étudiants et étudiantes »), les contractions avec parenthèses (« étudiant(e)s »), les noms invariables en genre (« une personne »), l’accord de proximité, etc. Cette diversité soulève la question suivante : y a-t-il une stratégie qui permettrait une meilleure parité entre les femmes et les hommes et qui serait donc à privilégier ?

Le problème du masculin générique

Avant d’aborder cette question, il faut revenir aux motivations de l’écriture inclusive. En français, on utilise traditionnellement des mots masculins pour décrire un groupe mixte – une règle qui peut être résumée par la célèbre formule « le masculin l’emporte sur le féminin ». Par exemple, une offre d’emploi visant indifféremment des femmes et des hommes sera typiquement écrite au masculin : « Nous recherchons des étudiants pour de l’aide aux devoirs. »

En théorie, cet usage dit « générique » du masculin devrait être neutre, c’est-à-dire désigner aussi bien des femmes et des hommes. C’est d’ailleurs ce qu’affirment un certain nombre de linguistes, comme Claude Hagège dans une tribune parue dans le Monde, en 2017.

Cependant, de nombreuses études en psycholinguistique montrent que la forme masculine oriente l’interprétation vers les hommes, non seulement en français, mais aussi dans d’autres langues comme l’anglais, l’allemand ou l’espagnol. Ainsi les lecteurs et lectrices de l’annonce cherchant des étudiants pour l’aide au devoir s’imagineront plus volontiers que cette annonce s’adresse à des hommes qu’à des femmes. On parle alors d’un biais masculin.

Des études montrent également que ce biais masculin ne se limite pas à l’interprétation du texte, mais a des conséquences tangibles sur les lectrices, réduisant leur intérêt pour ces annonces ainsi que leur aptitude à se projeter dans le métier correspondant.

L’écriture inclusive, une diversité de stratégies

C’est pour répondre à ce défaut de représentativité des femmes dans l’utilisation du masculin générique que l’écriture inclusive a été proposée. Comme on l’a vu plus haut, l’écriture inclusive correspond à une diversité de stratégies. Derrière cette multitude, on peut dégager deux grandes catégories, la féminisation et la neutralisation, que l’on trouve en français comme dans d’autres langues (l’anglais ou l’allemand).

La féminisation consiste à rendre le genre féminin visible, en présentant systématiquement les formes masculines et féminines des mots pour évoquer un groupe mixte. Il peut s’agir de doublets (« étudiants et étudiantes ») ou d’abréviations, comme le point médian (« étudiant·e·s ») ou les parenthèses (« étudiant(e)s »).

La neutralisation est au contraire une stratégie d’invisibilisation du genre. On utilise une forme qui n’a pas de genre grammatical (élève) ou dont le genre grammatical est invariable (des personnes, le groupe). Dire « les élèves » à la place de « les étudiants » permet ainsi d’éviter d’indiquer explicitement le genre du nom. La neutralisation consiste donc à régler le problème du genre dans la langue en l’éliminant, suivant ainsi le modèle de la plupart des langues du monde, qui n’ont pas de genre grammatical.

Approche expérimentale

S’il est bien établi que féminisation et neutralisation offrent une meilleure représentation des femmes que le masculin générique, il reste à déterminer laquelle de ces deux stratégies est la plus inclusive.

Les recherches portant sur cette question en français sont assez récentes et les résultats diffèrent d’une étude à l’autre.

Ces études antérieures se focalisent sur des noms qui ne sont pas socialement stéréotypés en genre, comme « étudiant ». Mais que se passe-t-il quand le nom désigne une activité stéréotypiquement masculine, comme « ingénieur/ingénieure », ou stéréotypiquement féminine, comme « esthéticien/esthéticienne » ?

Notre article de recherche teste l’hypothèse selon laquelle rendre visible le genre par la féminisation permet de mieux contrer ces stéréotypes. Cette hypothèse s’appuie sur l’idée que la présence des deux genres impliquée par la féminisation (étudiants et étudiantes) force une interprétation plus proche de la parité, là où l’absence d’information de genre dans le cas de la neutralisation (élèves) laisserait au contraire les stéréotypes guider l’interprétation.

L’article adopte une approche expérimentale pour tester cette hypothèse. L’étude établit d’abord les stéréotypes de genre associés à diverses activités connues pour être plutôt stéréotypées masculines (ingénierie, pilote d’avion, etc.), féminines (soins de beauté, baby-sitting, etc.), ou neutres (public d’un spectacle, skieur/skieuse, etc.).

Pour ce faire, 90 personnes lisent des annonces invitant à rejoindre un groupe pratiquant ces activités, présentées sous la forme d’un verbe (travailler dans l’ingénierie, faire du ski, etc.). Les sujets doivent indiquer la proportion de femmes dans le groupe visé par l’annonce, ce afin d’établir un score de stéréotype pour chacune de ces activités.

Ensuite 90 autres personnes sont invitées à lire les mêmes annonces, mais présentées cette fois avec des noms plutôt que des verbes : (i) les formes masculines (les ingénieurs) et les deux formes d’écriture inclusive concurrentes, (ii) la féminisation, avec les formes doubles (les ingénieurs et ingénieures), et (iii) la neutralisation, avec les formes invariables en genre (l’équipe d’ingénierie). Les sujets doivent là aussi indiquer la proportion de femmes dans le groupe visé par l’annonce. On compare ensuite les scores des deux études afin d’établir comment différentes stratégies d’écriture interfèrent avec les stéréotypes.

Rendre le genre visible réduit les stéréotypes

Les résultats confirment que les deux stratégies d’écriture inclusive (féminisation et neutralisation) permettent de contrecarrer le biais masculin des masculins génériques, avec des proportions de femmes plus élevées indiquées par les sujets.

Le résultat le plus intéressant concerne la comparaison entre féminisation et neutralisation. Les sujets indiquent des proportions de femmes plus proches de la parité (50 %) pour les annonces présentées avec la féminisation (ingénieur et ingénieure) que pour les annonces présentées avec la neutralisation (équipe d’ingénierie).

Avec la neutralisation, les stéréotypes influencent fortement l’interprétation. Par exemple, les sujets ont tendance à répondre qu’un poste en ingénierie vise plutôt des hommes et un poste dans les soins de beauté plutôt des femmes. En revanche, avec la féminisation, cet effet est atténué, permettant des associations non stéréotypées : les sujets imaginent plus volontiers qu’un poste d’ingénieur ou d’ingénieure est destiné aux femmes et qu’un poste d’esthéticien ou esthéticienne est destiné aux hommes. Bien que nos résultats ne portent que sur les doublets (ingénieur et ingénieure), il est probable que l’on puisse généraliser à d’autres stratégies de féminisation comme le point médian (« ingénieur·e »), dans la mesure où les études récentes comparant ces différents types de féminisation ne trouvent pas de différence entre elles.

Ces résultats ont des implications importantes. Ils signifient que la féminisation peut bénéficier non seulement aux femmes mais aussi aux hommes, en leur rendant plus accessibles les activités associées de manière stéréotypée au sexe opposé. Pour lutter contre les stéréotypes, mieux vaut donc rendre visible le genre, avec les doublets (étudiants et étudiantes) ou les formes contractées (étudiant·e·s), que de le masquer.

The Conversation

Benjamin Storme a reçu des financements de l’Université de Leyde et de la NWO (Organisation Néerlandaise pour la Recherche Scientifique) pour d’autres projets de recherche.

Martin Storme a reçu des financements de l’ANR pour d’autres projets de recherche.

ref. L’écriture inclusive, une arme contre les stéréotypes de genre – https://theconversation.com/lecriture-inclusive-une-arme-contre-les-stereotypes-de-genre-264283

Les pressions de Donald Trump sur la Fed annoncent-elles la fin du dollar ?

Source: The Conversation – France (in French) – By Vanessa Strauss-Kahn, Professeure d’économie, ESCP Business School

Le président des États-Unis Donald Trump, multiplie les critiques contre la banque centrale, Federal Reserve, trop timorée à ses yeux. Derrière d’évidents conflits d’intérêt à court terme, Trump pourrait bien remettre en cause la crédibilité de la Fed, un des piliers de la puissance mondiale du dollar.


Depuis quelques semaines, la Maison Blanche intensifie ses critiques à l’encontre de la banque centrale des États-Unis (Federal Reserve, Fed). Ces remarques répétées suscitent des interrogations sur le respect de l’indépendance de la Fed et, plus encore, de fortes inquiétudes sur la stabilité macroéconomique et financière des États-Unis.

Les prises de position du président Trump sur la politique monétaire de la Fed ne sont pas nouvelles. Le 19 juillet 2018, il exprimait déjà son désaccord avec la politique des taux d’intérêt menée par la banque centrale. Il rompait ainsi avec la tradition qui voulait que l’exécutif s’abstienne de commenter afin de préserver l’indépendance de la Fed et de maintenir la confiance des marchés financiers. À l’époque, ses éclats semblaient surtout médiatiques. Mais aujourd’hui, Trump 2 paraît engager une remise en cause plus structurelle de l’architecture économique et financière, appelant à une attention particulière.

Stimuler la croissance à tout prix

Depuis son retour à la Maison Blanche, Trump exige une baisse des taux pour stimuler la croissance. Il intensifie ses attaques contre la Fed. Après avoir critiqué le maintien du taux directeur le 18 mars 2025, menacé de limoger Jerome Powell le 17 avril dernier, puis multiplié les insultes publiques, il a exigé le 20 août la démission de Lisa Cook, une des sept gouverneurs de la Fed. La nomination de nouveaux membres permettrait à l’exécutif de modifier l’équilibre des votes et d’infléchir la politique monétaire.




À lire aussi :
À quoi sert l’indépendance des banques centrales ?


Le Federal Reserve Act de 1913 autorise la révocation d’un gouverneur « pour motif valable » (faute grave, manquement ou incapacité). Cette disposition, jamais utilisée, reste juridiquement incertaine. La tentative de destitution, rejetée en première instance, le 16 septembre 2025, a donc suscité de fortes inquiétudes des économistes, médias et marchés financiers sur l’indépendance de la Fed et la politisation de la politique monétaire.

Or, l’indépendance des banques centrales est la clé de voûte de la stabilité monétaire. Le Système de la réserve fédérale, créé en 1914 pour répondre aux paniques bancaires du XIXe siècle, a été conçu pour protéger la banque centrale des pressions politiques. Cette autonomie a été consolidée par le Banking Act de 1935 et par l’accord de 1951 avec le Trésor.

Outil de lutte contre l’inflation

Cette indépendance est aussi un instrument essentiel de lutte contre l’inflation. Sans elle, un gouvernement pourrait chercher à financer ses déficits en poussant la banque centrale à créer davantage de monnaie ou à abaisser ses taux. Ces politiques stimuleraient artificiellement la demande, gonfleraient la masse monétaire et provoqueraient une hausse des prix, entraînant in fine une dépréciation de la monnaie.

L’histoire a montré les effets d’un manque d’indépendance des banques centrales. Dans l’Allemagne des années 1920, la Reichsbank, sous contrôle de l’État, finançait déficits et réparations de guerre par création monétaire, provoquant l’hyperinflation de 1923. On retrouve des mécanismes similaires au Zimbabwe (2007–2009), au Venezuela (2010–2020) et, plus récemment, en Turquie, où les pressions politiques sur la banque centrale ont alimenté une inflation durable.

Les bases académiques de cette indépendance sont en revanche plus récentes. Dans les années 1970, Kydland et Prescott (1977), puis Barro et Gordon (1982), ont montré que, sans autonomie ni mandats crédibles, les politiques monétaires perdent leur efficacité et nourrissent des anticipations inflationnistes persistantes.

L’importance de la crédibilité

Les agents économiques tiennent compte du degré d’indépendance de la banque centrale. Quand celle-ci perd en crédibilité, ils doutent de sa capacité à respecter son mandat – maintenir une inflation modérée, fixée à 2 % pour la Fed. Résultat : face à un déficit budgétaire croissant, ils s’attendent à plus d’inflation, augmentent leurs prix par anticipation et enclenchent un cercle autoréalisateur qui alimente la hausse générale des prix.

De nombreuses études empiriques confirment le lien entre indépendance des banques centrales et faible inflation, comme l’ont montré Grilli, Masciandaro et Tabellini (1991), Alesina et Summers (1993) ou encore Bodea et Hicks (2015). Et la question reste d’actualité. En 2024, le Fonds monétaire international (FMI) a publié un nouvel indice mesurant l’indépendance des banques centrales, qui devrait alimenter de nouvelles recherches et débats.

En résumé, sans indépendance, une banque centrale perd sa crédibilité – et, avec elle, sa capacité à maîtriser l’inflation.

Baisse des taux

Le souhait du président Trump de voir baisser les taux d’intérêt directeurs s’est en partie concrétisé, le 17 septembre 2025 (baisse des taux d’un quart de point), Powell répondant ainsi aux mauvais résultats du marché du travail américain (le chômage atteignant 4,3 % en août 2025, son plus haut niveau depuis octobre 2021, BLS, 2025). Cette baisse des taux directeurs sur fond de ralentissement économique est en accord avec le double mandat de la Fed ; c’est-à-dire, maîtriser l’inflation et favoriser une économie proche du plein emploi.

Mettra-t-elle fin aux attaques contre l’indépendance de la Fed ? Peu probable. En effet, en juillet, le président annonçait vouloir une baisse de 300 points de base (soit passer d’un taux directeur de 4 % à 1 %). Une réduction drastique jamais mise en œuvre en une seule fois et historiquement intervenue seulement lors de périodes de profondes récessions, comme, par exemple, en 2007-2008.

Un lien dangereux entre l’exécutif et la Fed

L’indépendance de la Fed pourrait également être fragilisée par la récente nomination par Trump de Stephen Miran (actuel président du Conseil des conseillers économiques, Council of Economic Advisers, CEA) au siège vacant du Conseil des gouverneurs de la banque centrale. Celui-ci a indiqué qu’il ne démissionnerait pas de ses fonctions au CEA, mais prendrait un congé sans solde – créant ainsi un lien institutionnel inédit entre la Fed et l’exécutif. De par la loi, un gouverneur, nommé par le président et confirmé par le Sénat, ne peut occuper un autre poste dans l’appareil de l’État, évitant ainsi des conflits d’intérêt.

Par ailleurs, Miran, comme Trump, défend une politique d’affaiblissement du dollar, qualifiée d’« accord de Mar-a-Lago ». Une baisse significative des taux directeurs entraînerait une diminution des rendements de la dette souveraine américaine et de sa valeur en devises étrangères réduisant ainsi son attractivité pour les investisseurs étrangers alors que 30,2 % du stock de la dette émise par le Trésor américain est détenu par des investisseurs internationaux, (Congressional Research Service).

France 24, septembre 2025.

Un système financier en voie de fragilisation

Outre sa mission de politique monétaire, la Fed est également chargée de veiller à la stabilité financière, de superviser le secteur bancaire et de garantir le bon fonctionnement des systèmes de paiement. Or, plusieurs annonces de la Maison Blanche suscitent des inquiétudes quant à la solidité de l’architecture financière internationale et à la stabilité du système bancaire américain (CEPR, 2025).

Le 18 février 2025, un décret présidentiel a lancé une refonte des fonctions de réglementation et de supervision bancaires exercées par la Fed (Maison Blanche, 2025). Un assouplissement de ces réglementations pourrait conduire les banques à pratiquer des ratios de levier (actifs totaux rapportés au capital) trop élevés, comme avant la crise de 2008. La stabilité du système bancaire se verrait compromise.

En août 1971, lorsque le président Nixon annonça la suspension de la convertibilité du dollar en or, son secrétaire au Trésor John B. Connally prononça cette phrase restée célèbre :

« Le dollar est notre monnaie, mais c’est votre problème. »

Les décisions récentes de la Maison Blanche ravivent l’actualité de cette déclaration. Le dollar joue un rôle primordial dans l’architecture financière internationale. Si ce rôle confère aux États-Unis un « privilège exorbitant » (Eichengreen, 2011), il repose sur la confiance internationale dans la stabilité de l’économie et des institutions américaines.

Une intensification des tensions commerciales et financières pourrait éroder cette confiance, incitant banques centrales et investisseurs internationaux – notamment la Chine – à diversifier davantage leurs réserves de change et investissements vers d’autres devises ou monnaies numériques. Un tel mouvement fragiliserait le dollar. Il deviendrait alors aussi un problème américain.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Les pressions de Donald Trump sur la Fed annoncent-elles la fin du dollar ? – https://theconversation.com/les-pressions-de-donald-trump-sur-la-fed-annoncent-elles-la-fin-du-dollar-265784

Du slip troué aux sachets de thé, quelques indicateurs pour mesurer la santé des sols

Source: The Conversation – France (in French) – By Coline Deveautour, Enseignante-Chercheuse en Ecologie microbienne des sols, UniLaSalle

Le test du slip est très simple à interpréter : plus le slip retrouvé sera troué, plus le sol sera en bonne santé. Gabriela Braendle/Agroscope

Du slip en coton aux sachets de thé enterrés, de l’analyse chimique en laboratoire aux espèces bio-indicatrices, voici un panorama de quelques tests étonnants qui permettent d’informer de la santé des sols. Derrière leur éventuelle dimension ludique, ils montrent à quel point les données ainsi recueillies sur le bon fonctionnement de ces écosystèmes sont précieuses, notamment pour l’agriculture.


Les sols nous rendent des services précieux et encore trop souvent invisibles : c’est grâce à eux que de nombreuses espèces – dont la nôtre – peuvent se nourrir, voire se vêtir, grâce aux cultures textiles. Ils sont la base physique sur laquelle une large partie des écosystèmes terrestres – ainsi que les infrastructures humaines – sont bâtis.

Ils rendent des services écosystémiques incomparables. Non seulement les sols fournissent aux plantes l’eau et les nutriments nécessaires à leur croissance, mais ils permettent aussi de réguler le cycle de l’eau, entre le ruissellement de la pluie et son infiltration. De ce fait, ils jouent un rôle clé pour atténuer l’ampleur des inondations. Leur fonction de puits de carbone en fait également des alliés précieux de la décarbonation.

Les sols représentent un habitat indispensable pour la survie de certains organismes tels que des micro-organismes (bactéries, champignons, algues, protozoaires…) mais aussi d’animaux plus ou moins grands (lombriciens, arthropodes, nématodes…), tous liés par une chaîne alimentaire complexe.

Ces organismes sont très nombreux : une cuillère à café de sol contient plus d’êtres vivants qu’il n’y a d’humains sur la Terre ! On y retrouve ainsi plusieurs centaines de millions de bactéries, plusieurs dizaines de milliers de champignons, des centaines de protozoaires et des dizaines d’arthropodes tels que des acariens ou des collemboles.

Dans ces conditions, un sol en bonne santé est un sol qui fonctionne bien, c’est-à-dire qui constitue un habitat adapté pour tous ces êtres vivants. Il leur offre le gîte et le couvert : un toit sûr et constant et de quoi se nourrir en suffisance. La bonne santé d’un sol constitue un atout indéniable pour l’agriculture en termes de fertilité, production et de lutte contre les maladies…. Mais comment peut-on la mesurer simplement ?




À lire aussi :
La vie secrète des sols français


Du test du boudin au slip troué

Des tests, en tant que chercheuses spécialisées aux milieux agricoles, nous en avons connus : du test du boudin à celui du verre d’eau, de la couleur à l’odeur du sol, du test à la bèche au décompte des vers de terre, il y a l’embarras du choix.

Évoquons l’un de ces tests qui a le mérite d’être simple, efficace et non dénué d’humour : le fameux test du slip. Pour connaître la santé d’un sol, agricole par exemple, on peut ainsi enterrer un slip en pur coton blanc non traité, puis le déterrer quelques mois plus tard afin de constater son état.

Le test du slip est facile à interpréter : une dégradation rapide est plutôt une bonne nouvelle.
Gabriela Braendle / Agroscope / Université de Zurich

L’interprétation est rapide et facile : un slip retrouvé plutôt intact sera une mauvaise nouvelle, tandis qu’un slip troué sera signe d’une dégradation de la cellulose du coton. L’explication est, elle, un peu plus complexe : un sol en bonne santé est habité par une grande diversité d’organismes, qui lui confèrent un fonctionnement optimal, et notamment un bon niveau de décomposition et de minéralisation de la matière organique.

Ce sont ces fonctions du sol qui permettent le recyclage des nutriments nécessaires à la croissance des plantes. Or, la cellulose du slip, par exemple, est une matière organique. Ainsi, si le slip est en bon état lorsqu’il est déterré, cela indique qu’il n’a pas été dégradé, et que le sol ne remplit pas correctement ses fonctions de décomposition.




À lire aussi :
La biodiversité des sols nous protège, protégeons-la aussi


Les sachets de thé, un test de référence

Pour affiner l’analyse, il existe un autre test moins médiatisé : celui des sachets de thé.

Deux sachets de thé prêts à être enterrés.
Anne-Maïmiti Dulaurent, Fourni par l’auteur

Il suffit d’enterrer des sachets de thé de compositions différentes (thé vert ou rooibos), plus ou moins « digestes » pour les organismes du sol – et donc plus ou moins difficiles à dégrader – et d’étudier la perte de poids des sachets après un temps donné. S’ils se sont allégés, c’est qu’ils ont perdu de la matière – et donc que celle-ci a été décomposée par les organismes du sol.

Après tout, un sachet de thé contient simplement de la matière végétale morte à l’intérieur d’une toile en nylon. Cela représente un bon appât pour les organismes décomposeurs.

Mais tous les thés ne se valent pas : le thé vert est plus facile à dégrader, tandis que le roiboos est plus ligneux et met plus longtemps à être décomposé. Comparer les deux permet donc d’évaluer dans quelle mesure le sol peut dégrader différents types de matière organique.

Cela peut prêter à sourire, mais il s’agit pourtant d’une méthode standardisée mise en place par des chercheurs. Son protocole est disponible pour toute personne souhaitant évaluer l’efficacité de dégradation d’un sol.

Non seulement cela fournit des informations précieuses sur la capacité du sol à décomposer la matière organique, mais un tel protocole rend les résultats comparables entre différents sites du monde entier, peu importe la façon dont sont gérés les sols.

Grâce à cette méthode, des chercheurs d’UniLaSalle et des agriculteurs des Hauts-de-France ont pu mettre en évidence un meilleur niveau de dégradation de la matière organique dans des sols en agriculture de conservation des sols, un mode de gestion agricole moins intensif que le mode conventionnel.

Un sol sain est primordial pour les agriculteurs. En cas de mauvaise décomposition de la matière (c’est-à-dire, des slips intacts et des sachets de thé qui semblent prêts à être infusés malgré plusieurs semaines passées dans le sol), des analyses plus poussées en laboratoire sont alors utiles pour comprendre d’où vient le dysfonctionnement.




À lire aussi :
Les sept familles de l’agriculture durable


Les analyses de sol, précieuses pour les agriculteurs

Les analyses de sol permettent de faire le bilan de la santé des sols, et sont donc précieuses pour les agriculteurs. Ces analyses peuvent s’intéresser à plusieurs paramètres et sont effectuées au laboratoire après avoir échantillonné le sol des parcelles.

Elles peuvent ainsi mesurer :

  • La texture du sol, qui informe sur la proportion de sable, limon et argile. C’est important, car certaines textures sont favorables à un type de culture, mais pas d’autres. Quelles que soient ses pratiques, l’agriculteur n’a aucun effet sur ce paramètre, mais doit en tenir compte pour adapter sa production et ses cultures.

  • Le taux de matière organique, qui correspond à la proportion de substances issues de la décomposition des plantes, des animaux et des microorganismes présents dans le sol. Un taux élevé améliore la capacité du sol à retenir les éléments nutritifs et renforce sa structure. L’agriculteur peut l’augmenter en apportant régulièrement différents types de matière organique, comme des effluents d’élevage, des digestats de méthanisation ou en favorisant la restitution de végétaux au sol.

  • La concentration en nutriments disponibles du sol (phosphore, potassium, magnésium, etc.) renseigne sur leur présence, en suffisance ou non, pour assurer les besoins des plantes cultivées. Une faible concentration d’un nutriment peut être compensée par l’apport de fertilisants minéraux ou de différentes matières organiques qui, décomposées par les habitants du sol, libéreront ce nutriment.

  • Enfin, le pH, qui indique l’état d’acidité du sol, impacte le développement des plantes. Il peut par exemple influencer la disponibilité des nutriments, mais aussi la présence et l’activité d’organismes bénéfiques pour les plantes. Il est possible pour l’agriculteur d’agir sur ce paramètre par différents types d’apports, comme la chaux qui permet d’éviter un pH trop acide.

Toutes ces informations permettent de guider la gestion du sol par l’agriculteur. Les analyses de sol peuvent être répétées au cours des années, notamment pour surveiller l’état d’une parcelle selon les pratiques agricoles mises en œuvre.

Des nouveaux bio-indicateurs en cours de développement

On l’a compris, les organismes du sol sont en grande partie responsables de son bon fonctionnement et de son état de santé. Mais ils sont sensibles à leur milieu et à la gestion des sols. Ainsi, pour tenir compte de leur présence, de nouveaux indicateurs reposant sur la vie du sol émergent depuis quelques années : on parle de bioindicateurs pour décrire ces espèces qui, par leur présence, renseignent sur les caractéristiques écologiques des milieux.

Bien sûr, différents bioindicateurs fournissent des informations différentes : l’abondance et la diversité de la mésofaune (collemboles et acariens) renseignent sur la capacité du sol à bien découper la matière, et les champignons plutôt sur l’efficacité du recyclage des nutriments. La sensibilité de ces organismes aux pratiques agricoles en fait de bons bioindicateurs.

D’autres indicateurs biologiques sont testés actuellement, par exemple pour évaluer le bon fonctionnement du cycle du carbone et de celui de l’azote.

Ces outils ne sont pas forcément accessibles pour la majorité des agriculteurs, car ils ont un coût financier pour le moment trop élevé. Un axe de recherche serait donc de développer des tests basés sur des bioindicateurs plus simples à mettre en œuvre et à interpréter.




À lire aussi :
Comment l’agriculture industrielle bouleverse le cycle de l’azote et compromet l’habitabilité de la terre


The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Du slip troué aux sachets de thé, quelques indicateurs pour mesurer la santé des sols – https://theconversation.com/du-slip-troue-aux-sachets-de-the-quelques-indicateurs-pour-mesurer-la-sante-des-sols-264713

De 1992 à 2022, la laborieuse intégration de l’agriculture aux négociations climatiques

Source: The Conversation – France (in French) – By Marie Hrabanski, chercheuse en sociologie politique, politiques internationales et nationales de l’adaptation de l’agriculture au changement cliamtique, Cirad

À l’échelle mondiale, les systèmes agricoles, alimentaires et forestiers produisent plus du tiers des émissions de gaz à effet de serre, contribuant ainsi au changement climatique de façon significative. Pourtant, l’agriculture n’a été intégrée que tardivement aux négociations des COP sur le climat. Entre enjeux d’adaptation, d’atténuation et de sécurité alimentaire, les avancées restent timides. De récentes initiatives essaient toutefois de mieux intégrer les systèmes agricoles et alimentaires à l’agenda climatique mondial.

Nous reproduisons ci-dessous la première partie consacrée à ces questions du chapitre 2 (« De 1992 à 2022, la difficile mise à l’agenda de l’agriculture dans les négociations sur le climat ») de _l’Agriculture et les systèmes alimentaires du monde face au changement climatique. Enjeux pour les Suds, publié en juin 2025 par les éditions Quae, sous la coordination scientifique de Vincent Blanfort, Julien Demenois et Marie Hrabanski (librement accessible en e-book).


Depuis 1992 et la signature de la Convention-cadre des Nations unies sur les changements climatiques (CCNUCC), les gouvernements ou parties se rassemblent chaque année au sein des Conférences des parties (COP) pour orienter et opérationnaliser les engagements des États face au changement climatique.

L’agriculture a longtemps été absente de ces négociations qui, jusqu’à la fin des années 1990, se sont focalisées sur l’atténuation des émissions de gaz à effet de serre (GES). Pourtant, les systèmes agricoles et alimentaires sont particulièrement émetteurs de GES, et à la fois « victimes » et « solutions » face au changement climatique.

À partir des années 2010, les questions agricoles puis alimentaires intègrent progressivement l’agenda international du climat. Les États sont chargés de mettre en œuvre les actions climatiques pour l’agriculture et l’alimentation, qui sont détaillées dans leurs engagements climatiques nationaux que sont les contributions déterminées au niveau national (CDN ou NDC en anglais).

En 2020, plus de 90 % de ces contributions nationalement déterminées incluaient l’adaptation au changement climatique et faisaient de l’agriculture un secteur prioritaire, et environ 80 % d’entre elles identifiaient des objectifs d’atténuation du changement climatique dans le secteur agricole.[…]

Les insuffisances du protocole de Kyoto

Les articles 2 et 4 de la convention (CCNUCC) adoptée en 1992 évoquent le lien entre les changements climatiques et l’agriculture. Toutefois, les enjeux sont focalisés sur l’atténuation, par le biais notamment des négociations sur le cadre REDD+ (réduction des émissions dues à la déforestation et à la dégradation des forêts), qui ont abouti en 2013 à Varsovie après plusieurs années de discussions très laborieuses et clivantes, notamment entre pays développés et pays en développement.




À lire aussi :
Crédits carbone et déforestation évitée : impact réel ou risque de greenwashing ?


Le protocole de Kyoto, adopté en 1997, fait référence à l’agriculture et aux forêts, en soulignant que le secteur de l’utilisation des terres, du changement d’affectation des terres et de la foresterie (UTCATF) peut constituer une source de GES.

Ce protocole fixait des objectifs ambitieux de réduction des émissions uniquement pour les pays industrialisés (dits « annexe I »), dans un fonctionnement top-down, contrairement à l’accord de Paris. Il couvrait le méthane et le protoxyde d’azote, principaux gaz émis par le secteur agricole, et établissait des niveaux de référence forestiers à respecter.

Ce mode de travail a toutefois montré ses limites, avec notamment les États-Unis qui n’ont pas ratifié ce protocole et le Canada qui en est sorti. En application de ce protocole, deux mécanismes de certification de projets de compensation carbone ont été développés : le mécanisme de mise en œuvre conjointe (Moc) et le mécanisme de développement propre (MDP), au sein desquels les secteurs agricoles et forestiers ne seront pas intégrés avant le milieu des années 2000.

Il faut attendre la COP17 de Durban, en 2011 (voir figure ci-dessous), pour que l’agriculture soit appréhendée comme un problème global, en étant à la fois cadré comme un enjeu d’atténuation et une question d’adaptation au changement climatique.

Les questions agricoles dans les négociations climatiques entre 1992 et 2023.

En effet, à la suite de la mobilisation d’acteurs hétérogènes en faveur de la notion de climate-smart agriculture et dans un contexte politique renouvelé, l’agriculture est intégrée à l’ordre du jour officiel de l’organe de la COP chargé des questions scientifiques et techniques (SBSTA, Subsidiary Body for Scientific and Technological Advice). Cinq ateliers auront lieu entre 2013 et 2016.

La FAO a promu la climate-smart agriculture, ou l’agriculture climato-intelligente, dès la fin des années 2000. Cette notion vise à traiter trois objectifs principaux :

  • l’augmentation durable de la productivité et des revenus agricoles (sécurité alimentaire) ;

  • l’adaptation et le renforcement de la résilience face aux impacts des changements climatiques (adaptation) ;

  • et la réduction et/ou la suppression des émissions de gaz à effet de serre (l’atténuation), le cas échéant.)




À lire aussi :
Les sept familles de l’agriculture durable


Quelle place pour l’agriculture dans l’accord de Paris ?

Pourtant, s’il y a bien une journée consacrée à l’agriculture pendant la COP21 en 2015 en parallèle des négociations, l’accord de Paris aborde uniquement l’agriculture sous l’angle de la sécurité alimentaire et de la vulnérabilité des systèmes de production alimentaire.

Les écosystèmes agricoles et forestiers sont uniquement couverts par l’article 5 de l’accord de Paris, qui souligne l’importance de préserver et de renforcer les puits de carbone naturels et qui met en lumière des outils comme les paiements basés sur des résultats REDD+ et le mécanisme conjoint pour l’atténuation et l’adaptation des forêts (Joint Mitigation and Adaptation Mechanism for the Integral and Sustainable Management of Forests, ou JMA).

Une étape importante est franchie en 2017, avec la création de l’action commune de Koronivia (KJWA). Les ateliers se font maintenant en coopération avec les organes constitués au titre de la convention, par exemple le Fonds vert pour le climat. Les observateurs, dont les ONG et la recherche, participent également aux ateliers.

De 2018 à 2021, sept ateliers sont organisés (sur les méthodes d’évaluation de l’adaptation, les ressources en eau, le carbone du sol, etc.) et permettent à tous les États et parties prenantes (stakeholders) de partager leurs points de vue sur différents enjeux agricoles.

L’accélération de l’agenda climatique va dans le même temps permettre, pendant la COP26 de Glasgow, de prendre en charge la question des émissions de méthane, dont près de 40 % sont d’origine agricole, selon l’IEA (International Energy Agency).

Réunion ministérielle sur le Global Methane Pledge lors de la COP28 en 2023.
Ryan Lim/Commission européenne, CC BY

Un « engagement mondial » (Global Methane Pledge) a été lancé en 2021 par l’Union européenne (UE) et les États-Unis, avec pour objectif de réduire les émissions mondiales de méthane de 30 % d’ici à 2030 par rapport à 2020. Il regroupe aujourd’hui 158 pays, sans toutefois que la Chine, l’Inde et la Russie figurent parmi les signataires.

Les points de blocage identifiés à l’issue des COP26 et COP27

En 2022, l’action commune de Koronivia arrivait à son terme. L’analyse des soumissions faites par les pays et les observateurs, dont la recherche, met en évidence la pluralité des façons de penser le lien entre les questions agricoles et les questions climatiques, ce qui va se traduire notamment par de fortes tensions entre des pays du Nord et des pays du Sud dans les négociations lors de la COP27 de Charm el-Cheikh en Égypte (2022).

Trois principaux points de blocage ont pu être identifiés entre différents pays des
Nords et des Suds. D’autres clivages sont également apparus, permettant ainsi de relativiser l’existence d’un Nord global et d’un Sud global qui s’opposeraient nécessairement.

Le premier a trait à l’utilisation du terme atténuation dans le texte de la décision de la COP. En effet, si toutes les parties étaient d’accord pour que figure dans le texte l’importance de l’adaptation de l’agriculture au changement climatique, l’Inde, soutenue par d’autres pays émergents restés plus en retrait, s’est montrée particulièrement réticente à voir apparaître aussi le terme atténuation.

Pour ce grand pays agricole, les enjeux d’atténuation ne doivent pas entraver la sécurité alimentaire des pays en développement et émergents. À quelques heures de la clôture des négociations, l’Inde a accepté que le terme atténuation figure dans la décision de la COP3/CP27, créant « l’initiative quadriennale commune de Charm el-Cheikh sur la mise en œuvre d’une action climatique pour l’agriculture et la sécurité alimentaire ».

Cet épisode montre à quel point il n’est pas acquis de penser en synergie les enjeux d’adaptation et d’atténuation pour de nombreux pays émergents et du Sud.

Un second point de blocage concernait la création d’une structure permanente affectée aux enjeux agricoles dans la CCNUCC. Cette demande, qui reste un point d’achoppement dans les négociations, est principalement portée par les pays du G77, même si des divergences notables existent entre les propositions faites.

Enfin, on peut identifier un enjeu lié à la place des systèmes alimentaires dans l’action climatique. Pour nombre de pays européens et émergents, la réflexion doit être faite à l’échelle des systèmes alimentaires : nos pratiques alimentaires dépendent étroitement des modes de production des produits agricoles, et une approche prenant en compte l’amont avec la production des intrants et l’éventuelle déforestation, et l’aval, avec le transport, le refroidissement, la transformation, et donc également les pertes et les gaspillages et les régimes alimentaires, est plus à même de permettre l’émergence de solutions gagnantes à tous niveaux.

Toutefois, d’un côté, le groupe Afrique préférait se focaliser sur le secteur agricole, une question déjà complexe à instruire. De l’autre côté, certains pays du Nord et aux économies en transition refusaient de voir apparaître le terme système alimentaire, l’hypothèse la plus probable étant la crainte de remettre en question la surconsommation de viande, la déforestation, ou encore le commerce, ce qu’ils souhaitent impérativement éviter.

Le terme système alimentaire a donc été rejeté dans le texte de l’initiative quadriennale commune de Charm el-Cheikh.




À lire aussi :
Climat : nos systèmes alimentaires peuvent devenir plus efficaces, plus résilients et plus justes


Les timides avancées de Charm el-Cheikh

Malgré ces points de tensions, l’initiative quadriennale commune de Charm el-Cheikh sur la mise en œuvre d’une action climatique pour l’agriculture et la sécurité alimentaire a été adoptée et cette décision de COP3/CP27 marque donc une étape décisive dans les négociations.

On notera tout de même que ce texte ne promeut ni l’agroécologie, qui aurait ouvert la voie à une refonte holistique des systèmes agricoles, ni l’agriculture climato-intelligente (climate-smart agriculture), davantage tournée vers les solutions technologiques. Aucun objectif chiffré de réduction des émissions de GES agricoles n’est discuté dans les COP ; aucune pratique n’a été encouragée ou stigmatisée (utilisation massive d’intrants chimiques, etc.).

La présidence émirienne de la COP28 a ensuite mis en haut de l’agenda politique cette question, en proposant la Déclaration sur l’agriculture durable, les systèmes alimentaires résilients et l’action climatique, signée par 160 pays.

Elle appelle les pays qui la rejoignent à renforcer la place des systèmes agricoles et alimentaires dans les contributions déterminées au niveau national et dans les plans nationaux d’adaptation et relatifs à la biodiversité.


Éditions Quae, 2025

Dans la foulée de la COP28, la FAO a proposé une feuille de route qui établit 120 mesures (dont des mesures dites agroécologiques) et étapes clés dans dix domaines pour l’adaptation et l’atténuation pour les systèmes agricoles et alimentaires. Elle vise à réduire de 25 % les émissions d’origine agricole et alimentaire, pour atteindre la neutralité carbone à l’horizon 2035, et à transformer d’ici 2050 ces systèmes en puits de carbone capturant 1,5 Gt de GES par an.

En définitive, l’initiative de Charm el-Cheikh portait sur l’agriculture et non pas sur les systèmes alimentaires, mais a donné lieu à un atelier, en juin 2025, sur les approches systémiques et holistiques en agriculture et dans les systèmes alimentaires, et le forum du Standing Committee on Finance de 2025 portera sur l’agriculture et les systèmes alimentaires durables. Le sujet fait donc son chemin dans les enceintes de la CCNUCC.


Ce chapitre a été écrit par Marie Hrabanski, Valérie Dermaux, Alexandre K. Magnan, Adèle Tanguy, Anaïs Valance et Roxane Moraglia.

The Conversation

Marie Hrabanski est membre du champ thématique stratégique du CIRAD sur le changement climatique et a reçu des financements de l’ANR APIICC (Evaluation des Plans et Instruments d’Innovation Institutionnelle pour lutter contre le changement climatique).

ref. De 1992 à 2022, la laborieuse intégration de l’agriculture aux négociations climatiques – https://theconversation.com/de-1992-a-2022-la-laborieuse-integration-de-lagriculture-aux-negociations-climatiques-265335

Le Canada, le Royaume-Uni, la France et l’Australie reconnaissent la Palestine – qu’est-ce que cela signifie ? Entretien avec un expert

Source: The Conversation – in French – By George Kyris, Associate Professor in International Politics, University of Birmingham

Le Royaume-Uni, la France, le Canada et l’Australie font partie d’un groupe de nations qui reconnaissent officiellement l’État de Palestine, comme l’ont fait la plupart des autres États au cours des dernières décennies. Cette décision constitue un changement diplomatique majeur et un tournant dans l’un des conflits les plus insolubles au monde. Voici ce que cela signifie.


Reconnaître la Palestine, qu’est-ce que cela veut dire ?

Reconnaître la Palestine, c’est reconnaître l’existence d’un État qui représente le peuple palestinien. Cela signifie également que le pays qui reconnaît la Palestine peut établir des relations diplomatiques complètes avec les représentants de cet État, ce qui inclut l’échange d’ambassades ou la négociation d’accords au niveau gouvernemental.

Pourquoi ces pays ont-ils agi ensemble, et pourquoi maintenant ?

La reconnaissance diplomatique, lorsqu’elle est concertée, a plus de poids que des gestes isolés, et les gouvernements le savent. Il y a environ un an, l’Espagne a tenté de convaincre les membres de l’Union européenne de reconnaître ensemble la Palestine et, lorsque cela s’est avéré impossible, a choisi de coordonner sa reconnaissance avec la Norvège et l’Irlande uniquement. Par ailleurs, un groupe de pays des Caraïbes (la Barbade, la Jamaïque, Trinité-et-Tobago, les Bahamas) a également reconnu la Palestine à peu près à la même époque.

En agissant ensemble, les pays amplifient le message selon lequel la création d’un État palestinien n’est pas une idée marginale, mais une aspiration légitime soutenue par un consensus international croissant. Cette reconnaissance collective sert également à protéger les gouvernements individuels contre les accusations d’unilatéralisme ou d’opportunisme politique.

Cette vague de reconnaissance survient aujourd’hui en raison de la crainte que l’État palestinien soit menacé, peut-être plus que jamais auparavant. Dans leurs déclarations de reconnaissance, le Royaume-Uni et le Canada ont invoqué les colonies israéliennes en Cisjordanie pour justifier leur décision.

Le gouvernement israélien a également révélé des plans qui reviennent à annexer Gaza, l’autre zone qui devrait appartenir aux Palestiniens. Cela fait suite à des mois d’attaques contre les Palestiniens, que la commission d’enquête de l’ONU sur les territoires palestiniens occupés et Israël a qualifiées de génocide. L’opinion publique a aussi évolué de manière radicale en faveur de la Palestine, ce qui accentue la pression sur les gouvernements.

Pourquoi certains affirment-ils que la reconnaissance n’est pas légale ?

Israël et certains de ses alliés affirment que la reconnaissance est illégale, car la Palestine ne possède pas les attributs d’un État fonctionnel, tels que le contrôle total de son territoire ou un gouvernement centralisé. Les avis juridiques divergent quant à savoir si la Palestine répond aux critères d’un État. Mais, quoi qu’il en soit, ces critères ne sont pas systématiquement utilisés pour reconnaître les États.




À lire aussi :
Quel droit international dans le conflit israélo-palestinien ?


En fait, de nombreux États ont été reconnus bien avant d’avoir le contrôle total de leurs frontières ou de leurs institutions. Ironiquement, les États-Unis ont reconnu Israël en 1948, réfutant les critiques qui estimaient que cette reconnaissance était prématurée en raison de l’absence de frontières claires. La reconnaissance a donc toujours été politique.

Mais même si l’on adopte une perspective plus juridique, la communauté internationale, à travers de nombreux textes de l’ONU et autres, reconnaît depuis longtemps le droit des Palestiniens à avoir leur propre État.

La reconnaissance « récompense-t-elle le Hamas », comme le prétend Israël ?

Reconnaître un État ne signifie pas reconnaître ceux qui le gouvernent. À l’heure actuelle, par exemple, de nombreux États ne reconnaissent pas le régime taliban, mais cela ne signifie pas pour autant qu’ils ont cessé de reconnaître l’existence de l’Afghanistan en tant qu’État.

De même, le fait que Nétanyahou fasse l’objet d’un mandat d’arrêt de la Cour pénale internationale pour crimes de guerre et crimes contre l’humanité n’a pas conduit les États à retirer leur reconnaissance de l’État d’Israël et de son peuple. Reconnaître un État n’est pas la même chose que soutenir un gouvernement spécifique.

De plus, tous les États qui ont récemment reconnu la Palestine ont explicitement déclaré que le Hamas ne devait jouer aucun rôle dans un futur gouvernement. La France a déclaré que, bien qu’elle reconnaisse l’État palestinien, elle n’ouvrirait pas d’ambassade tant que le Hamas n’aura pas libéré les otages.

La reconnaissance fera-t-elle une différence ?

Ces dernières années ont mis en évidence les limites de la diplomatie pour mettre fin à l’horrible catastrophe humaine qui se déroule à Gaza. Cela ne laisse pas beaucoup de place à l’optimisme. Et, d’une certaine manière, les États qui prennent des mesures diplomatiques courageuses révèlent en même temps leur réticence à prendre des mesures plus concrètes, telles que des sanctions, pour faire pression sur le gouvernement israélien afin qu’il mette fin à la guerre.

Néanmoins, cette reconnaissance pourrait avoir un effet boule de neige qui renforcerait la position internationale des Palestiniens. Ils pourront ainsi travailler de manière plus substantielle avec les gouvernements qui reconnaissent désormais leur État. D’autres États pourraient également reconnaître la Palestine, motivés par le fait que d’autres l’ont fait avant eux.

Et une reconnaissance accrue signifie un meilleur accès aux forums internationaux, à l’aide et aux instruments juridiques. Par exemple, la reconnaissance par l’ONU de la Palestine en tant qu’État observateur en 2011 a permis à la Cour internationale de justice d’entendre l’affaire de l’Afrique du Sud accusant Israël de génocide et à la Cour pénale internationale de délivrer un mandat d’arrêt contre Nétanyahou.

Les implications pour le gouvernement israélien et certains de ses alliés pourraient également être importantes. Les États-Unis se retrouveront désormais isolés en tant que seul membre permanent du Conseil de sécurité de l’ONU à ne pas reconnaître la Palestine. Les États qui ne reconnaissent pas la Palestine se retrouveront dans une minorité dissidente et seront davantage exposés aux critiques dans les forums internationaux et dans l’opinion publique.




À lire aussi :
Devrait-on envisager une administration transitoire pour Gaza ?


Cet isolement croissant ne devrait pas entraîner de changements immédiats et ne devrait pas déranger l’administration américaine actuelle, qui ne suit souvent pas la logique de la diplomatie traditionnelle. Néanmoins, avec le temps, la pression exercée sur Israël et ses alliés pour qu’ils s’engagent dans un processus de paix pourrait s’intensifier.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous aujourd’hui à notre infolettre pour mieux comprendre les grands enjeux contemporains.


En fin de compte, la reconnaissance de certains des plus grands acteurs mondiaux marque une rupture avec leur alignement de longue date avec les gouvernements israéliens successifs. Cela montre à quel point leur opinion publique et leurs gouvernements sont sensibles à la menace que représente Israël pour l’État palestinien par son annexion et son occupation. Pour les Palestiniens, cette reconnaissance renforce leur position politique et morale. Pour le gouvernement israélien, c’est l’inverse.

Mais la reconnaissance seule ne suffit pas. Elle doit s’accompagner d’efforts soutenus pour mettre fin à la guerre à Gaza, traduire en justice les auteurs de violences et relancer les efforts de paix visant à mettre fin à l’occupation et à permettre aux Palestiniens d’exercer leur souveraineté légitime aux côtés d’Israël.

La Conversation Canada

George Kyris ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le Canada, le Royaume-Uni, la France et l’Australie reconnaissent la Palestine – qu’est-ce que cela signifie ? Entretien avec un expert – https://theconversation.com/le-canada-le-royaume-uni-la-france-et-laustralie-reconnaissent-la-palestine-quest-ce-que-cela-signifie-entretien-avec-un-expert-265950

Voici pourquoi la poutine est devenue le nouveau plat identitaire québécois

Source: The Conversation – in French – By Geneviève Sicotte, Professeure, Études françaises, Concordia University

En quelques décennies, la poutine a acquis le statut de nouveau plat identitaire québécois.

On connaît sa composition : frites, fromage en grains et sauce, le tout parfois surmonté de diverses garnitures. C’est un mets qu’on peut trouver simpliste, un fast-food qui assemble sans grande imagination des aliments ultra-transformés et pas très sains.

Pourquoi s’impose-t-il aujourd’hui avec tant de force ?

Dans La poutine. Culture et identité d’un pays incertain publié cette semaine aux PUM, j’explore cette question. J’essaie de comprendre ce qui fait qu’un aliment devient un repère et même un emblème pour une collectivité. Mon hypothèse est que la poutine doit sa popularité au fait qu’elle mobilise de manière dynamique des enjeux sensibles de l’identité québécoise actuelle.

Pour analyser l’imaginaire qui s’élabore autour du plat, j’approfondis ici quelques pistes : ses liens avec la tradition culinaire québécoise et la convivialité particulière qui la caractérise.




À lire aussi :
Mangerez-vous de la tourtine à Noël ?


Un plat pour repenser le passé

La poutine est relativement récente : elle apparaît dans les années cinquante et ne devient populaire que dans les dernières décennies du XXe siècle. Mais en fait, malgré cette modernité, elle touche à des enjeux liés au passé et permet de les repenser. C’est un premier facteur qui explique son nouveau statut de plat emblématique.

La cuisine traditionnelle du Québec était d’abord associée à la subsistance. Fondée surtout sur les ressources agricoles, modeste, simple et parfois rudimentaire, elle devait emplir l’estomac. Pour cette raison, elle a longtemps été dénigrée, comme en témoignent les connotations négatives attachées à la soupe aux pois ou aux fèves au lard.

Des valorisations sont bien survenues au fil du XXe siècle. Mais même si on trouve aujourd’hui des mets traditionnels dans certains restaurants ou qu’on les consomme ponctuellement lors de fêtes, on ne saurait parler de revitalisation. Peu cuisinés, ces mets sont surtout les témoins d’une histoire, d’une identité et de formes sociales dans lesquelles une bonne partie de la population ne se reconnaît pas.

Or dans l’imaginaire social, la poutine semble apte à repositiver cette tradition. D’emblée, elle permet que des traits culinaires longtemps critiqués — simplicité, économie, rusticité et abondance — soient transformés en qualités. Elle procède ainsi à un retournement du stigmate : le caractère populaire de la cuisine, qui a pu susciter une forme de honte, est revendiqué et célébré.

Par ailleurs, la poutine se compose d’ingrédients qui agissent comme les marqueurs discrets des influences britanniques, américaines ou plus récemment du monde entier qui constituent la cuisine québécoise. Mais l’identité qu’évoquent ces ingrédients semble peu caractérisée et fortement modulée par le statut de fast-food déterritorialisé du plat. Le plébiscite de la poutine s’arrime ainsi à une situation politique contemporaine où le patriotisme québécois n’est plus un objet de ralliement dans l’espace public. Le plat devient un repère identitaire faible et, dès lors, consensuel.

Un plat convivial

Les manières de manger révèlent toujours des préférences culturelles, mais c’est d’autant plus le cas quand la nourriture consommée est ressentie comme emblématique. C’est pourquoi il faut également traiter de l’expérience concrète de la consommation de poutine et de la convivialité qu’elle suppose, qui portent elles aussi des dimensions expliquant son essor.

Le casseau abondant de frites bien saucées révèle une prédilection pour un certain type de climat et de liens sociaux. Il est posé sans façon au centre de la table et souvent partagé entre les convives qui y puisent directement. Les relations entre les corps et avec l’espace qui se dévoilent par ces usages, ce qu’on appelle la proxémie, prennent ici une dimension personnelle et même intime.

La convivialité associée à la poutine rejette ainsi les codes sociaux contraignants et valorise un registre libre et familier, où la communauté emprunte ses formes au modèle familial restreint plutôt qu’au social élargi.

Une nourriture de réconfort

Une fois consommé, le mets emplit l’estomac et rend somnolent. Ce ressenti physiologique fait peut-être écho à l’ancienne cuisine domestique qui visait la satiété. Toutefois, il trouve aussi des résonances contemporaines.

La poutine appartient en effet à la catégorie très prisée des nourritures de réconfort, ce phénomène typique d’une époque hédoniste. Mais la poutine n’est pas seulement un petit plaisir du samedi soir. Elle devient le signe de préférences culturelles collectives : les corps se rassemblent dans une sociabilité de proximité qui vise le plaisir et qui permet de mettre à distance des enjeux sociaux et politiques potentiellement conflictuels.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


En outre, le plat fait l’objet de consommations festives qui accentuent sa portée identitaire. Dans ces occasions, la convivialité devient codifiée et parfois ritualisée. La poutine des vacances marque la fin des obligations, le moment où s’ouvre un été de liberté ; la première poutine des immigrants signe leur intégration à la société québécoise ; la poutine nocturne permet d’éponger les excès avant de réintégrer le monde des obligations ; les festivals de la poutine constituent des moments de rassemblement joyeux de la collectivité.

Ces fêtes sont de véritables performances de l’identité, des moments où s’inventent des modalités renouvelées du vivre-ensemble qui valorisent le plaisir, l’humour, la modestie et les liens de proximité. Elles offrent une image qui, malgré qu’elle puisse être idéalisée, joue un rôle actif dans la représentation que la collectivité se fait d’elle-même. Et cela se manifeste même dans le domaine politique, notamment lors des campagnes électorales !

La poutine, passage obligé des campagnes électorales


Un plat emblématique pour célébrer une identité complexe

Loin d’être un signe fixe, un plat identitaire est dynamique et polyphonique. Quand nous le mangeons, nous mobilisons tout un imaginaire pour penser ce que nous sommes, ce que nous avons été et ce que nous voulons être.

La poutine illustre clairement cela. Elle réfère au passé, mais le reformule et l’inscrit dans le présent. Elle valorise une certaine forme de collectivité, mais il s’agit d’une collectivité plutôt dépolitisée et non conflictuelle, rassemblée autour de valeurs familiales et familières.

Privilégiant l’humour et la fête, elle évite le patriotisme sérieux et affirme son existence avec modestie. La poutine devient ainsi un support permettant de manifester l’identité québécoise actuelle dans toute sa complexité. C’est ce qui explique qu’elle s’impose comme nouveau plat emblématique.

La Conversation Canada

Geneviève Sicotte a reçu des financements de l’Université Concordia, du Conseil de recherches en sciences humaines du Canada (CRSH) et du Fonds de recherche du Québec, Société et culture (FRQSC).

ref. Voici pourquoi la poutine est devenue le nouveau plat identitaire québécois – https://theconversation.com/voici-pourquoi-la-poutine-est-devenue-le-nouveau-plat-identitaire-quebecois-263977

Quand Hérodote dénonçait les régimes autoritaires, cinq siècles avant notre ère

Source: The Conversation – in French – By Debbie Felton, Professor of Classics, UMass Amherst

Darius I, roi de Perse (au centre), et sa cour, sur un vase peint entre 340 et 320 avant notre ère, exposé au Musée archéologique national de Naples (Italie). Carlo Raso/ Flickr, CC BY-SA

L’historien grec Hérodote (484 avant notre ère-425 avant notre ère) a cherché à comprendre la défaite de l’Empire perse face à la Grèce, moins puissante mais démocratique. Ses réflexions nous éclairent sur les dangers et les faiblesses des régimes autoritaires.


A marble bust of a bearded man with name Herodotus inscribed in Greek at the base
Une sculpture de l’histoirien et écrivain grec Hérodote.
Metropolitan Museum of Art de New York/Wikimedia

En tant que professeur de lettres classiques, je sais que les inquiétudes face à l’autoritarisme remontent à des millénaires. Une première discussion apparaît dans l’œuvre d’Hérodote, écrivain grec du Vᵉ siècle avant Jésus-Christ, dont l’Histoire – parfois appelée Histoires – est considérée comme le premier grand récit en prose de la littérature occidentale.

Hérodote y analysa l’invasion de la Grèce par les Perses – l’événement décisif de son temps. Pour comprendre comment la Grèce, une puissance bien plus petite, réussit à obtenir une victoire majeure sur la Perse, il étudia la nature d’un leadership efficace, qu’il considérait comme un facteur déterminant dans l’issue du conflit.

Un bouleversement inattendu

La Perse était déjà un vaste empire lorsqu’elle envahit la Grèce, un petit pays composé de cités-États indépendantes. Les Perses s’attendaient à une victoire rapide et facile.

Au lieu de cela, les guerres médiques durèrent plus d’une décennie, de 490 à 479 avant notre ère. Elles s’achevèrent par la défaite des Perses – un événement inattendu. La Perse abandonna alors son expansion vers l’ouest, tandis que diverses cités grecques formèrent une alliance fragile, qui dura près de cinquante ans.

Pour expliquer ce résultat surprenant, Hérodote décrivit l’évolution des sociétés perses et grecques avant ce conflit décisif. Selon lui, le fait que de nombreuses cités grecques disposaient de gouvernements représentatifs leur permit d’accéder à la victoire.

Ces systèmes permettaient aux individus de participer aux discussions stratégiques et amenèrent les Grecs à s’unir pour combattre pour leur liberté. Par exemple, lorsque la flotte perse se dirigeait vers la Grèce continentale, le général athénien Miltiade déclara :

« Jamais nous n’avons été en si grand danger. Si nous cédons aux Perses, nous souffrirons terriblement sous le tyran Hippias. »

Hérodote avait tendance à placer ses réflexions politiques dans la bouche de personnages historiques, tels que Miltiade. Il rassembla sa pensée sur le gouvernement dans ce que les historiens appellent le « Débat constitutionnel », une conversation fictive entre trois personnages bien réels : des nobles perses nommés Otanès, Mégabyze et Darius.

A scrap of dark brown fabric covered with Greek writing
Un fragment de l’Histoire, d’Hérodote, Livre VIII, sur papyrus, datant du début du IIᵉ siècle de notre ère.
Sackler Library, Oxford/Wikimedia

L’ascension de la Perse

Pendant des siècles avant d’envahir la Grèce, la Perse n’était qu’une petite région habitée par divers peuples iraniens anciens et dominée par le royaume voisin des Mèdes. Puis, en 550 av. n. è., le roi Cyrus II de Perse renversa les Mèdes et étendit le territoire perse pour fonder ce qui devint l’Empire achéménide.

Grâce à son gouvernement efficace et à sa tolérance envers les cultures qu’il avait conquises, les historiens l’appellent « Cyrus le Grand ».

Son fils et successeur, Cambyse II, eut moins de succès. Il ajouta l’Égypte à l’Empire perse, mais, selon Hérodote, Cambyse agit de manière erratique et cruelle. Il profana la tombe du pharaon, se moqua des dieux égyptiens et tua Apis, leur taureau sacré. Il exigea également que les juges perses modifient les lois afin qu’il puisse épouser ses propres sœurs.

Après la mort de Cambyse II, sans héritier, diverses factions se disputèrent le trône de Perse. C’est dans cette période d’instabilité qu’Hérodote situa sa réflexion sur les systèmes politiques alternatifs.

Les arguments en faveur de la démocratie

Otanès, le premier orateur du Débat constitutionnel, déclare :

« Le temps est révolu où un seul homme parmi nous peut détenir un pouvoir absolu. »

Il recommande que le peuple perse prenne lui-même en main les affaires de l’État.

« Comment la monarchie peut-elle rester notre norme, alors qu’un monarque peut faire tout ce qu’il veut, sans aucun compte à rendre ? », demande Otane.

Plus grave encore, un monarque « bouleverse les lois », comme l’a fait Cambyse II.

Otanès préconise le gouvernement du plus grand nombre, qu’il appelle « isonomie », c’est-à-dire « égalité devant la loi ». Dans ce système, explique-t-il, les responsables politiques sont élus, doivent rendre des comptes pour leur comportement et prendre leurs décisions en toute transparence.

Oligarchie et monarchie, une chute inévitable ?

Le noble compagnon d’Otanès, Mégabyze, est d’accord pour que les Perses abolissent la monarchie, mais il exprime des inquiétudes concernant le gouvernement par le peuple. « La masse est inutile – rien n’est plus insensé et violent qu’une foule », affirme Mégabaze. Selon lui, les « gens du commun » ne comprennent pas les subtilités de l’art de gouverner.

À la place, Mégabyze propose l’oligarchie, ou le « gouvernement par quelques-uns ». Choisir les meilleurs hommes de Perse et les laisser gouverner les autres, insiste-t-il, car ils « trouveront naturellement les meilleures idées ».

Mais Mégabyze n’explique pas qui pourrait être considéré comme faisant partie des « meilleurs hommes », ou qui serait chargé de les sélectionner.

Le troisième orateur, Darius, considère la démocratie et l’oligarchie comme également imparfaites. Il souligne que même des oligarques bien intentionnés se disputent entre eux parce que « chacun veut que son opinion l’emporte ». Cela conduit à la haine et à pire encore.

Darius affirme au contraire qu’« en faisant preuve de bon jugement, un monarque sera un gardien irréprochable du peuple ». Il soutient que, puisque la Perse a été libérée par un seul homme, le roi Cyrus II, les Perses doivent maintenir leur monarchie traditionnelle.

Darius n’explique pas comment garantir le bon jugement d’un monarque. Mais son argument l’emporte. Il devait en être ainsi, puisque, dans les faits, Darius devint le roi de Perse. Les rois, ou « shahs » régnèrent sur la Perse – qui prit le nom d’Iran en 1935 – jusqu’à ce que la révolution iranienne de 1979 abolisse la monarchie et établisse la République islamique d’Iran.

Les leçons à retenir d’Hérodote

Hérodote lui-même était largement favorable à la démocratie, mais son débat constitutionnel ne prône pas un seul type de gouvernement. Il valorise plutôt des principes de bon gouvernement. Parmi eux : la responsabilité, la modération et le respect du « nomos », un terme grec qui englobe à la fois la coutume et la loi.

Hérodote souligne : « Autrefois, de grandes cités sont devenues petites, tandis que de petites cités sont devenues grandes. » La fortune humaine change constamment, et l’échec de la Perse à conquérir la Grèce n’en est qu’un exemple.

L’histoire a vu l’ascension et la chute de nombreuses puissances mondiales. Les États-Unis chuteront-ils à leur tour ? Le président actuel, Donald Trump, n’est pas techniquement un monarque, mais certains estiment qu’il agit comme tel. Son administration et lui ont ignoré des décisions de justice, empiété sur les pouvoirs du Congrès et cherché à réduire ses critiques au silence en s’attaquant à la liberté d’expression, pourtant protégée par la Constitution américaine. Hérodote considérait que la monarchie perse, dont les rois estimaient leur propre autorité suprême, constituait la faiblesse qui mena à leur foudroyante défaite en 479 avant notre ère.

The Conversation

Debbie Felton est affiliée au parti démocrate (enregistrée sur les listes électorales).

ref. Quand Hérodote dénonçait les régimes autoritaires, cinq siècles avant notre ère – https://theconversation.com/quand-herodote-denoncait-les-regimes-autoritaires-cinq-siecles-avant-notre-ere-263774