À qui appartiennent les poissons ? L’épineuse question de la répartition des quotas de pêche européens

Source: The Conversation – in French – By Sigrid Lehuta, Chercheure en halieutique, Ifremer

Les poissons de la Manche n’ont pas pu voter au moment du Brexit, ceux de l’Atlantique n’ont pas de visa de l’espace Schengen et pourtant, leur sort a été fixé au sein de l’Union européenne dans les années 1970. Actualiser ces statu quo anciens dans une Europe à 27 où les océans se réchauffent et où bon nombre de poissons tendent à migrer vers le nord à cause de la hausse des températures devient plus que nécessaire. Voici pourquoi.


Les populations marines ne connaissent pas de frontières. Tous les océans et toutes les mers du monde sont connectées, permettant la libre circulation des animaux marins. Les seules limitations sont intrinsèques à chaque espèce, dépendantes de sa capacité de déplacement, de ses besoins et tolérances vis-à-vis des températures, des profondeurs et d’autres facteurs.

Les poissons ne connaissent ainsi pas de barrières linéaires ou immuables, mais les États ont, eux, quadrillé les mers en fonction de leurs zones économiques exclusives (ZEE). Des institutions onusiennes, comme l’Organisation des Nations unies pour l’alimentation et l’agriculture (Food and Agriculture Organization, FAO), la Commission générale des pêches pour la Méditerranée (CGPM) ou le Conseil international de l’exploitation de la mer, définissent des zones d’évaluation des stocks ou de gestion des pêches dans lesquelles sont régulées les captures ou les activités de pêche.

Dans l’UE : une règle peu révisée depuis plus de quarante ans

Mais à qui sont donc les poissons qui franchissent allégrement les limites des ZEE et des zones de gestion de pêche ? Pour répondre à cette question et éviter la surpêche, des mécanismes de gestion commune et de partage des captures ont été mis en place au sein de l’Union européenne (UE) et avec les pays voisins.

Le tonnage de poisson que l’on peut pêcher est d’abord défini pour chaque espèce et chaque zone de gestion (un stock) afin d’éviter la surpêche. Puis ce tonnage est divisé entre pays, comme les tantièmes dans une copropriété ou les parts dans un héritage. C’est cette répartition entre pays, appelée la « clé de répartition », qui est ici discutée.

Pour la plupart des stocks, la clé de répartition est encore définie sur la base des captures réalisées dans les années 1973-1978 par chacun des neuf États alors membres de l’UE. Cette référence historique a mené à la dénomination de « stabilité relative » qui désigne la méthode de partage des captures annuelles admissibles : la clé est stable, mais la quantité obtenue chaque année varie en fonction de l’état du stock.

Chaque État membre est ensuite libre de distribuer son quota à ses pêcheurs selon des modalités qu’il choisit. En France, chaque navire possède des antériorités de captures propres mais qui ne lui donnent pas automatiquement accès au quota correspondant. Elles déterminent en revanche les sous-quotas attribués à l’organisation de producteurs (OP) à laquelle le navire choisit d’adhérer. L’OP définit en interne les modalités de répartition de ses sous-quotas entre ses adhérents, qui sont différentes entre OP, stocks, flottilles, années…

Échange de quotas pour le merlan bleu entre pays membres de l’UE en 2024.
Fourni par l’auteur

Un partage satisfaisant pour la France mais qui atteint ses limites

La France fait partie des gagnants de ce partage ancien. Le cadre juridique bien établi et la prévisibilité du système facilitent la programmation et évitent d’interminables négociations. Un système assez fluide, avec des échanges parfois systématiques entre États ou entre OP, permet d’éviter d’atteindre les quotas trop tôt dans l’année. Les OP jouent un rôle essentiel pour optimiser l’utilisation et la valorisation des quotas sur l’année, limiter la concurrence entre pêcheurs, ou éviter des crises économiques.

Mais à l’heure du changement climatique, et dans une Europe post-Brexit, ce modèle ancien se frotte à des questionnements nouveaux, qu’ils soient sociétaux ou environnementaux.

Le cas du maquereau est emblématique de cela. Depuis 2010, ce poisson migre de plus en plus vers le nord et atteint les eaux de l’Islande, pays qui n’avait pratiquement pas de quotas pour cette espèce. Faute d’accord avec les pays voisins, la capture annuelle du maquereau dépasse la recommandation scientifique depuis de nombreuses années, menant à la surpêche.

Le Brexit a, quant à lui, provoqué une réduction de la part de l’UE pour les stocks partagés avec le Royaume-Uni, car pêchées dans leur ZEE, avec de lourdes conséquences économiques et sociales : mise à la casse de 90 bateaux français et baisse d’approvisionnement et donc d’activité dans les criées et pour toute la chaîne de transport et de transformation du poisson.

Autre question épineuse : que faire pour les espèces qui sont capturées simultanément par l’engin de pêche alors que leurs niveaux de quota sont très différents ?

C’est le cas par exemple du cabillaud en mer Celtique. Cette espèce est généralement capturée en même temps que le merlu et la baudroie, mais elle fait l’objet d’un quota très faible en raison de l’effondrement du stock. Les pêcheurs qui disposent de quotas pour le merlu ou la baudroie sont donc contraints de cesser leur activité pour éviter de capturer sans le vouloir du cabillaud.

Chaque année, de difficiles négociations sont nécessaires entre l’UE et des pays non membres avec qui des stocks sont partagés, comme la Norvège et le Royaume-Uni, soit des pays qui échappent aux objectifs et critères de répartition définis par la politique commune des pêches.

En France, ce statu quo freine aussi l’installation des jeunes et la transition vers des méthodes de pêche plus vertueuses. En effet, pour s’installer, il ne s’agit pas simplement de pouvoir payer un navire. Le prix de vente d’un navire d’occasion tient en réalité compte des antériorités de pêche qui y restent attachées, ce qui augmente la facture.

Et si l’on veut transitionner vers d’autres techniques ou zones de pêche à des fins de préservation de la biodiversité, d’amélioration du confort ou de la sécurité en mer, ou encore de conciliation des usages avec, par exemple, l’éolien en mer, ce sera nécessairement conditionné à la redistribution des quotas correspondants aux nouvelles espèces pêchées et forcément au détriment d’autres navires qui les exploitent historiquement.

Quelles alternatives au système en place ?

Les atouts et limites du système en place sont bien connus des acteurs de la pêche, mais la réouverture des négociations autour d’une autre clé de répartition promet des débats difficiles entre l’UE et les pays voisins.

L’UE, depuis 2022, incite les États à élargir les critères de répartition du quota national à des considérations environnementales, sociales et économiques. En France, cela s’est traduit en 2024 par de nouveaux critères d’allocation de la réserve nationale de quota. La réserve nationale correspond à une part de quota qui est reprise par l’État à chaque vente et sortie de flotte des navires. Sa répartition favorise désormais les jeunes et la décarbonation des navires.

Cette avancée, même timide, prouve que le choix et l’application de nouveaux critères sont possibles, mais elle reste difficile dans un contexte de faible rentabilité des flottes et de demandes en investissements conséquents pour l’adaptation des bateaux aux transitions écologiques et énergétiques.

En juin 2024, avec un groupe d’une trentaine de scientifiques des pêches, réunis sous l’égide de l’Association française d’halieutique, nous avons mené une réflexion sur les alternatives possibles à la clé actuelle. Parmi les propositions, quatre points ont été saillants pour une pêche durable, équitable et rentable :

  • la nécessaire prise en compte d’une multitude de critères écologiques et halieutiques pour l’attribution de part de quota. Par exemple, l’utilisation d’engins sélectifs, et moins impactants pour la biodiversité ou la proximité des zones de pêche, traduisant un souci de limitation d’empreinte carbone, et d’adaptabilité aux changements de distribution ;

  • la nécessaire prise en compte de critères socio-économiques, comme l’équité entre navires, entre générations, entre sexes… ;

  • la création de récompenses en quota pour la participation à la collecte de données nécessaires pour informer une gestion écosystémique et permettre la mise en place d’un système de répartition fondé sur des critères biologiques (mise en place de caméras à bord, campagnes exploratoires, auto-échantillonnage) ;

  • la nécessaire transparence concernant la répartition nationale et ses critères.

Conscients de la charge réglementaire qui pèse sur les patrons pêcheurs et des difficultés financières, parfois insurmontables, associées aux adaptations (changement d’engins, de pratiques…), certaines propositions reposent davantage sur des incitations que sur des obligations, c’est-à-dire des quotas supplémentaires venant récompenser des adaptations volontaires.

Pour permettre une transition douce vers les nouvelles règles, nous conseillons le maintien temporaire ou partiel des antériorités afin de donner le temps et la visibilité nécessaires aux pêcheurs pour effectuer les adaptations adéquates.

Nous nous accordons sur une mise à jour à intervalle régulier de la clé de répartition entre pays et navires selon un calendrier prédéfini et en application des critères retenus pour améliorer l’adaptabilité des pêcheries aux changements. Les critères pourraient être aussi révisés, tout en évitant une réouverture des négociations trop régulièrement. Nous insistons sur le nécessaire maintien de la flexibilité indispensable aux adaptations dans un contexte environnemental très fluctuant lié au changement global.


Cet article a été écrit sur la base d’un travail collaboratif mené par Arthur Le Bigot, encadré par les autrices (Ifremer), pour lequel une trentaine de scientifiques a été consultée au cours d’un atelier organisé par l’Association française d’halieutique et des acteurs du système pêche interviewés. Le contenu de cet article reflète l’interprétation des autrices sur la base de leurs connaissances et des propos recueillis au cours des entretiens et de l’atelier. Il n’engage pas les participants à l’atelier, les personnes interviewées ni les membres de l’AFH.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. À qui appartiennent les poissons ? L’épineuse question de la répartition des quotas de pêche européens – https://theconversation.com/a-qui-appartiennent-les-poissons-lepineuse-question-de-la-repartition-des-quotas-de-peche-europeens-270814

La « littérature rectificative » : quand les personnages littéraires sortent de leur silenciation

Source: The Conversation – in French – By Hécate Vergopoulos, Maîtresse de conférences en sciences de l’information et de la communication, Sorbonne Université

Fin octobre 2025 sortait sur nos écrans une nouvelle adaptation d’une œuvre littéraire : « l’Étranger », d’Albert Camus, revisité par François Ozon. Cet événement cinématographique nous rappelait, une fois encore, que les personnages de fiction peuvent avoir une vie qui échappe à leur créateur ou créatrice, au point parfois d’avoir envie de les croire « autonomes ».


L’autonomie des personnages de fiction, c’est ce que le professeur de littérature française Pierre Bayard défend dans son ouvrage la Vérité sur « Ils étaient dix » (2020). Il s’autoproclame d’ailleurs « radical » parmi les « intégrationnistes », soit parmi celles et ceux qui, commentant et pensant la fiction, affirment que nous pouvons parler des personnages littéraires comme s’il s’agissait d’êtres vivants.

Donner une voix aux personnages silenciés

Avant le film d’Ozon (L’Étranger, 2025), l’écrivain Kamel Daoud, en publiant Meursault, contre-enquête (2013), entendait donner la parole au frère de celui qui, dans le récit de Camus, ne porte même pas de nom : il est désigné comme « l’Arabe ». Son projet était de rendre compte de cette vie silenciée
– et partant, du caractère colonial de ce monument de la culture francophone – en lui donnant une consistance littéraire. Il s’agissait en somme de « rectifier » non pas une œuvre, l’Étranger (1942), mais la réalité de ce personnage de fiction qui, nous parvenant à travers les mots seuls de Meursault, ne disait rien en propre et dont la trajectoire de vie ne tenait en rien d’autre qu’à l’accomplissement de son propre meurtre.

Plus récemment, l’écrivain américain Percival Everett, lauréat du Pulitzer 2025 pour James (2024), a quant à lui donné la parole au personnage secondaire homonyme de l’esclave apparaissant dans le roman les Aventures de Huckleberry Finn (1848), de Mark Twain. Son projet, selon les propres mots d’Everett était de créer pour James une « capacité d’agir ».

De telles entreprises sont plus fréquentes qu’il n’y paraît. Dans le Journal de L. (1947-1952), Christophe Tison proposait en 2019 de donner la plume à la Lolita de Nabokov dont le grand public ne connaissait jusqu’alors que ce qu’Humbert-Humbert – le pédophile du roman – avait bien voulu en dire. Celle qui nous parvenait comme l’archétype de la « nymphette » aguicheuse et dont la figuration était devenue iconique – alors même que Nabokov avait expressément demandé à ce que les couvertures de ses livres ne montrent ni photos ni représentations de jeune fille –, manifeste, à travers Tison, le désir de reprendre la main sur son propre récit.




À lire aussi :
« Lolita » de Nabokov en 2024 : un contresens généralisé enfin levé ?


Il en est allé de même pour Antoinette Cosway, alias Bertha Mason, qui apparaît pour la première fois sous les traits de « la folle dans le grenier » dans le Jane Eyre (1847), de Charlotte Brontë. Quand l’écrivaine britannique née aux Antilles, Jean Rhys décide de raconter l’histoire de cette femme blanche créole originaire de Jamaïque dans la Prisonnière des Sargasses (1966), elle entend montrer que cette folie tient au système patriarcal et colonial qui l’a brisée en la privant de son identité.

Margaret Atwood, quant à elle, avec son Odyssée de Pénélope (2005) s’attache à raconter le périple finalement très masculin de « l’homme aux mille ruses » notamment à travers le regard de Pénélope. Celle qui jusqu’alors n’était que « l’épouse d’Ulysse » se révèle plus complexe et plus ambivalente que ce que l’assignation homérique à la fidélité avait laissé entendre.

Ces œuvres singulières fonctionnent toutes selon les mêmes présupposés : 1. La littérature est faite d’existences ; 2. Or, celles de certains personnages issus d’œuvres « premières » y sont mal représentées ; 3. une nouvelle œuvre va pouvoir leur permettre de dire « leur vérité ».

Ces textes, je propose de les rassembler, sans aucune considération de genres, sous l’intitulé « littérature rectificative ». Leur ambition n’est pas celle de la « réponse », de la « riposte » ou même du « démenti ». Ils n’établissent pas à proprement parler de « dialogue » entre les auteurs et autrices concernées. Ils ont seulement pour ambition de donner à voir un point de vue autre – le point de vue d’un ou d’une autre – sur des choses (trop peu ? trop mal ?) déjà dites par la littérature.

Ce n’est probablement pas un hasard si les textes de cette littérature rectificative donnent ainsi la parole à des sujets littéraires victimes d’injustices et de violences, qu’elles soient raciales, sexistes et sexuelles ou autres, car, au fond, ils cherchent tous à savoir qui détient la parole littéraire sur qui.

Le cas du « Consentement », de Vanessa Springora

Parmi eux, un texte qui aura considérablement marqué notre époque : le Consentement de Vanessa Springora (2020). Dans ce livre, elle raconte, sous forme autobiographique, sa relation avec l’écrivain Gabriel Matzneff, qu’elle rencontre en 1986 à Paris, alors qu’elle a 14 ans et lui environ 50. Elle s’attache à décrire les mécanismes d’emprise mis en place par l’auteur ainsi que l’acceptation tacite de cette relation au sein d’un milieu où sa réputation d’écrivain primé lui offrait une protection sociale.

Si l’on accepte qu’il est autre chose qu’un témoignage à seule valeur référentielle et qu’il dispose de qualités littéraires (ou si l’on entend le « témoignage » dans un sens littéraire), alors il semble clair que le « je » de Vanessa Springora est un personnage. Il ne s’agit en aucun cas ici de disqualifier ce « je » en prétendant qu’il est affabulation, mais bien de le penser comme une construction littéraire, au même titre d’ailleurs qu’on peut parler de personnages dans les documentaires.




À lire aussi :
« L’Étranger » : pourquoi le roman de Camus déchaîne toujours les passions


La spécificité de Vanessa Springora est que son texte ne vient pas « rectifier » la réalité instituée par un autre texte, mais par une somme d’écrits de Gabriel Matzneff. Elle détaille (p. 171-172) :

« Entre mes seize et vingt-cinq ans paraissent successivement en librairie, à un rythme qui ne me laisse aucun répit, un roman de G. dont je suis censée être l’héroïne ; puis le tome de son journal qui couvre la période de notre rencontre, comportant certaines de mes lettres écrites à l’âge de quatorze ans ; avec deux ans d’écart, la version poche de ce même livre ; un recueil de lettres de rupture, dont la mienne […] Plus tard suivra encore un autre tome de ses carnets noirs revenant de façon obsessionnelle sur notre séparation. »

À travers tous ces textes, écrit-elle, elle découvre que « les livres peuvent être un piège » :

« La réaction de panique des peuples primitifs devant toute capture de leur image peut prêter à sourire. Ce sentiment d’être piégé dans une représentation trompeuse, une version réductrice de soi, un cliché grotesque et grimaçant, je le comprends pourtant mieux que personne. S’emparer avec une telle brutalité de l’image de l’autre, c’est bien lui voler son âme. » (p. 171).

Ce qu’elle décrit ici, cet enfermement dans un personnage qui n’est pas elle, n’est pas sans rappeler le gaslighting, soit ce procédé manipulatoire à l’issue duquel les victimes, souvent des femmes, finissent par se croire folles. Il doit son nom au film de George Cukor, Gaslight (1944), Hantise dans la version française, qui raconte l’histoire d’un couple au sein duquel l’époux tente de faire croire à sa femme qu’elle perd la raison en modifiant des éléments a priori anodins de son quotidien et en lui répondant, quand elle remarque ces changements, qu’il en a toujours été ainsi (parmi eux, l’intensité de l’éclairage au gaz de leur maison, le « gas light »).

Springora montre en effet que la « réalité littéraire » construite par M. l’a précisément conduite à douter de sa propre réalité (p. 178) :

« Je marchais le long d’une rue déserte avec une question dérangeante qui tournait en boucle dans ma tête, une question qui s’était immiscée plusieurs jours auparavant dans mon esprit, sans que je puisse la chasser : quelle preuve tangible avais-je de mon existence, étais-je bien réelle ? […] Mon corps était fait de papier, dans mes veines ne coulait que de l’encre. »

Le Consentement est certes le récit d’une dépossession de soi – d’une emprise. Il est cependant aussi une forme d’acte performatif puisque Springora y (re)devient le plein sujet de sa propre énonciation après en avoir été privée. Ne serait-ce pas là la portée pleinement politique de cette littérature rectificative, à savoir donner aux sujets littéraires les moyens de conquête leur permettant de redevenir des pleins sujets d’énonciation, soit cette « capacité d’agir » dont parlait justement Percival Everett ?

Si la littérature est un formidable exercice de liberté (liberté de créer, d’imaginer, de choisir un langage, un style, une narration), elle peut être aussi un incroyable exercice de pouvoir. Les auteurs australiens Bill Aschroft, Gareth Griffiths et Helen Tiffin l’avaient déjà montré dans l’Empire vous répond. Théorie et pratique des littératures post-coloniales (The Empire Writes Back, 1989, traduction française 2012). À partir du cas de l’empire colonial britannique, l’ouvrage mettait ainsi au jour les façons dont la littérature du centre s’est imposée (par ses formats, ses styles, ses langages, mais encore par ses visions de l’ordre du monde) aux auteurs de l’empire et la façon dont ceux-ci ont appris à s’en défaire.

À l’ère des « re » (de la « réparation des vivants » ou de la justice dite « restaurative »), la littérature rectificative a sans aucun doute un rôle politique à jouer. D’abord, elle peut nous aider à poursuivre notre chemin dans le travail de reconnaissance de nos aveuglements littéraires et collectifs. Ensuite, elle peut faire la preuve que nos sociétés sont assez solides pour ne pas avoir à faire disparaître de l’espace commun des œuvres que nous jugeons dérangeantes. La littérature rectificative ne soustrait pas les textes comme pourrait le faire la cancel culture. Au contraire, elle en ajoute, nous permettant ainsi de mesurer la distance qui nous a un jour séparés de cet ordre du monde dans lequel nous n’avons pas questionné ces existences littéraires subalternes et silenciées.

The Conversation

Hécate Vergopoulos ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La « littérature rectificative » : quand les personnages littéraires sortent de leur silenciation – https://theconversation.com/la-litterature-rectificative-quand-les-personnages-litteraires-sortent-de-leur-silenciation-270996

Aliments ultratransformés : quels effets sur notre santé et comment réduire notre exposition ?

Source: The Conversation – in French – By Mathilde Touvier, Directrice de l’Equipe de Recherche en Epidémiologie Nutritionnelle, U1153 Inserm,Inrae, Cnam, Université Sorbonne Paris Nord, Université Paris Cité, Université Paris Cité

Souvent trop sucrés, trop salés et trop caloriques, les aliments ultratransformés contiennent en outre de nombreux additifs, arômes et autres substances résultant de leurs modes de fabrication industriels. Or, les preuves des liens entre leur consommation et divers troubles de santé s’accumulent. Le point sur l’état des connaissances.


The Kraft Heinz Company, Mondelez International, Post Holdings, The Coca-Cola Company, PepsiCo, General Mills, Nestlé USA, Kellogg’s, Mars Incorporated et Conagra Brands… au-delà de leur secteur d’activité – l’agroalimentaire – et de leur importance économique, ces dix entreprises partagent désormais un autre point commun : elles sont toutes visées par une procédure judiciaire engagée par la Ville de San Francisco, aux États-Unis. Selon le communiqué de presse publié par les services du procureur de la ville David Chiu, cette plainte est déposée, car

ces sociétés « savai[en]t que [leurs] produits rendaient les gens malades, mais [ont] continué à concevoir et à commercialiser des produits de plus en plus addictifs et nocifs afin de maximiser [leurs] profits ».

Cette procédure survient quelques jours après la publication, dans la revue médicale The Lancet, d’un long dossier consacré aux effets des aliments ultratransformés sur la santé. Parmi les travaux présentés figure l’analyse approfondie de la littérature scientifique disponible sur ce sujet que nous avons réalisée.

Voici ce qu’il faut savoir des conséquences de la consommation de tels aliments, en tenant compte des connaissances les plus récentes sur le sujet.

Qu’appelle-t-on « aliments ultratransformés » ?

À l’heure actuelle, en France, on estime qu’en moyenne de 30 à 35 % des calories consommées quotidiennement par les adultes proviennent d’aliments ultratransformés. Cette proportion peut atteindre 60 % au Royaume-Uni et aux États-Unis. Si dans les pays occidentaux, les ventes de ces produits se sont stabilisées (quoiqu’à des niveaux élevés), elles sont en pleine explosion dans les pays à revenu faible et intermédiaire.

Comme leur nom l’indique, les aliments ultratransformés sont des aliments, ou des formulations issues d’aliments, qui ont subi des transformations importantes lors de leur élaboration. Ils sont fabriqués de façon industrielle, selon une grande diversité de procédés (chauffage à haute température, hydrogénation, prétraitement par friture, hydrolyse, extrusion, etc.) qui modifient radicalement la matrice alimentaire de départ.

Par ailleurs, les aliments ultratransformés sont caractérisés dans leur formulation par la présence de « marqueurs d’ultra-transformation », parmi lesquels les additifs alimentaires destinés à en améliorer l’apparence, le goût ou la texture afin de les rendre plus appétissants et plus attrayants : colorants, émulsifiants, édulcorants, exhausteurs de goût, etc. À l’heure actuelle, 330 additifs alimentaires sont autorisés en France et dans l’Union européenne.

En outre, des ingrédients qui ne sont pas concernés par la réglementation sur les additifs alimentaires entrent aussi dans la composition des aliments ultratransformés. Il s’agit par exemple des arômes, des sirops de glucose ou de fructose, des isolats de protéines, etc.

En raison des processus de transformation qu’ils subissent, ces aliments peuvent également contenir des composés dits « néoformés », qui n’étaient pas présents au départ, et dont certains peuvent avoir des effets sur la santé.

Dernier point, les aliments ultratransformés sont généralement vendus dans des emballages sophistiqués, dans lesquels ils demeurent souvent conservés des jours voire des semaines ou mois. Ils sont aussi parfois réchauffés au four à micro-ondes directement dans leurs barquettes en plastique. De ce fait, ils sont plus susceptibles de contenir des substances provenant desdits emballages.

Les procédés possibles et les additifs autorisés pour modifier les aliments sont nombreux. Face à la profusion d’aliments présents dans les rayons de nos magasins, comment savoir si un aliment appartient à la catégorie des « ultratransformés » ?

Une classification pour indiquer le niveau de transformation

Un bon point de départ pour savoir, en pratique, si un produit entre dans la catégorie des aliments ultratransformés est de se demander s’il contient uniquement des ingrédients que l’on peut trouver traditionnellement dans sa cuisine. Si ce n’est pas le cas (s’il contient par exemple des émulsifiants, ou des huiles hydrogénées, etc.), il y a de fortes chances qu’il s’agisse d’un aliment ultratransformé.

La classification NOVA

Dans les années 2010, le chercheur brésilien Carlos Monteiro et son équipe ont proposé une classification des aliments fondée sur leur degré de transformation. Celle-ci comporte quatre groupes :

  • les aliments pas ou peu transformés ;
  • les ingrédients culinaires (sel, sucre, matières grasses animales et végétales, épices, poivre…) ;
  • les aliments transformés combinant les deux premiers groupes ;
  • les aliments ultratransformés.

Dans le groupe des aliments ultratransformés figurent par exemple les sodas, qu’ils soient sucrés ou édulcorés, les légumes assaisonnés de sauces contenant des additifs alimentaires, les steaks végétaux reconstitués ou les pâtisseries, les confiseries et barres chocolatées avec ajout d’additifs, les nouilles déshydratées instantanées, les yaourts édulcorés…

Saucisses et jambons, qui contiennent des nitrites, sont classés comme « aliments ultratransformés », tandis qu’une viande simplement conservée en salaison est considérée comme des « transformée ». De la même façon, les soupes liquides en brique préparées uniquement avec des légumes, des herbes et des épices sont considérées comme des « aliments transformés », alors que les soupes déshydratées, avec ajout d’émulsifiants ou d’arômes sont classées comme « aliments ultratransformés ».

Des aliments qui contiennent plus de sucre, plus de sel, plus de gras

Les aliments ultratransformés sont en moyenne plus pauvres en fibres et en vitamines que les autres aliments, tout en étant plus denses en énergie et plus riches en sel, en sucre et en acides gras saturés. En outre, ils pousseraient à manger davantage.

De nombreuses études ont également montré que les régimes riches en aliments ultratransformés étaient par ailleurs associés à une plus faible consommation d’aliments nutritionnellement sains et favorables à la santé.

Or, on sait depuis longtemps maintenant que les aliments trop sucrés, trop salés, trop riches en graisses saturées ont des impacts délétères sur la santé s’ils sont consommés en trop grande quantité et fréquence. C’est sur cette dimension fondamentale que renseigne le Nutri-Score.

Il faut toutefois souligner que le fait d’appartenir à la catégorie « aliments ultratransformés » n’est pas systématiquement synonyme de produits riches en sucres, en acides gras saturés et en sel. En effet, la qualité nutritionnelle et l’ultra-transformation/formulation sont deux dimensions complémentaires, et pas colinéaires.

Cependant, depuis quelques années, un nombre croissant de travaux de recherche ont révélé que les aliments ultratransformés ont des effets délétères sur la santé qui ne sont pas uniquement liés à leur qualité nutritionnelle.

Des effets sur la santé avérés, d’autres soupçonnés

Afin de faire le point sur l’état des connaissances, nous avons procédé à une revue systématique de la littérature scientifique sur le sujet. Celle-ci nous a permis d’identifier 104 études épidémiologiques prospectives.

Ce type d’étude consiste à constituer une cohorte de volontaires dont les consommations alimentaires et le mode de vie sont minutieusement renseignés, puis dont l’état de santé est suivi sur le long terme. Certains des membres de la cohorte développent des maladies, et pas d’autres. Les données collectées permettent d’établir les liens entre leurs expositions alimentaires et le risque de développer telle ou telle pathologie, après prise en compte de facteurs qui peuvent « brouiller » ces associations (ce que les épidémiologistes appellent « facteurs de confusion » : tabagisme, activité physique, consommation d’alcool, etc.).

Au total, 92 des 104 études publiées ont observé une association significative entre exposition aux aliments ultratransformés et problèmes de santé.

Les 104 études prospectives ont dans un second temps été incluses dans une méta-analyse (autrement dit, une analyse statistique de ces données déjà publiées), afin d’effectuer un résumé chiffré de ces associations.

Les résultats obtenus indiquent que la mortalité prématurée toutes causes confondues était l’événement de santé associé à la consommation d’aliments transformés pour lequel la densité de preuve était la plus forte (une vingtaine d’études incluses dans la méta-analyse).

Pour le formuler simplement : les gens qui consommaient le plus d’aliments ultratransformés vivaient en général moins longtemps que les autres, toutes choses étant égales par ailleurs en matière d’autres facteurs de risques.

Les preuves sont également solides en ce qui concerne l’augmentation de l’incidence de plusieurs pathologies : maladies cardiovasculaires, obésité, diabète de type 2 et dépression ou symptômes dépressifs.

La méta-analyse suggérait également une association positive entre la consommation d’aliments ultratransformés et le risque de développer une maladie inflammatoire chronique de l’intestin (quatre études incluses).

En ce qui concerne les cancers, notamment le cancer colorectal, les signaux indiquant une corrélation potentielle sont plus faibles. Il faudra donc mener d’autres études pour confirmer ou infirmer le lien.

Des résultats cohérents avec les travaux expérimentaux

Au-delà de ces études de cohorte, ces dernières années, diverses études dites « interventionnelles » ont été menées. Elles consistent à exposer des volontaires à des aliments ultratransformés et un groupe témoin à des aliments pas ou peu transformés, afin de suivre l’évolution de différents marqueurs biologiques (sur une période courte de deux ou trois semaines, afin de ne pas mettre leur santé en danger).

C’est par exemple le cas des travaux menés par Jessica Preston et Romain Barrès, qui ont montré avec leurs collaborateurs que la consommation d’aliments ultratransformés entraînait non seulement une prise de poids plus importante que les aliments non ultratransformés, à calories égales, mais qu’elle perturbait aussi certaines hormones, et était liée à une baisse de la qualité du sperme.

Ces résultats suggèrent que ce type de nourriture serait délétère à la fois pour la santé cardiométabolique et pour la santé reproductive. Les résultats de plusieurs essais randomisés contrôlés menés ces dernières années vont dans le même sens. Cinq ont été répertoriés et décrits dans notre article de revue, et d’autres sont en cours.

Les aliments ultratransformés impactent donc la santé, et ce, très en amont du développement de maladies chroniques comme le diabète.

D’autres travaux expérimentaux, comme ceux de l’équipe de Benoît Chassaing, révèlent que la consommation de certains émulsifiants qui sont aussi des marqueurs d’ultra-transformation perturbe le microbiote. Elle s’accompagne d’une inflammation chronique, et a été associée au développement de cancers colorectaux dans des modèles animaux.




À lire aussi :
Comment le plastique est devenu incontournable dans l’industrie agroalimentaire


Rappelons que la majorité des additifs contenus dans les aliments ultratransformés n’ont pas d’intérêt en matière de sécurité sanitaire des aliments. On parle parfois d’additifs « cosmétiques », ce terme n’ayant pas de valeur réglementaire.

Ils servent uniquement à rendre les produits plus appétissants, améliorant leur apparence ou leurs qualités organoleptiques (goût, texture) pour faire en sorte que les consommateurs aient davantage envie de les consommer. Ils permettent aussi de produire à plus bas coût, et d’augmenter les durées de conservation.

Au-delà du principe de précaution

En 2019, à la suite de l’avis du Haut Conseil de la santé publique, le quatrième programme national nutrition santé (PNNS) introduisait pour la première fois la recommandation officielle de favoriser les aliments pas ou peu transformés et limiter les aliments ultratransformés, tels que définis par la classification NOVA.

À l’époque, cette recommandation se fondait sur un nombre relativement restreint de publications, notamment les premières au monde ayant révélé des liens entre aliments ultratransformés et incidence de cancers, maladies cardiovasculaires et diabète de type 2, dans la cohorte française NutriNet-Santé. Il s’agissait donc avant tout d’appliquer le principe de précaution.

Aujourd’hui, les choses sont différentes. Les connaissances accumulées grâce aux nombreuses recherches menées ces cinq dernières années dans le monde ont apporté suffisamment de preuves pour confirmer que la consommation d’aliments ultratransformés pose un réel problème de santé publique.

Dans le cadre de la cohorte NutriNet-Santé, nous avons, par exemple, désormais publié une douzaine d’articles montrant des liens entre la consommation d’émulsifiants, de nitrites, d’édulcorants ainsi que celle de certains mélanges d’additifs et une incidence plus élevée de certains cancers, maladies cardiovasculaires, d’hypertension et de diabète de type 2.

De potentiels « effets cocktails » ont également été suggérés grâce à un design expérimental mis en place par des collègues toxicologues. Des indices collectés lors de travaux toujours en cours suggèrent également que certains colorants et conservateurs pourraient eux aussi s’avérer problématiques. Rappelons en outre qu’en 2023, le Centre international de recherche sur le cancer (CIRC) a classé l’aspartame comme « possiblement cancérigène » pour l’être humain (groupe 2B).

Le problème est que nous sommes exposés à de très nombreuses substances. Or, les données scientifiques concernant leurs effets, notamment sur le long terme ou lorsqu’elles sont en mélange, manquent. Par ailleurs, tout le monde ne réagit pas de la même façon, des facteurs individuels entrant en ligne de compte.

Il est donc urgent que les pouvoirs publics, sur la base des connaissances scientifiques les plus récentes, s’emparent de la question des aliments ultratransformés. Mais par où commencer ?

Quelles mesures prendre ?

Comme souvent en nutrition de santé publique, il est nécessaire d’agir à deux niveaux. Au niveau du consommateur, le cinquième programme national nutrition santé, en cours d’élaboration, devrait pousser encore davantage la recommandation de limiter la consommation d’aliments ultratransformés.

Il s’agira également de renforcer l’éducation à l’alimentation dès le plus jeune âge (et la formation des enseignants et des professionnels de santé) pour sensibiliser les publics à cette question.

En matière d’information des consommateurs, l’étiquetage des denrées alimentaires joue un rôle clé. La première urgence reste de rendre obligatoire le Nutri-Score sur l’ensemble des produits, comme cela est plébiscité par plus de 90 % de la population française, d’après Santé publique France. Les citoyennes et citoyens ont leur rôle à jouer en ce sens, en signant la pétition sur le site de l’Assemblée nationale.

À ce sujet, soulignons que des évolutions du logo Nutri-Score sont envisagées pour mieux renseigner les consommateurs, par exemple en entourant de noir le logo lorsqu’il figure sur des aliments appartenant à la catégorie NOVA « ultratransformé ». Un premier essai randomisé mené sur deux groupes de 10 000 personnes a démontré que les utilisateurs confrontés à un tel logo nutritionnel sont nettement plus à même d’identifier si un produit est ultratransformé, mais également que le Nutri-Score est très performant lorsqu’il s’agit de classer les aliments selon leur profil nutritionnel plus ou moins favorable à la santé.

Il est également fondamental de ne pas faire porter tout le poids de la prévention sur le choix des consommateurs. Des modifications structurelles de l’offre de nos systèmes alimentaires sont nécessaires.

Par exemple, la question de l’interdiction de certains additifs (ou d’une réduction des seuils autorisés), lorsque des signaux épidémiologiques et/ou expérimentaux d’effets délétères s’accumulent, doit être posée dans le cadre de la réévaluation de ces substances par les agences sanitaires. C’est en particulier le cas pour les additifs « cosmétiques » sans bénéfice santé.

Les leviers économiques

Au-delà de la réglementation liée à la composition des aliments ultratransformés, les législateurs disposent d’autres leviers pour en limiter la consommation. Il est par exemple possible de réguler leur marketing et de limiter leur publicité, que ce soit à la télévision, dans l’espace public ou lors des événements sportifs, notamment.

Ce point est d’autant plus important en ce qui concerne les campagnes qui ciblent les enfants et les adolescents, particulièrement vulnérables au marketing. Des tests d’emballage neutre – bien que menés sur de petits effectifs – l’ont notamment mis en évidence.

Autre puissant levier : le prix. À l’instar de ce qui s’est fait dans le domaine de la lutte contre le tabagisme, il pourrait être envisageable de taxer les aliments ultratransformés et ceux avec un Nutri-Score D ou E et, au contraire, de prévoir des systèmes d’incitations économiques pour faire en sorte que les aliments les plus favorables nutritionnellement, pas ou peu ultratransformés, et si possible bio, soient les plus accessibles financièrement et deviennent les choix par défaut.

Il s’agit aussi de protéger les espaces d’éducation et de soin en interdisant la vente ou la distribution d’aliments ultratransformés, et en y améliorant l’offre.

Il est également fondamental de donner les moyens à la recherche académique publique, indemne de conflits d’intérêt économiques, de conduire des études pour évaluer les effets sur la santé des aliments industriels. Ce qui passe par une amélioration de la transparence en matière de composition de ces produits.

Un manque de transparence préjudiciable aux consommateurs

À l’heure actuelle, les doses auxquelles les additifs autorisés sont employés par les industriels ne sont pas publiques. Lorsque les scientifiques souhaitent accéder à ces informations, ils n’ont généralement pas d’autre choix que de faire des dosages dans les matrices alimentaires qu’ils étudient.

C’est un travail long et coûteux : lors de nos travaux sur la cohorte NutriNet-Santé, nous avons dû réaliser des milliers de dosages. Nous avons aussi bénéficié de l’appui d’associations de consommateurs, comme UFC-Que Choisir. Or, il s’agit d’informations essentielles pour qui étudie les impacts de ces produits sur la santé.

Les pouvoirs publics devraient également travailler à améliorer la transparence en matière de composition des aliments ultratransformés, en incitant (ou en contraignant si besoin) les industriels à transmettre les informations sur les doses d’additifs et d’arômes employées, sur les auxiliaires technologiques utilisés, sur la composition des matériaux d’emballages, etc. afin de permettre l’évaluation de leurs impacts sur la santé par la recherche académique.

Cette question de la transparence concerne aussi l’emploi d’auxiliaires technologiques. Ces substances, utilisées durant les étapes de transformation industrielle, ne sont pas censées se retrouver dans les produits finis. Elles ne font donc pas l’objet d’une obligation d’étiquetage. Or, un nombre croissant de travaux de recherche révèle qu’en réalité, une fraction de ces auxiliaires technologiques peut se retrouver dans les aliments.

C’est par exemple le cas de l’hexane, un solvant neurotoxique utilisé dans l’agro-industrie pour améliorer les rendements d’extraction des graines utilisées pour produire les huiles végétales alimentaires.

Le poids des enjeux économiques

Le manque de transparence ne se limite pas aux étiquettes des aliments ultratransformés. Il est également important de vérifier que les experts qui travaillent sur ces sujets n’ont pas de liens d’intérêts avec l’industrie. L’expérience nous a appris que lorsque les enjeux économiques sont élevés, le lobbying – voire la fabrique du doute – sont intenses. Ces pratiques ont été bien documentées dans la lutte contre le tabagisme. Or, les aliments ultratransformés génèrent des sommes considérables.

Enjeux économiques

  • Entre 2009 et 2023, les ventes mondiales sur le marché des aliments ultratransformés sont passées de 1 500 milliards de dollars à 1 900 milliards de dollars (en dollars américains constants de 2023, à prix constants ; soit environ de 1 290 milliards à 1 630 milliards d’euros), principalement tirés par la croissance rapide des ventes dans les pays à faible et moyen revenu ;
  • Entre 1962 et 2021, plus de la moitié des 2 900 milliards de dollars (environ 2 494 milliards d’euros aujourd’hui) versés aux actionnaires par les entreprises opérant dans les secteurs de la production alimentaire, de la transformation, de la fabrication, de la restauration rapide et de la vente au détail, l’ont été par les fabricants de produits ultratransformés.

Cependant, si élevés que soient ces chiffres, les découvertes scientifiques récentes doivent inciter la puissance publique à prendre des mesures qui feront passer la santé des consommateurs avant les intérêts économiques.

Il s’agit là d’une impérieuse nécessité, alors que l’épidémie de maladies chroniques liées à la nutrition s’aggrave, détruit des vies et pèse de plus en plus sur les systèmes de santé.

The Conversation

Mathilde Touvier a reçu des financements publics ou associatifs à but non lucratif de l’European Research Council, l’INCa, l’ANR, la DGS…

Bernard Srour a reçu des financements de l’Agence nationale de la recherche (ANR), de INRAE et de l’Institut national du cancer (INCa) dans le cadre de ses recherches. Il a reçu des honoraria dans le cadre d’expertises ou de présentations scientifiques de la part de l’American Heart Association, l’European School of Oncology, et de la Danish Diabetes and Endocrine Academy.

ref. Aliments ultratransformés : quels effets sur notre santé et comment réduire notre exposition ? – https://theconversation.com/aliments-ultratransformes-quels-effets-sur-notre-sante-et-comment-reduire-notre-exposition-271447

Face aux défaillances des marques, les groupes de « haters » organisent leur riposte en ligne

Source: The Conversation – in French – By Virginie Uger Rodriguez, Maître de Conférences en marketing, Université d’Orléans

Que disent les détracteurs d’une marque sur les réseaux ? Une nouvelle étude s’est penchée sur la dynamique des groupes de « haters » sur Facebook. En se fédérant, ces internautes engagés pallient certains manquements des marques qui les ont déçus.


D’ordinaire, les marques ont pour habitude de faire rêver ou d’être idéalisées par les consommateurs. Cependant, depuis quelques années, on note une aversion grandissante pour certaines d’entre elles. Aversion pouvant conduire jusqu’à la haine.

Avec 50,4 millions d’utilisateurs en France, les réseaux sociaux sont un terrain favorable à la propagation de cette haine.

Les consommateurs, fans de marques désireux de partager leurs créations, leur passion voire leur amour, n’hésitent pas à se regrouper au sein de communautés en ligne (groupes publics ou privés) hébergées sur ces réseaux.

Mais il est important de noter que les consommateurs ayant vécu une expérience négative avec une marque auront tendance à en parler plus ou à poster plus de commentaires négatifs que les consommateurs ayant vécu une expérience positive. Car il existe des communautés dont le point de convergence s’avère être la haine pour une marque donnée, notamment pour celles qui ne respectent pas le contrat de confiance établi avec les consommateurs : manquements ou défaillances dans les produits ou les prestations de services, retards de livraisons, vols annulés, pièces manquantes, airbags défectueux… Les marques concernées peuvent être issues de tous les secteurs d’activité. Les membres de ces communautés sont couramment appelés des haters, c’est-à-dire des détracteurs d’une marque.

Dans le cadre de nos travaux publiés dans Journal of Marketing Trends et présentés lors de conférences en France et à l’international, nous avons effectué une netnographie (analyse de données issues des médias sociaux, inspirée des techniques de l’ethnographie) au sein de deux communautés en ligne anti-marques (groupes Facebook). À noter que ces communautés étaient indépendantes des marques, ce qui signifie que celles-ci n’avaient aucune prise directe sur elles. Au total, ce sont plus de 1000 publications qui ont été collectées et analysées.

Une haine bien présente dans les discours des consommateurs

Plusieurs marqueurs permettent d’affirmer que les consommateurs au sein de ces groupes expriment leur haine de façon plus ou moins nuancée, allant d’une haine froide (peu vindicative) à une haine chaude (très virulente), par le vocabulaire utilisé, une ponctuation excessive, les émoticônes choisis…

La nature même des échanges peut être catégorisée selon quatre dimensions :

  • une dimension normative se référant aux comportements altruistes et d’entraide des membres pour pallier les défaillances des marques ;

  • une dimension cognitive exprimée à travers la sollicitation du groupe pour répondre à un besoin (question, problème rencontré, démarche à engager…) ;

  • une dimension affective comprenant l’expression des sentiments et des émotions des membres (déception, mécontentement, colère, dégoût, rage, haine) ;

  • et une dimension mixte relative aux discours mêlant des tons normatifs et affectifs.

La mise en place d’une structure organisationnelle et sociale

Les membres des groupes anti-marques s’organisent et se sentent investis de missions au travers des rôles qu’ils s’attribuent :

S’ils ont intégré ces groupes anti-marques, c’est que les consommateurs ont eu une expérience négative avec elles dans le passé ou bien, même s’ils ne sont pas consommateurs, qu’ils rejettent les valeurs qu’elles défendent ou représentent. En fonction de la marque et du caractère du fondateur de la communauté anti-marque, celle-ci est plus ou moins démocratique et tolère plus ou moins les discours antagonistes à la haine anti-marque.

À chaque niveau de haine sa réponse

Les manifestations de la haine au sein des communautés étudiées peuvent être catégorisées ainsi :

Pour pallier les défaillances de la marque, les consommateurs ont tendance à s’entraider au sein de la communauté en ligne anti-marque. Ils se partagent des informations et des bons plans. Ils s’apportent mutuellement du soutien tout en se servant de la communauté comme d’un exutoire. Globalement, les consommateurs réparent ou « bouchent les trous » que la marque aurait dû prendre en charge dans son contrat de confiance.

Quelles réponses apporter aux « haters » ?

Les communautés anti-marques peuvent avoir un potentiel de nuisance important se traduisant, entre autres, par une perte de clients et de fait une diminution du chiffre d’affaires.

Voici quelques pistes pour contenir la haine exprimée par certains consommateurs voire tenter de l’enrayer au sein de ces communautés :

  • une stratégie offensive avec une réponse directe à la communauté et à ses membres lorsque la marque est attaquée directement sur ses réseaux, en apportant des réponses oscillant entre le mea culpa, à travers une « publicité reconnaissant la haine », l’humour et l’entrée en dialogue avec les détracteurs ;

  • ou une stratégie défensive visant à identifier les communautés en ligne anti-marques, à surveiller leur activité, à comprendre leurs critiques et à mettre en œuvre des mesures correctives et/ou instaurer un dialogue.

Que les revendications des haters à l’égard des marques soient légitimes ou non, elles permettent de révéler des défaillances de marques parfois dramatiques voire illégales pouvant faire intervenir, en réaction, les pouvoirs publics.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Face aux défaillances des marques, les groupes de « haters » organisent leur riposte en ligne – https://theconversation.com/face-aux-defaillances-des-marques-les-groupes-de-haters-organisent-leur-riposte-en-ligne-268783

Économie circulaire : un levier géopolitique pour la résilience et la durabilité de l’Union européenne ?

Source: The Conversation – in French – By Pietro Beltramello, PhD candidate at HuManiS (UR7308: Université de Strasbourg and EM Strasbourg Business School), Université de Strasbourg

Pauvre en terres rares, l’Union européenne doit s’adapter au nouveau contexte géopolitique. Le développement de l’économie circulaire peut l’aider à retrouver des marges de souveraineté. Mais un long chemin reste à parcourir.


Face aux tensions géopolitiques qui perturbent les chaînes d’approvisionnement et fragilisent la souveraineté économique du continent, l’Union européenne (UE) doit composer avec une dépendance accrue aux matières premières importées et un besoin impératif de renforcer son autonomie industrielle. Cette nécessité est d’autant plus pressante que Donald Trump ignore la souveraineté de l’UE, la laissant livrée à elle-même.

Cela constitue un signal d’alarme incitant l’UE à rechercher des solutions durables et résilientes pour son système socio-économique. Dans une telle situation géopolitique, l’économie circulaire pourrait-elle constituer un levier stratégique majeur pour l’Union européenne lui permettant de réduire sa dépendance aux importations de matières premières, de renforcer sa résilience économique et de stimuler l’innovation industrielle réinventant ainsi sa position sur l’échiquier mondial ?

Une dépendance aux matières premières

L’Union européenne importe la majorité des matières premières nécessaires à son industrie. Par exemple, 98 % des terres rares et du borate utilisées en Europe proviennent respectivement de Chine et de Turquie, tandis que 71 % des platinoïdes sont importés d’Afrique du Sud. Une telle dépendance expose le tissu industriel de l’UE aux fluctuations des marchés mondiaux et aux tensions géopolitiques, qui perturbent les chaînes d’approvisionnement.




À lire aussi :
Russie : la logistique de l’ombre contre les sanctions occidentales


La guerre en Ukraine et la fermeture aux importations de ressources en provenance de Russie, notamment du gaz, ont révélé la fragilité industrielle de l’Europe, démontrant ainsi l’urgence d’une transition vers un modèle plus résilient. Pour répondre à cette crise, l’UE a mis en place des stratégies de « friendshoring », favorisant des échanges avec des pays partenaires de confiance.

Des accords ont été conclus avec le Canada et l’Australie en 2021 et 2024 pour sécuriser l’approvisionnement en terres rares et métaux critiques nécessaires à l’industrie des batteries et des technologies propres.

De plus, le traité de libre-échange entre l’Union européenne et le Mercosur, conclu récemment après plus de vingt ans de complexes négociations, vise à ouvrir les marchés et faciliter les échanges, notamment en matière de matières premières stratégiques.

Développer ses propres capacités

Malheureusement, le « friendshoring » ne garantit pas une autonomie durable dans un monde de plus en plus protectionniste. Les récents conflits commerciaux et les restrictions à l’exportation montrent que l’Europe doit développer ses propres capacités pour éviter d’être soumise aux fluctuations des alliances internationales.

Les tensions commerciales croissantes et les restrictions sur les exportations imposées par certains alliés afin de renforcer leur suprématie économique et stratégique, révèlent les vulnérabilités de l’UE. Cela souligne la nécessité de l’Union de développer des alternatives durables en interne garantissant ainsi son indépendance et sa résilience industrielle.

Développer l’économie circulaire

Pour répondre aux défis stratégiques et renforcer son autonomie industrielle, L’UE mise sur un développement accru de l’économie circulaire. Le Critical Raw Materials Act et le plan d’action pour l’économie circulaire visent à renforcer les capacités de recyclage et à encourager l’innovation dans la récupération des matériaux stratégiques. En premier lieu, l’UE investit dans la récupération du lithium et du cobalt issus des batteries usées, réduisant ainsi la nécessité d’extraire de nouvelles ressources.

Ensuite, l’Union travaille sur la relocalisation des installations de traitement en Europe afin de limiter l’exportation des déchets industriels vers des pays tiers garantissant un meilleur contrôle sur le recyclage des ressources stratégiques. Enfin, de nouvelles réglementations européennes incitent à l’écoconception et à la durabilité des produits. Toutefois, afin d’atteindre ces objectifs, il est important de résoudre un certain nombre de défis propres à l’Union européenne.

Indispensables investissements massifs

La transition vers une économie circulaire nécessite des investissements massifs, estimés à environ 3 % du PIB européen, un niveau comparable aux efforts de reconstruction économique après la Seconde Guerre mondiale. Or, le financement de telles initiatives est incertain, bien que l’Union européenne ait alloué plus de 10 milliards d’euros entre 2014 et 2020 pour soutenir cette transition, principalement dirigés vers la gestion des déchets. Pourtant, une meilleure allocation des resources – misant par example sur la réduction à la source, l’écoconception et l’efficacité matérielle – pourrait multiplier l’impact des investissements.

Le programme NextGenerationEU, qui a marqué un tournant avec l’émission de dette commune, semble aujourd’hui plus difficile à répliquer en raison des réticences de certains États membres. Par ailleurs, la montée des partis nationalistes en Europe rend plus complexe la mise en place de stratégies d’investissement communes.

Barrières industrielles

Bien que le recyclage puisse réduire la dépendance aux importations, il demeure aujourd’hui plus coûteux que l’extraction de nouvelles ressources. Cependant, des innovations récentes, telles que l’automatisation du tri des déchets par intelligence artificielle et l’optimisation des procédés chimiques, permettent de réduire progressivement ces coûts.

En outre, des incitations financières mises en place par l’UE, comme le Fonds pour l’innovation, ainsi que l’engagement de la Banque européenne d’investissement (BEI) pour orienter les capitaux vers des modèles économiques circulaires visent à industrialiser ces technologies et à les rendre plus compétitives.

Rencontres économiques d’Aix 2025.

Une harmonisation réglementaire nécessaire

L’efficacité de l’économie circulaire repose également sur une coordination entre les États membres. Aujourd’hui, les réglementations divergent d’un pays à l’autre, ce qui ralentit la mise en place de standards communs et d’incitations globales adaptées.

Un exemple particulièrement révélateur concerne le statut de la « fin du déchet ». Dans l’UE, un même flux peut être reconnu comme ressource secondaire dans un pays, tandis qu’il demeure juridiquement un déchet dans un autre : cette divergence bloque son transit transfrontalier et limite sa valorisation industrielle. Des travaux récents montrent comment les hétérogénéités limitent la création de marchés circulaires à l’échelle européenne.

On observe des asymétries similaires dans des secteurs clés pour la transition à l’économie circulaire. Dans le domaine des batteries, les obligations en matière de traçabilité, de recyclage et de contenu recyclé varient encore sensiblement entre les États membres, ce qui complique la mise en place de chaînes de valeur cohérentes. Le secteur du bâtiment illustre également ces désalignements : critères de performance, méthodes de diagnostic des matériaux, ou encore exigences de réemploi diffèrent selon les pays, ce qui freine l’essor d’un marché européen du réemploi ou du recyclage de matériaux de construction.

Ces divergences réglementaires, loin d’être anecdotiques, empêchent l’émergence d’un véritable marché circulaire européen capable de soutenir les investissements, de sécuriser les flux de matériaux et d’accélérer la transition industrielle.

L’UE pourrait mettre en place plusieurs mesures pour harmoniser ces réglementations, à savoir :

la création d’un marché unique des matériaux recyclés pour faciliter leur commercialisation ;

l’harmonisation des normes environnementales qui pourraient inciter les investissements transnationaux ;

le développement de crédits d’impôt et des subventions pour les entreprises adoptant des pratiques circulaires.

Face à une situation géopolitique où l’Union européenne compte de moins en moins d’alliés, l’économie circulaire apparaît comme un levier stratégique pour renforcer son autonomie industrielle et sa résilience économique. En capitalisant sur les forces de chaque État membre, l’UE pourrait construire un modèle commun, conciliant diversité et cohésion. Trouver un langage commun devient ainsi essentiel pour surmonter les défis liés aux contraintes budgétaires, à l’harmonisation réglementaire et aux investissements nécessaires, garantissant une transition efficace et durable vers l’autonomie.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Économie circulaire : un levier géopolitique pour la résilience et la durabilité de l’Union européenne ? – https://theconversation.com/economie-circulaire-un-levier-geopolitique-pour-la-resilience-et-la-durabilite-de-lunion-europeenne-263069

Les jeunes veulent-ils encore la démocratie ?

Source: The Conversation – in French – By Anne Muxel, Directrice de recherches (CNRS) au Cevipof, Sciences Po

Droitisation de la jeunesse, désamour de la démocratie des moins de 35 ans, distanciation de la politique des seniors : « Fractures françaises », dix ans d’enquête menée par le Cevipof, nous apprennent les évolutions du rapport au politique de différentes générations.


Contrairement à ce qui est souvent asséné, les jeunes ne sont ni en voie de dépolitisation, ni désintéressés de la politique. Ils expriment des choix politiques et adoptent des comportements dans un cadre renouvelé du rapport à la citoyenneté.

Les données de l’enquête annuelle Fractures françaises, depuis 2013, permettent de saisir les évolutions les plus repérables du rapport à la politique dans la chaîne des générations, en en mesurant les écarts ou les similitudes entre les plus jeunes et les plus vieux, à l’échelle d’une dizaine d’années.

Évolution de l’intérêt pour la politique en fonction de l’âge (%)

Comparés à leurs aînés, les jeunes font preuve d’un niveau d’intérêt pour la politique certes moindre mais assez stable. Les fluctuations enregistrées, obéissant aux effets de la conjoncture politique et aux périodes électorales, suivent globalement celles qui sont enregistrées dans l’ensemble de la population.

Et si l’on compare le niveau de l’intérêt politique des classes d’âge les plus jeunes à celui qui est enregistré dans les classes d’âge plus âgées, au fil du temps, ils ont plutôt tendance à se rapprocher. L’intérêt pour la politique des plus jeunes augmente plutôt tandis que celui des autres classes d’âge a tendance au mieux à rester stable, voire à régresser. En l’espace de dix ans, l’écart de niveau d’intérêt pour la politique entre les moins de 35 ans et les plus de 60 ans est passé de – 25 points à – 7 points.

S’il y a dépolitisation, distanciation envers la politique, cette évolution est donc loin de ne concerner que les jeunes, elle est aussi visible, et peut être encore plus significative, dans les segments de la population plus âgés. C’est un résultat qui va à l’encontre de bien des idées reçues.

Une demande pressante de démocratie directe

La distanciation envers les partis politiques et, plus largement, la défiance à l’encontre du personnel et des institutions politiques sont bien repérés dans les analyses de sociologie politique et électorale récentes en France. Celles-ci montrent une montée d’une citoyenneté plus critique, plus expressive, plus individualisée, et de fait moins normative et moins institutionnalisée.

L’attachement à la démocratie domine toujours dans les jeunes générations et reste au cœur de leur répertoire politique. Néanmoins, les demandes de démocratie directe et de participation accrue des citoyens, sans la médiation des organisations ou des institutions politiques se font de plus en plus pressantes, et de façon encore plus marquée au sein de la jeunesse que dans l’ensemble de la population.

Les rouages de la démocratie représentative sont mis en cause et les jeunes ont endossé encore plus que leurs aînés les habits d’une citoyenneté critique, où la protestation est devenue un mode d’expression familier.

Le triptyque défiance-intermittence du vote-protestation définit le cadre d’un modèle de participation politique où les formes non conventionnelles sont assez largement investies, au risque même de la radicalité. Ainsi, parmi les moins de 35 ans, la justification de la violence pour défendre ses intérêts entraîne l’adhésion d’environ 30 % d’entre eux ces cinq dernières années.

Parmi les seniors de plus de 60 ans, celle-ci reste très en retrait sur l’ensemble de la période (15 points de moins que les moins de 35 ans en 2025).

Un cadre renouvelé du rapport à la citoyenneté

On observe dans les nouvelles générations des signes palpables d’une « déconsolidation démocratique », à savoir un affaiblissement de la croyance dans l’efficacité de la démocratie pour gouverner et répondre aux attentes des citoyens.

Le politologue Yasha Mounk utilise cette notion pour rendre compte de l’érosion de la confiance accordée aux institutions politiques représentatives dans nombre de démocraties contemporaines.

Dans la dynamique générationnelle, cette déconsolidation peut ouvrir la voie à de nouvelles formes de radicalités marquées par une polarisation aux deux extrêmes de l’échiquier politique et partisan à l’issue démocratique incertaine. La montée des populismes et des leaderships autoritaires en Europe et bien au-delà en est l’un des symptômes les plus patents.

Des seniors plus attachés à la démocratie que les moins de 35 ans

Parmi les moins de 35 ans, plus de quatre jeunes sur dix (42 %) sont d’accord avec l’idée que d’autres systèmes politiques sont aussi bons que la démocratie. Si l’on remonte dix ans en arrière, en 2014, ils étaient 29 % à partager le même avis.

Dans l’ensemble de la population, cette opinion a aussi progressé mais à un niveau plus faible, passant de 19 % à 34 %.

En revanche, et c’est une évolution notable, elle a nettement régressé parmi les seniors de plus de 60 ans, passant de 36 % à 23 %, soit une évolution en sens inverse par rapport aux plus jeunes.

Si la démocratie doit tenir, c’est donc davantage du côté des seniors qu’elle trouvera ses défenseurs que parmi les plus jeunes. Un constat qui peut dans l’avenir être lourd de conséquences politiques.

« Des jeunesses » plutôt qu’« une jeunesse »

S’ajoutent à ce tableau, des fractures intragénérationnelles qui rappellent les fractures sociales, culturelles, et politiques qui traversent la jeunesse. Celle-ci n’est pas une entité homogène. Elle est plurielle et divisée.

Ces fractures peuvent prendre le pas sur celles qui s’expriment au niveau intergénérationnel. Certains segments de la jeunesse, touchés par la précarité du travail et plus faiblement diplômés, ne sont pas exempts d’un repli identitaire favorable aux leaderships autoritaires d’extrême droite.

A contrario, dans la population étudiante et diplômée, à l’autre bout du spectre politique, plus active dans les mobilisations collectives, la tentation de la radicalité à gauche s’exprime.

Par ailleurs, au sein de la jeunesse issue de l’immigration, l’adhésion à certains communautarismes, non dénués de sectarisme et de séparatisme, peut remettre en cause l’universalisme républicain.

Une droitisation qui touche les jeunes générations

Les positionnements politiques des jeunes témoignent d’une certaine désaffiliation idéologique et partisane : 30 % des moins de 35 ans ne se sentent proches d’aucun parti, davantage les jeunes femmes que les jeunes hommes (respectivement 35 % et 27 %, soit un écart similaire à celui que l’on observe dans l’ensemble de la population).

Parmi ceux qui se reconnaissent dans un camp politique, comparés à leurs aînés, la gauche reste mieux placée : 34 % (contre 25 % des 60 ans et plus, et 31 % dans l’ensemble de la population). Le tropisme de gauche de la jeunesse résiste encore dans le renouvellement générationnel mais il a perdu de son acuité. En effet, les positionnements de droite (38 %), certes toujours inférieurs en nombre par rapport à ce que l’on constate chez leurs aînés (44 % des plus de 60 ans et 41 % dans l’ensemble de la population), y sont désormais plus nombreux. Le reste, se déclare au centre (28 %), qui est une position la plupart du temps utilisée comme refuge et expression d’un non-positionnement.

En l’espace de cinq ans (2020-2025), parmi les moins de 35 ans, les positionnements de droite sont passés de 28 % à 38 % (soit + 10 points), tandis que dans le même intervalle de temps les affiliations à la gauche n’ont quasiment pas progressé (33 % en 2020, 34 % en 2024). Un mouvement de droitisation est donc bien visible dans la jeunesse.

Évolution des positionnements à gauche et à droite selon l’âge, 2020-2024 (%)

La proximité déclarée envers le Rassemblement national a nettement progressé. En l’espace de quatre ans, elle est passée de 10 % à 22 % (+ 12 points) dans l’ensemble de la population, de 10 % à 19 % (+ 9 points) parmi les moins de 35 ans, et de 7 % à 20 % parmi les 60 ans et plus (+ 13 points). La progression de l’attractivité du Rassemblement national concerne donc tous les âges.

La gauche mélenchoniste, portée par La France insoumise, pénètre davantage les jeunes générations que les plus anciennes. Entre 2017 et 2025, on enregistre un faible surcroît (+ 3 points) de la proximité déclarée à La France insoumise qui passe de 11 % à 14 %, avec un pic en 2021 à 21 %. Parmi les 60 ans et plus, cette proximité a plutôt diminué, restant à un niveau bas, sans fluctuation, passant de 7 % à 3 % (soit – 4 points).

Évolution de la proximité envers le Rassemblement national selon l’âge (%)

La proximité ressentie pour le Rassemblement national supplante celle que suscite La France insoumise, y compris dans les jeunes générations. Certes à un niveau légèrement moindre que parmi les 60 ans et plus, mais le parti lepéniste apparaît plus ancré en termes de dynamique.

Les évolutions les plus repérables des positionnements politiques dans la chaîne des générations mettent donc en évidence l’équivoque de nombre d’idées reçues.

Plutôt que de s’affaisser, l’intérêt des jeunes pour la politique s’est tendanciellement rapproché du niveau de celui de leurs aînés. Par ailleurs, nos résultats ne révèlent pas de ruptures ou de discontinuités majeures entre les générations.

Les écarts observés sont dus à des phénomènes d’amplifications des effets de conjoncture et de période touchant l’ensemble de la population et qui sont plus visibles au sein des populations juvéniles. Néanmoins, les signes de déconsolidation démocratique sont plus marqués dans ces dernières, ce qui fragilise les conditions de viabilité et de renouvellement des régimes démocratiques dans l’avenir.

The Conversation

Anne Muxel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les jeunes veulent-ils encore la démocratie ? – https://theconversation.com/les-jeunes-veulent-ils-encore-la-democratie-269238

Vous appréhendez vos 60 ans ? La science affirme que c’est à cet âge que beaucoup d’entre nous atteignent leur apogée

Source: The Conversation – in French – By Gilles E. Gignac, Associate Professor of Psychology, The University of Western Australia

À mesure que votre jeunesse s’éloigne, vous pouvez commencer à craindre de vieillir.

Mais les recherches que mon collègue et moi-même avons récemment publiées dans la revue Intelligence montrent qu’il y a aussi de très bonnes raisons de se réjouir : pour beaucoup d’entre nous, le fonctionnement psychologique global atteint en fait son apogée entre 55 et 60 ans.

Ce fait explique pourquoi les personnes de cette tranche d’âge peuvent être les plus aptes à résoudre des problèmes complexes et à exercer des fonctions de direction au sein du monde du travail.


Cet article fait partie de notre série La Révolution grise. La Conversation vous propose d’analyser sous toutes ses facettes l’impact du vieillissement de l’imposante cohorte des boomers sur notre société, qu’ils transforment depuis leur venue au monde. Manières de se loger, de travailler, de consommer la culture, de s’alimenter, de voyager, de se soigner, de vivre… découvrez avec nous les bouleversements en cours, et à venir.


Différents types d’apogées

De nombreuses recherches montrent que les êtres humains atteignent leur sommet physique entre 25 et 35 ans.

De nombreuses recherches montrent également que les capacités intellectuelles brutes des individus, c’est-à-dire leur capacité à raisonner, à mémoriser et à traiter rapidement des informations, commencent généralement à décliner à partir de la mi-vingtaine environ.

Cette tendance se reflète dans le monde réel. Les athlètes ont tendance à atteindre le sommet de leur carrière avant 30 ans. Les mathématiciens apportent souvent leurs contributions les plus significatives vers la mi-trentaine. Les champions d’échecs sont rarement au sommet de leur art après 40 ans.

Pourtant, lorsque l’on regarde au-delà de la simple puissance de calcul, une image différente apparaît.

Du raisonnement à la stabilité émotionnelle

Dans notre étude, nous sommes allés au-delà de la seule faculté de raisonnement. Nous nous sommes concentrés sur des traits psychologiques bien établis, répondant à plusieurs critères : pouvoir être mesurés de manière fiable, refléter des caractéristiques durables plutôt que des états passagers, suivre des trajectoires liées à l’âge bien documentées, et être connus pour prédire les performances des individus dans la vie réelle.

Notre recherche a permis d’identifier 16 dimensions psychologiques qui répondaient à ces critères.

Il s’agissait notamment de capacités cognitives fondamentales telles que le raisonnement, la capacité de mémoire, la vitesse de traitement, les connaissances et l’intelligence émotionnelle. Elles comprenaient également les cinq grands traits de personnalité : l’extraversion, la stabilité émotionnelle, la conscience, l’ouverture à l’expérience et l’agréabilité.

Nous avons compilé les études d’importance portant sur les 16 dimensions que nous avons identifiées. En normalisant ces études selon une échelle commune, nous avons pu effectuer des comparaisons directes et cartographier l’évolution de chaque trait au cours de la vie.

Apogée plus tard dans la vie

Plusieurs des traits que nous avons mesurés atteignent leur pic beaucoup plus tard dans la vie. Par exemple, la conscience atteint son pic vers 65 ans. La stabilité émotionnelle atteint son apogée vers 75 ans.

Des dimensions moins couramment discutées, telles que le raisonnement moral, semblent également atteindre leur sommet à un âge avancé. Et la capacité à résister aux biais cognitifs – des raccourcis mentaux qui peuvent nous conduire à prendre des décisions irrationnelles ou moins précises – peut continuer à s’améliorer jusqu’à 70 ans, voire 80 ans.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Lorsque nous avons combiné les trajectoires liées à l’âge des 16 dimensions dans un indice pondéré fondé sur des données théoriques et empiriques, une tendance frappante est apparue.

Le fonctionnement mental global atteint son apogée entre 55 et 60 ans, avant de commencer à décliner vers 65 ans. Ce déclin devient plus prononcé après 75 ans, ce qui suggère que la diminution des fonctions mentales à un âge avancé peut s’accélérer une fois qu’elle a commencé.

Se débarrasser des préjugés liés à l’âge

Nos conclusions peuvent aider à expliquer pourquoi bon nombre des postes de direction les plus exigeants dans les domaines des affaires, de la politique et de la vie publique sont souvent occupés par des personnes âgées de 50 à 60 ans. Ainsi, si plusieurs capacités déclinent avec l’âge, elles sont compensées par le développement d’autres traits importants. Combinées, ces forces favorisent un meilleur jugement et une prise de décision plus mesurée, qualités essentielles aux postes de direction.

Malgré nos conclusions, les travailleurs âgés font face à des défis plus importants lorsqu’ils réintègrent le marché du travail après avoir perdu leur emploi. Dans une certaine mesure, des facteurs structurels peuvent influencer les décisions d’embauche. Par exemple, les employeurs peuvent considérer l’embauche d’une personne dans la cinquantaine comme un investissement à court terme si celle-ci est susceptible de prendre sa retraite à 60 ans.

Dans d’autres cas, certains postes sont soumis à un âge de départ à la retraite obligatoire. Par exemple, l’Organisation de l’aviation civile internationale fixe l’âge mondial de la retraite à 65 ans pour les pilotes de ligne internationaux. De nombreux pays exigent également que les contrôleurs aériens prennent leur retraite entre 56 et 60 ans. Étant donné que ces emplois exigent un niveau élevé de mémoire et d’attention, ces limites d’âge sont souvent considérées comme justifiées.

Cependant, les expériences varient d’une personne à l’autre.

Des recherches ont montré que si certains adultes présentent un déclin de leur vitesse de raisonnement et de leur mémoire, d’autres conservent ces capacités jusqu’à un âge avancé.

L’âge seul ne détermine donc pas le fonctionnement cognitif global. Les évaluations et les appréciations doivent donc se concentrer sur les capacités et les traits de caractère réels des individus plutôt que sur des hypothèses fondées sur l’âge.

Un sommet, pas un compte à rebours

Dans l’ensemble, ces résultats soulignent la nécessité de mettre en place des pratiques d’embauche et de fidélisation plus inclusives en matière d’âge, en reconnaissant que de nombreuses personnes d’âge mûr apportent des atouts précieux à leur travail.

Charles Darwin a publié De l’origine des espèces à l’âge de 50 ans. Ludwig van Beethoven, à 53 ans et profondément sourd, a créé sa Neuvième Symphonie. Plus récemment, Lisa Su, aujourd’hui âgée de 55 ans, a dirigé l’entreprise informatique Advanced Micro Devices à travers l’un des revirements techniques les plus spectaculaires du secteur.

L’histoire regorge de personnes qui ont réalisé leurs plus grandes avancées bien après ce que la société qualifie souvent d’« âge mûr ». Il est peut-être temps d’arrêter de considérer la quarantaine comme un compte à rebours et de commencer à la reconnaître comme un sommet.

La Conversation Canada

Gilles E. Gignac ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Vous appréhendez vos 60 ans ? La science affirme que c’est à cet âge que beaucoup d’entre nous atteignent leur apogée – https://theconversation.com/vous-apprehendez-vos-60-ans-la-science-affirme-que-cest-a-cet-age-que-beaucoup-dentre-nous-atteignent-leur-apogee-267700

Les liens de la pensée de Nick Land avec le (néo)nazisme

Source: The Conversation – in French – By Arnaud Borremans, Chercheur associé à l’Institut de recherche Montesquieu (IRM), Université Bordeaux Montaigne

Illustration évoquant l’« Ordre des neuf angles » sur le site du Terrorisme Research & Analyzis Consortium (TRAC).
Trackingterrorism.org

Cette seconde analyse de l’œuvre de Nick Land, philosophe contemporain dont l’impact est réel sur une partie au moins du mouvement MAGA aux États-Unis et sur de nombreux groupuscules d’ultradroite dans le monde, met en évidence le rapport complexe que l’idéologue des « Lumières sombres » entretient avec le nazisme himmlérien et avec les organisations qui, aujourd’hui encore, s’y réfèrent.


Comme souligné par Philosophie Magazine et évoqué dans notre article précédent sur Nick Land, des connexions existent entre la pensée de ce philosophe britannique – père du concept de « Lumières sombres » en vogue dans une partie du mouvement MAGA autour de Donald Trump – et certains éléments du néonazisme.

Au-delà des liens les plus apparents des Lumières sombres avec le racisme et l’autoritarisme, d’autres éléments troublants semblent attester d’une certaine proximité entre la pensée landienne et l’idéologie nazie ou ses différentes évolutions post-1945.

À quel point le fond de la pensée de Land – et donc de celle de ses fidèles qui murmurent à l’oreille de Donald Trump – s’enracine-t-il dans l’idéologie du IIIe Reich ?

Des loups-garous et du Soleil noir

Dans son essai Spirit and Teeth (1993), Land emploie le terme de « loups-garous » pour qualifier la filiation philosophique dont il se réclame lui-même. Il décrit cet héritage comme celui des penseurs qui ont rejeté à la fois la logique platonicienne et la morale judéo-chrétienne, leur préférant une approche immanentiste, reconnaissant une valeur aux instincts animaux et admettant l’absurdité de rechercher une quelconque vérité objective. Parmi lesdits penseurs, il inclut Friedrich Nietzsche et Emil Cioran, c’est-à-dire un philosophe largement récupéré par les nazis et un intellectuel affilié au mouvement fasciste dans son pays, la Roumanie.

De plus, ce terme de « loups-garous » fait écho à la tentative des nazis, alors que les armées alliées et soviétiques rentraient en Allemagne, de constituer des unités de partisans dits « loups-garous » (Werwolf), censés repousser les envahisseurs et exécuter les traîtres.

Les renvois implicites vers le souvenir du IIIe Reich par ce choix de mot est déjà intrigant de la part de Land. Cependant, il ne s’en est pas tenu là. Il a aussi mobilisé la notion de « Soleil noir » pour un article en ligne censément dédié à l’œuvre du philosophe français Georges Bataille. Or, une recherche amène à retrouver les termes précis de Bataille : il n’a jamais traité d’un « Soleil noir » mais d’un « Soleil pourri ». Cette substitution d’expressions par Land pose question : s’agit-il d’une erreur grossière de sa part ou d’un « dog whistle » (« sifflet à chien », c’est-à-dire un message discret destiné à mobiliser les franges les plus radicales de ses sympathisants) ?

En effet, il est troublant de relever que le Soleil noir est un symbole retrouvé dans le château de Wewelsburg où siégeait Heinrich Himmler, chef de la Schutzstaffel (SS), principale milice du régime nazi. Le Soleil noir fut nommé ainsi après guerre par l’ex-officier SS Wilhelm Landig, comme démontré par l’historien Nicholas Goodrick-Clarke.

Soleil noir tracé au sol du château de Wewelsburg.
Dirk Vorderstraße/Wikipedia, CC BY-ND

Ledit Landig a constitué dans les années 1950 un groupe occultiste à Vienne et a propagé avec ses affiliés un narratif autour du Soleil noir, présentant les nazis en perpétuateurs d’une tradition initiatique plurimillénaire et réaffirmant la justesse de leurs thèses racistes et eugénistes. De plus, ils affirmaient que des colonies nazies survivaient en Antarctique et allaient un jour reprendre le contrôle du monde à l’aide d’armes miracles, notamment de soucoupes volantes.

Aussi surprenantes ces correspondances soient-elles, elles ne prouvent rien en soi ; il peut s’agit uniquement de bévues de Land qui aurait mal anticipé les associations d’idées induites par ses mots. Cependant, ce ne sont pas les seuls éléments qui étayent que Land aurait le (néo)nazisme comme référence implicite.

Des liens de Land avec l’Ordre des neuf angles

L’Ordre des neuf angles (O9A) est une mouvance néonazie, occultiste et sataniste théiste, apparue en Angleterre à la fin des années 1960. Au-delà de son magma idéologique, elle est connue pour comprendre en son sein plusieurs organisations effectives, notamment la Division Atomwaffen et Tempel ov Blood aux États-Unis, Sonnenkrieg au Royaume-Uni, ou encore le groupe 764 au niveau mondial. Ces organisations sont traquées par plusieurs services de police, dont le FBI, pour des faits criminels de droit commun et même quelques attentats terroristes.

Or, Land a exprimé sa solidarité à leur égard sur un blog nommé Occult Xenosystems, maintenant fermé, et dont il est acquis par des indiscrétions d’utilisateurs sur une autre page qu’il en était bien l’administrateur.

Land y louait l’O9A pour la qualité de sa production intellectuelle, notamment celle de David Myatt (réputé comme le fondateur de l’O9A, derrière le pseudonyme d’Anton Long). Tout en faisant mine de s’en distinguer – il écrit notamment « le peu que j’ai appris sur David Myatt ne m’a pas attiré vers lui en tant que penseur ou activiste politique, malgré certaines caractéristiques impressionnantes (notamment son intelligence et son classicisme polyglotte) » –, il garde le silence sur le caractère antisocial et criminel du mouvement.

Une autre anecdote relance les spéculations sur l’investissement réel de Land auprès de l’O9A. Le journaliste britannique Tony Gosling a révélé à la radio, en 2022, qu’il avait connu Land au lycée. Selon lui, outre que Land serait le fils d’un cadre de la société pétrolière Shell ayant travaillé en Afrique du Sud (ce qui pourrait expliquer sa sympathie pour le capitalisme et le ségrégationnisme réaffirmée dans Les Lumières sombres), il aurait eu comme surnom, sans que Gosling ne fournisse de raisons objectives pour pareil sobriquet, « Nick the Nazi ».

Gosling sous-entend que ce surnom renvoyait bien à la sensibilité politique que ses camarades de classe imputaient à Land. Selon lui, Land avait surpris tout le monde lorsqu’il déclara, en 1978, qu’il avait pris la décision de devenir « communiste ». Sans présupposer de sa véracité, cette histoire intrigue parce qu’elle rappelle une stratégie assumée de l’O9A : l’infiltration et le noyautage d’autres organisations pour leur voler des ressources (idées, matériels, argent, recrues) et aussi pour leur nuire de l’intérieur, notamment en leur faisant commettre des erreurs.

Dès lors, une question se pose : Land aurait-il toujours été un militant de l’O9A qui aurait infiltré le CCRU, milieu de gauche, pour lui faire promouvoir l’accélérationnisme avec l’arrière-pensée que ce concept servait les intérêts de sa cause véritable, le néonazisme satanique ?

La piste de Miguel Serrano et du Black Order comme précurseurs de l’hyperstition

Parmi les organisations affiliées à l’O9A, une retient particulièrement l’attention : le Black Order qui couvre la zone Pacifique, notamment les Amériques du Nord et du Sud, l’Australie et la Nouvelle-Zélande. Outre son emploi assumé de la violence qui a déjà entraîné la commission d’attentats comme l’attentat de Christchurch en mars 2019 et son nom qui rend hommage explicitement au premier cercle d’Himmler, il apparaît que le fondateur du Black Order est un personnage clé reliant plusieurs protagonistes de ce sujet.

En effet, selon les historiens Nicholas Goodrick-Clarke et Jacob C. Senholt, Kerry Bolton est le distributeur international des ouvrages d’Anton Long, le chef de l’O9A dont Bolton serait par ailleurs un adepte. De plus, Bolton est aussi un associé de l’idéologue russe Alexandre Douguine qui échange directement et même publiquement avec Land. Il apparaît donc évident que si Land a un lien structurel avec l’O9A, celui-ci passe par le Black Order de manière privilégiée.

Une autre corrélation laisse songeur et laisse accroire à une causalité. L’un des fondateurs du Black Order fut Miguel Serrano (1917-2009), ancien diplomate chilien et sympathisant des nazis. Après la Seconde Guerre mondiale, Serrano sera connu comme auteur relayant dans ses ouvrages un narratif similaire à celui du groupe de Landig. Il ajoutait qu’Hitler ne serait pas mort à la fin de la guerre et qu’il reviendrait victorieux de sa base secrète en Antarctique, aidé de troupes de surhommes aryens armés d’artefacts magiques pour conquérir le monde.

Cette dimension eschatologique joue sur une figure du héros en sommeil, comme le roi Arthur ou le roi Sébastien au Portugal. Cette considération amène à se demander si Serrano a propagé ce narratif parce qu’il y croyait sincèrement ou parce que, fasciné par les travaux de Carl Jung sur l’inconscient collectif, il aurait essayé par ce biais d’influencer les esprits et de préparer le terrain mental à un retour du nazisme.

Cette démarche consistant à répandre avec force une idée, en la rendant séduisante autant que possible et en espérant qu’elle altère la réalité dans une certaine mesure, rappelle l’hyperstition de Land. Que Land ait eu l’entreprise de Serrano comme modèle inavoué (et inavouable) ne serait pas absurde, Jung étant une référence assumée par Land également depuis le CCRU.

Plus troublant, Land partage avec Serrano son attachement à une forme d’immanentisme et donc de néopaganisme, si bien qu’ils ont tous les deux refusé l’étiquette de sataniste. Land a ainsi déclaré, en réaction à une vidéo du polémiste états-unien Tucker Carlson, qu’il ne se considérait pas comme sataniste, du moins au sens théiste du terme. De son côté, Serrano a employé l’adjectif « sataniste » pour dénigrer les Juifs.

De la place de Land et de ses fidèles au sein de la mouvance néonazie

Néanmoins, aussi convaincants soient ces éléments, est-ce suffisant pour considérer la pensée politique de Land comme une sous-composante du (néo)nazisme, ou comme une branche distincte mais apparentée parmi les mouvements illibéraux ?

Tout le problème est que Land a lui-même entretenu l’ambiguïté sur des aspects cruciaux de son positionnement idéologique qui pourraient le rapprocher du nazisme. Ainsi, il s’est revendiqué « hyperraciste ». Or des divergences persistent sur le sens du terme : certains le comprennent comme un constat transhumaniste sur le fossé que les améliorations technologiques de l’humain vont creuser entre les élites, qui y auront accès, et le reste de la population ; d’autres y entendent une accentuation des « traits raciaux » par choix politique, ou du moins une accentuation de la ségrégation raciale via la technologie. À la lecture de l’article d’origine par Land, il semble concilier les trois interprétations en même temps.

Pareillement, sa complicité avec Alexandre Douguine pose question : si Land est vraiment un sympathisant inavoué du néonazisme, comment expliquer son dialogue continu jusqu’à cette fin d’année 2025 avec Douguine ? Il y fait mention durant son intervention dans l’émission The Dangerous Maybe d’octobre 2025. En effet, Douguine se définit comme un eurasiste et s’oppose donc à la fois à l’atlantisme anglo-américain et à la figure mythifiée de l’ennemi nazi. Une hypothèse est que leur perspective occultiste partagée les amène à considérer leurs camps comme deux forces antagonistes mais complémentaires, en termes métaphysiques. Cette hypothèse semble étayée par Land lui-même qui l’a mentionnée brièvement, en disant que Douguine voyait en lui un sataniste mais aussi un gnostique comme lui-même, contribuant à la même œuvre mais depuis l’autre bord.

En tout cas, l’influence en retour de Land sur les dernières générations de néonazis est dorénavant indéniable. Comme décrit par l’éditorialiste Rachel Adjogah, il existe une frange du mouvement néonazi qui se réclame fièrement de l’accélérationnisme landien, notamment en recourant à – ou même en créant – des cryptomonnaies et, surtout, en développant des chatbots romantiques tels que « Naifu », clairement biaisés pour relayer des théories du complot antigouvernementales : l’IA et la relation parasociale sont ainsi mises au service de la propagande néonazie.

Qui plus est, lesdits néonazis sont ostensiblement d’inspiration himmlérienne : ils ont repris le Soleil noir à leur compte et s’intéressent à l’occultisme, quitte à se revendiquer, en plus, du thélémisme, la religion créée par l’occultiste anglais Aleister Crowley, lui-même référence pour Land.

The Conversation

Arnaud Borremans ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les liens de la pensée de Nick Land avec le (néo)nazisme – https://theconversation.com/les-liens-de-la-pensee-de-nick-land-avec-le-neo-nazisme-269847

Pour promouvoir la parité dans les cursus d’ingénieurs, la piste d’un concours spécifique

Source: The Conversation – in French – By Diana Griffoulieres, Responsable d’ingénierie pédagogique numérique, EPF

Les concours d’accès aux écoles d’ingénieurs sont-ils pensés pour encourager la parité ? Une école tente depuis la rentrée 2025 de repenser ses voies de recrutement pour obtenir davantage de filles dans ses effectifs. Un dispositif trop récent pour en tirer des conclusions définitives mais qui apporte déjà des enseignements intéressants.


La sous-représentation des femmes en ingénierie s’explique en partie par des biais implicites de genre présents dans les processus de sélection académiques et professionnels dont la part de femmes plafonne juste en dessous du tiers des effectifs en cycle ingénieur où le taux reste autour de 29,6 %. Dans un contexte compétitif, les candidates tendent à être désavantagées, non pas en raison de compétences moindres, mais en raison de dynamiques compétitives et de stéréotypes de genre, influençant à la baisse leurs résultats.

L’un des phénomènes en jeu est le « risque du stéréotype » : la peur de confirmer un stéréotype négatif peut affecter les performances cognitives, notamment la mémoire de travail, réduisant ainsi les résultats des femmes lors d’épreuves exigeantes, même si elles réussissent mieux en dehors de ce contexte. Les différences de performances observées entre hommes et femmes dans les environnements compétitifs ne sont pas liées à des différences biologiques, mais à des attentes genrées et à des stéréotypes.

De nombreuses références bibliographiques décrivent comment les structures patriarcales favorisent les parcours masculins en valorisant les normes de compétition, notamment l’affirmation de soi et l’assurance, traits socialement encouragés chez les hommes mais souvent perçus comme inappropriés chez les femmes. Schmader, en 2022, a précisé l’impact des biais culturels et l’influence de l’environnement dans la limitation du choix des jeunes femmes pour les carrières scientifiques et techniques, malgré leur intérêt potentiel.

Dans une vision d’impact sociétal, l’EPF École d’ingénieurs (ex-École polytechnique féminine), l’une des premières grandes écoles en France à avoir formé des femmes au métier d’ingénieure, a créé le dispositif « ParityLab », un concept pensé pour attirer via des actions à court et moyen termes davantage de jeunes femmes vers les écoles d’ingénieurs.

Cette initiative s’appuie notamment sur les résultats de la grande enquête nationale « Stéréotypes et inégalités de genre dans les filières scientifiques », menée par l’association Elles bougent, en 2024, auprès de 6 125 femmes. Elle met en lumière les freins rencontrés par les filles dans les parcours scientifiques et techniques : 82 % déclarent avoir été confrontées à des stéréotypes de genre, et plus de la moitié disent souffrir du syndrome de l’imposteur – un obstacle à leur progression dans des environnements compétitifs. L’enquête Genderscan confirme ces constats, en se focalisant sur les étudiantes.

Une voie d’accès alternative

Le dispositif ParityLab a été conçu en réponse à ces enquêtes et aux biais de genre dans l’accessibilité des filles aux filières scientifiques et techniques, afin de minimiser ces biais et de valoriser leurs compétences tout au long de leur formation. Il se compose de deux parties : un concours d’accès alternatif via Parcoursup, réservé exclusivement aux femmes (validé par la direction des affaires juridiques de l’enseignement supérieur) et un parcours de formation spécifique d’insertion professionnelle consacré aux femmes, qui est proposé depuis cette rentrée aux candidates retenues.

Un panel diversifié de 40 jurés a été constitué pour assurer le processus de sélection. Parmi eux, 26 provenaient du monde de l’entreprise et 14 du corps enseignant et des collaborateurs de l’école. Pour sensibiliser tous les membres du jury sur l’importance de faire une évaluation plus inclusive, un atelier de sensibilisation aux stéréotypes de genre leur a été dispensé.

Afin de faire une évaluation plus enrichie et équilibrée des candidates, les jurés ont travaillé en binôme pendant les sessions de sélection reposant sur une étude de dossier scolaire, une mise en situation collective et un échange individuel. Le binôme était constitué d’un représentant de l’industrie et d’un représentant de l’école afin d’enrichir l’analyse des candidatures par leurs regards croisés multidimensionnels et réduire les biais.

L’épreuve collective a permis via une problématique liée à l’ingénierie fondée sur des documents, d’évaluer la créativité, le leadership ou la capacité d’exécution sans toutefois aborder les connaissances disciplinaires. L’entretien individuel, quant à lui, repose sur un échange librement choisi par la candidate (engagement associatif, sport, intérêt sur un sujet scientifique ou non), visant à révéler sa personnalité et ses aptitudes à communiquer.

Premier bilan du concours

Afin d’évaluer le dispositif mis en place, une enquête a été conçue pour collecter les retours des membres du jury et des candidates sélectionnées à travers deux questionnaires différents. De plus, un retour d’expérience a été demandé à certains membres du jury afin de collecter des données qualitatives sur leur expérience.

Les réponses des candidates ont été recueillies par un questionnaire rempli par 23 candidates sélectionnées sur 35 possibles (65,7 %). Il était composé de 14 questions fermées, utilisant une échelle de Likert à cinq niveaux, et neuf questions ouvertes. Il avait pour objectif de comprendre les motivations des candidates à passer le concours, d’identifier les obstacles ou les découragements qui ont pu freiner leur intérêt pour les sciences et les actions qui pourront encourager davantage de jeunes filles à s’orienter vers les filières scientifiques et technologiques.

L’analyse des réponses montre que 56 % des répondantes doutaient de leurs capacités et 22 % se déclaraient neutres sur ce point. La peur d’être isolée dans la classe est moins marquée, seules 30 % des candidates se sentant concernées. Les réponses sur les préjugés sexistes sont mitigées, 30 % des candidates ont déclaré avoir entendu des commentaires décourageants, 26 % se sont déclarées neutres et 43 % ont affirmé ne pas avoir été confrontées à ce type de remarques.

Quand il leur a ensuite été demandé d’imaginer ce qui pouvait encourager d’autres filles à s’orienter vers les filières scientifiques, les répondantes placent en tête de leurs réponses l’existence de modèles féminins inspirants, une meilleure promotion des métiers liés à l’ingénierie et la déconstruction des stéréotypes de genre dès l’enfance.

Une dynamique encourageante

Le concours a permis de renforcer significativement la présence des femmes dans la formation scientifique généraliste de l’EPF École d’ingénieurs en 2025. Sur les 50 places ouvertes cette année, 35 ont été pourvues, avec un taux de sélection de 32 % parmi les 108 candidates. Une critique fréquente à l’égard de ce type de dispositif est la peur d’une réduction des places pour les hommes, relevant d’une vision « à somme nulle ». Ici, les places créées pour cette nouvelle voie s’ajoutent à l’existant et aucun quota n’est prélevé sur les admissions classiques.

Ces chiffres s’inscrivent dans une dynamique positive et encourageante. Une progression remarquable des néo-bachelières recrutées de + 11,5 % de jeunes femmes en première année du cycle ingénieur.

Il est à noter que la voie d’accès classique affiche elle aussi des résultats en progrès en matière de parité avec une augmentation du nombre de jeunes femmes de + 5 %, probablement en lien avec différentes stratégies internes et externes de lutte contre les biais de genre.

Les étudiantes du ParityLab suivent le même programme académique que les autres élèves de la formation généraliste de première année. En revanche, elles bénéficient (en plus) de modules ciblés sur les questions de stéréotypes et soft skills. Cette première cohorte devient un terrain d’étude pertinent pour mieux comprendre les freins à l’orientation vers ces filières encore majoritairement masculines.

Obtenir un échantillon plus large

La mise en place du concours a été l’objet d’une réflexion approfondie sur la mise en œuvre d’un processus de sélection équitable. Des actions de sensibilisation destinées aux membres des jurys, afin de réduire les biais liés aux stéréotypes de genre et d’évaluer les compétences transversales sans mettre en avant les compétences disciplinaires des candidates, ont été mises en place. Les retours sur l’atelier collectif ont été perçus positivement par les jurys et par les candidates. Cependant des pistes d’améliorations (logistique, gestion de temps) sont envisagées pour la prochaine session.

ParityLab constitue un dispositif qui pourra être transférable à d’autres écoles d’ingénieurs qui souhaitent renforcer la représentation des femmes dans leurs programmes. Les recherches futures pourraient aborder les mêmes problématiques avec un échantillon plus large pour confirmer les résultats obtenus dans cette étude, et mesurer son impact sociétal.

The Conversation

Diana Griffoulières es docteure en Sciences de l’éducation et elearning. Elle mène des travaux de recherche appliquée en éducation et est responsable de l’ingénierie pédagogique numérique à l’EPF Ecole d’Ingénieurs. Diana Griffoulières ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article.

Emmanuel Duflos est membre de la Conférence des directeurs des écoles françaises d’ingénieurs. Il en est le Président actuel. La CDEFI est une conférence inscrite dans le code de l’éducation qui a vocation à représenter les écoles d’ingénieurs auprès de l’Etat. La CDEFI est engagée depuis de nombreuses années dans des actions dont l’objectif est de promouvoir les formations d’ingénieurs auprès des femmes. Emmanuel Duflos est aussi le directeur général de la Fondation EPF, reconnue d’utilité publique (FRUP), qui a pour mission de concourir à la formation des femmes en sciences et technologies. La Fondation EPF porte l’école d’ingénieurs EPF dont il est également le directeur général. La Fondation EPF et l’EPF sont à l’origine de l’expérimentation à l’origine de cet publication. En tant que FRUP, la Fondation EPF partage son savoir et son savoir-faire sur le projet ParityLab qui concoure à sa mission.

Liliane Dorveaux est co-fondatrice et Vice Présidente de WOMENVAI , ONG ayant le statut ECOSOC à l’ONU. Liliane DORVEAUX ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article.

ref. Pour promouvoir la parité dans les cursus d’ingénieurs, la piste d’un concours spécifique – https://theconversation.com/pour-promouvoir-la-parite-dans-les-cursus-dingenieurs-la-piste-dun-concours-specifique-269630

L’étonnante valeur des kWh qu’on ne produit pas

Source: The Conversation – in French – By Michel Denault, Professeur, optimisation et transition énergétique, HEC Montréal

Des centrales ont été nommées en l’honneur de politiciens. Des tubes de calfeutrant, jamais. Dommage… (Photo du déversoir de la Centrale hydro‑électrique Robert‑Bourassa) (Facebook | Eeyou Istchee Baie-James – région touristique), CC BY

Combien coûtera un kilowatt-heure d’électricité en 2040 ? La réponse courte : cher. Combien en coûterait-il pour obtenir le service énergétique de ce kilowatt-heure, mais sans le produire ? Moins cher. Beaucoup moins cher.

On connait l’exemple classique : on peut chauffer une maison mal isolée pour obtenir un certain niveau de confort. Ou l’isoler et obtenir le même niveau de confort en dépensant moins d’énergie. Bien sûr, de deux options équivalentes en confort, on préférera normalement la moins chère.

Or, ce qui vaut pour une maison vaut aussi pour une région, et pour des technologies autres que le chauffage et l’isolation. Dans tous les cas, si le coût de production d’un kilowatt-heure est plus élevé que l’investissement requis pour avoir le même service avec moins d’électricité – appelons ça le « coût de l’efficacité »–, on choisira l’efficacité. La différence entre les deux coûts s’appelle la « valeur de l’efficacité ». Plus elle est élevée, plus l’efficacité vaut la peine face à la production.

coût de production – coût de l’efficacité = valeur de l’efficacité

Avec d’autres chercheurs de HEC Montréal, j’ai évalué la valeur de l’efficacité pour le système électrique du Nord-est américain, de New York à l’Ontario et aux provinces atlantiques, en passant par la Nouvelle-Angleterre et le Québec.

Une maison passive sur un paysage hivernal
L’Hôtel de Ville de La Pêche, entièrement construite en bois et certifiée Passivhaus, est un exemple d’avant-garde en matière d’architecture à haute efficacité énergétique et à faible empreinte carbone.
(Facebook | Latéral), CC BY

Transition énergétique et électricité

Les changements climatiques sont largement dus aux énergies fossiles. La plupart des pays essaient par conséquent d’en diminuer l’usage, avec un niveau de détermination variable, il faut avouer.

L’abandon des énergies fossiles se fait très largement en faveur de l’électricité. Il suffit de penser aux voitures à essence remplacées par des voitures électriques, et au chauffage résidentiel qui passe du gaz naturel à l’électricité. Ce changement implique que la demande électrique va croître bien plus rapidement pendant les prochaines années qu’au cours des dernières décennies.

L’abandon des hydrocarbures signifie aussi qu’il faut produire la nouvelle électricité sans avoir recours à ces combustibles, sans centrale au gaz, par exemple. Autrement dit, il faut augmenter la production électrique, tout en remplaçant une part importante des centrales. Ce casse-tête de planification porte le nom de « transition énergétique ».

Le coût de production : un coût marginal futur

L’évaluation du coût de production d’un kilowatt-heure, premier terme de notre équation, n’est pas une mince affaire. C’est que le coût de production moyen actuel, facile à observer, n’est pas une mesure adéquate dans notre cas :

  • Les coûts actuels sont trompeurs puisque la transition énergétique a un effet colossal sur la façon de produire de l’électricité. Il faut plutôt tenter d’anticiper des coûts futurs, qui tiennent compte de la transition discutée plus haut.

  • Les coûts moyens ne sont pas appropriés non plus. Les kWh qui sont pertinents pour notre calcul, c’est-à-dire ceux qu’on choisit de produire ou non, sont les plus chers de tous. Pour la bonne raison qu’on utilise les meilleurs sites (éoliens, hydrauliques) et technologies en premier. C’est seulement si davantage d’électricité est nécessaire qu’on a recours à des façons de produire plus dispendieuses. Le coût de ces « derniers » kilowattheures est dit « coût marginal ».

C’est le coût marginal futur qui est la meilleure mesure du coût de production. Son calcul requiert d’anticiper comment la transition se déroulera, quel réseau électrique sera bâti au cours des, disons, quinze prochaines années. Combien d’éoliennes auront été construites ? Où ? Au Québec, en Nouvelle-Écosse ? Ou en mer, à quarante km au large de Long Island ? Combien de centrales au gaz, de panneaux solaires ? Où des lignes à haute tension auront-elles été placées pour acheminer l’électricité ? Des batteries permettront-elles d’entreposer l’énergie éolienne et solaire ?




À lire aussi :
La transition énergétique nécessite beaucoup de minéraux et de métaux. Cela pourrait avoir un impact sur nos lacs


Un calcul complexe

Pour effectuer ce calcul, nous avons des outils : modèles mathématiques, algorithmes d’optimisation, bases de données, etc. Des outils, mais pas de baguette magique… de nombreux choix doivent être effectués, souvent difficiles. En quelque sorte, il y a des écueils, et des façons de les contourner. On présentera ici deux de ces écueils, qui présentent un intérêt particulier.

(1) Quelle sera la demande électrique dans quinze ans ?

Cette question est cruciale, parce qu’elle influence fortement les réponses finales, mais aussi parce qu’il est difficile d’y répondre. Que faire alors ? On peut contourner (temporairement) la question en calculant un coût marginal futur pour différentes demandes, tout simplement.

(2) Comment anticiper la transition ? Comment savoir à quel système électrique vont mener les décisions de milliers d’acteurs, politiques et privés ? Une solution raisonnable consiste ici à supposer que les parties prenantes collaboreront et que le système le moins cher sera préféré. Une optimisation respectant nombre de contraintes bien sûr : le vent ne souffle pas quand on veut, les meilleures rivières sont déjà harnachées, l’utilisation de centrales au gaz doit être limitée pour diminuer les impacts climatiques, etc.

Les coûts marginaux futurs obtenus par les auteurs apparaissent à la figure suivante, qui se lit comme suit. L’axe horizontal propose différentes demandes futures pour 2040. La valeur entre parenthèses est le pourcentage de la demande de 2025 (de 105 % à 200 %). Les barres bleues « mesurent » 100 térawattheures (TWh) de large. Le système électrique à l’étude est tellement grand que les « derniers kWh » auxquels on référait plus haut deviennent des térawattheures. La hauteur des barres bleues indique le coût, marginal donc, de ces 100 TWh, en $US/kWh.

Par exemple, si la demande totale passe de 866 TWh à 966 TWh, on calcule un coût de 42 ¢/kWh pour ce bloc de 100 TWh. Ce qui saute aux yeux, c’est que le coût marginal augmente très rapidement quand la demande de 2040 atteint 130 % ou 140 % de la demande de 2025. Et si la demande double, alors le coût marginal est très, très élevé.

Le coût de l’efficacité

Tournons-nous maintenant vers le coût de l’efficacité, soit le 2e terme de l’équation. L’idée consiste à calculer le coût associé à la diminution de l’électricité requise par un service énergétique. Par exemple le coût du calfeutrage des portes et fenêtres d’une maison.




À lire aussi :
La menace méconnue de la transition énergétique


Ce problème est plus facile à résoudre, car le coût de l’efficacité n’est pas influencé par la transition énergétique ni par le niveau de demande en électricité. Ou très peu. On peut donc se fier aux meilleures études actuelles.

Selon notre revue de la littérature, un coût assez fiable est de 10 cents du kilowatt-heure, sans égard à la demande électrique future.

Et finalement… la valeur de l’efficacité

Nous sommes désormais rendus à une soustraction près de la valeur de l’efficacité. Il suffit de prendre les coûts marginaux de la figure 1, et d’en soustraire le coût de l’efficacité, soit 10 cents. Les résultats apparaissent à la figure 2.

La figure 2 se lit comme la figure 1. On lui a ajouté le coût de l’efficacité, la ligne horizontale à presque 10 ¢/kWh. La valeur de l’efficacité est donnée par la hauteur des lignes rouges. Par exemple, si on désire ajouter 100 TWh d’électricité à un système de 866 TWh, il en coûte 42 ¢/kWh, tandis que si on ajoute plutôt 100 TWh de service énergétique (par des mesures d’efficacité), ça coûte 10 ¢/kWh. La valeur de l’efficacité énergétique est la différence entre les deux, soit 32 ¢/kWh.

Autrement dit, le choix de répondre à 100 TWh de besoin énergétique en produisant ladite électricité, coûte 32 ¢ par kWh de plus que par efficacité. On pourrait dire qu’on paie ainsi 32 milliards de dollars trop cher. Annuellement, et juste pour ce 100 TWh. Pire, si la demande est plus élevée, la valeur de l’efficacité atteint rapidement un dollar par kWh. C’est énorme !


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Des leçons pour… maintenant !

Il est intéressant de revenir sur les deux écueils de modélisation discutés plus haut, et d’en tirer des conclusions.

La question de la prévision de la demande électrique en 2040 se pose finalement avec encore plus d’acuité. Nous estimons qu’une augmentation de 50 % entre 2025 et 2040 est plausible, avec la possibilité d’une croissance un peu plus faible, mais aussi la possibilité claire d’une hausse bien plus substantielle que 50 %. La principale conclusion scientifique de notre étude est qu’on se dirige vers un futur où la valeur de l’efficacité sera très élevée. La principale conclusion politique à en tirer est qu’il est impératif d’investir dès maintenant dans une économie plus efficace.

Le deuxième écueil était la modélisation de la transition, et on a alors posé l’audacieuse hypothèse que les cinq régions ciblées allaient coopérer de façon optimale. Cette hypothèse est bien sûr irréaliste, mais elle ne fait pas dérailler nos conclusions, au contraire. Un principe fondamental de l’optimisation implique qu’avec une coopération imparfaite, le coût marginal augmenterait. Il n’en va pas de même du coût de l’efficacité, qui ne repose pas sur la coopération. Conséquence, la valeur de l’efficacité serait encore plus élevée que les valeurs que l’on trouve. Et les conclusions du paragraphe précédent, d’autant renforcées.

La transition énergétique ne se fera pas sans sobriété énergétique. Du moins pas à un prix raisonnable.

La Conversation Canada

Cette recherche a été menée en partie grâce au soutien financier d’IVADO et du Fonds d’excellence en recherche Apogée Canada.

ref. L’étonnante valeur des kWh qu’on ne produit pas – https://theconversation.com/letonnante-valeur-des-kwh-quon-ne-produit-pas-268065