Quel textile choisir pour avoir chaud tout en limitant l’impact environnemental ?

Source: The Conversation – in French – By Coralie Thieulin, Enseignant chercheur en physique à l’ECE, docteure en biophysique, ECE Paris

Au cœur de l’hiver, la quête du pull-over parfait peut parfois sembler bien compliquée. Trouver un textile chaud, qui n’endommage pas l’environnement, qui soit confortable… Les critères s’accumulent. Tâchons d’y voir plus clair.


Avoir chaud en hiver tout en limitant son impact environnemental peut sembler un défi. Chercher à avoir des vêtements nous protégeant au mieux du froid est certes un levier efficace pour réduire sa consommation d’énergie, comme le montrent des initiatives telles que le mouvement Slow Heat et d’autres expérimentations récentes.

Toutefois, cette démarche se heurte à une contradiction de taille : le secteur textile reste parmi les plus polluants au monde, avec des émissions de gaz à effet de serre importantes et une contribution notable aux microplastiques marins.

Alors, quelles matières tiennent vraiment chaud tout en respectant davantage l’environnement ? Si les fibres naturelles sont souvent mises en avant pour leur bonne isolation et leur fin de vie plus respectueuse de l’environnement, leur impact réel dépend largement de la manière dont elles sont produites et utilisées. Pour y voir plus clair, commençons par comprendre ce qui fait qu’un textile tient chaud.

La fabrication du textile tout aussi importante que la fibre

La capacité d’un textile à tenir chaud dépend moins de la fibre utilisée que de l’air qu’elle parvient à enfermer. En restant immobile dans de minuscules espaces au cœur du tissu, cet air limite les échanges de chaleur, un peu comme dans une couette ou un double vitrage. Plus un tissu est épais, duveteux ou poreux, plus il limite les échanges de chaleur.

Cette capacité dépend beaucoup de la structure des fibres et de la manière dont le textile est fabriqué. Les fibres frisées ou ondulées comme la laine de mouton créent des poches où l’air reste piégé. D’autres fibres comme l’alpaga (un camélidé des Andes proche du lama) ou le duvet synthétique sont partiellement creuses, augmentant encore la capacité isolante. De même, les tricots et mailles, plus lâches, isolent mieux que les tissages serrés. Ainsi, la chaleur d’un vêtement dépend autant de sa construction que de sa matière.

Des alpagas juvéniles à Nuñoa, au Chili.
Des alpagas juvéniles à Nuñoa, au Chili.
Elwinlhq/Wikimedia, CC BY

C’est sur ces mêmes principes physiques que reposent les fibres synthétiques. En effet, le polyester, l’acrylique, le polaire imitent en partie la laine par leur structure volumineuse et leur capacité à emprisonner de l’air, soit grâce à des fibres frisées, soit grâce à des fibres creuses ou texturées.

Ainsi, ces textiles offrent une bonne isolation thermique, sont légers et sèchent rapidement, ce qui les rend très populaires pour le sport et l’outdoor. En revanche, leur faible respirabilité intrinsèque et leur capacité limitée à absorber l’humidité peuvent favoriser la transpiration et la sensation d’humidité lors d’efforts prolongés. D’autre part, contrairement aux fibres naturelles, ces matériaux sont inflammables, un aspect souvent négligé, mais qui constitue un enjeu réel de sécurité.

Elles ont également un coût environnemental élevé. Issues du pétrole, non biodégradables et fortement consommatrices d’énergie, ces fibres libèrent à chaque lavage des microfibres plastiques dans l’eau, contribuant à la pollution marine. On estime qu’entre 16 % et 35 % des microplastiques marins proviennent de ces textiles, soit de 200 000 à 500 000 tonnes par an. Ces impacts surpassent largement ceux des fibres naturelles, ce qui constitue un vrai défi pour une mode plus durable.

Les bénéfices de la laine de mouton mérinos et de l’alpaga

Face à ces limites, les fibres naturelles apparaissent donc souvent comme des alternatives intéressantes, à commencer par la laine de mouton, longtemps considérée comme une référence en matière d’isolation thermique.

La laine possède en effet une structure complexe et écailleuse : chaque fibre est frisée et forme de multiples micro-poches d’air, réduisant ainsi la perte de chaleur corporelle. Même lorsqu’elle absorbe un peu d’humidité, l’air reste piégé dans sa structure, ce qui lui permet de continuer à isoler efficacement. Cette organisation particulière explique aussi pourquoi la laine est respirante et capable de réguler l’humidité sans donner une sensation de froid. Cependant, ces mêmes fibres peuvent parfois provoquer une sensation de « grattage » pour certaines personnes : plus les fibres sont épaisses, plus elles stimulent les récepteurs de la peau et provoquent des picotements. Il s’agit d’un phénomène purement sensoriel, et non d’une allergie.

Fibre de laine mérinos au microscope.
CSIRO, CC BY

Parmi les différents types de laines, la laine de mouton mérinos, issue d’une race d’ovin originaire d’Espagne se distingue par la finesse de ses fibres, nettement plus fines que celles de la laine classique (de 11 à 24 microns pour le mérinos et de 25 à 40 microns pour la laine classique) . Cette caractéristique réduit fortement les sensations d’irritation au contact de la peau et améliore le confort.

Elle favorise également la formation de nombreuses micro-poches d’air isolantes, tout en maintenant une excellente respirabilité. Ces qualités expliquent son usage croissant dans les sous-couches et vêtements techniques, aussi bien pour le sport que pour le quotidien.

Pour autant, la laine n’est pas exempte d’impact environnemental. Bien qu’elle soit renouvelable et biodégradable, son élevage contribue aux émissions de gaz à effet de serre, principalement via le méthane produit par les moutons et la gestion des pâturages. On estime qu’entre 15 et 35 kg de CO₂ équivalent sont émis pour produire 1 kg de laine brute, et qu’environ 10 000 litres d’eau sont nécessaires, selon le mode d’élevage. Le bien-être animal et les pratiques agricoles, comme le mulesing ou l’intensification des pâturages, jouent également un rôle déterminant dans l’empreinte globale de cette fibre.

D’autres fibres animales, comme l’alpaga, suscitent un intérêt croissant en raison de propriétés thermiques comparables, voire supérieures, associées à un meilleur confort. Les fibres d’alpaga sont en effet partiellement creuses, ce qui leur permet de piéger efficacement l’air et de limiter les pertes de chaleur, tout en restant légères. Contrairement à certaines laines plus grossières, elles ne grattent pas, ce qui les rend agréables à porter directement sur la peau.

Elles sont également plus longues et plus fines que la laine classique, avec une bonne capacité de régulation de l’humidité et un séchage plus rapide. Ces caractéristiques expliquent l’essor de l’alpaga dans les vêtements techniques comme dans les pièces haut de gamme, des sous-couches aux manteaux. Sur le plan environnemental, l’alpaga présente aussi certains avantages. En effet, l’élevage d’alpagas exerce généralement une pression moindre sur les écosystèmes : animaux plus légers, consommation alimentaire plus faible, émissions de méthane réduites et dégradation limitée des sols comparativement à l’élevage ovin. Là encore, la durabilité dépend largement du respect de systèmes extensifs et adaptés aux milieux locaux.

Le succès des fibres synthétiques

Malgré les nombreux atouts de ces textiles naturels, les fibres synthétiques restent donc très utilisées, notamment pour leurs performances techniques. Mais leur succès est aussi lié à des facteurs économiques et pratiques : elles sont généralement moins coûteuses, très abondantes dans le commerce, et faciles à transformer en vêtements de masse. Ces aspects rendent le synthétique accessible et pratique pour une large partie des consommateurs, ce qui explique en partie sa prédominance dans l’industrie textile, indépendamment des préférences individuelles.

Polaire, duvet synthétique ou fibres techniques offrent une isolation thermique efficace, tout en étant légères et rapides à sécher, des qualités particulièrement recherchées dans les vêtements de sport et d’outdoor. La conductivité thermique est une mesure de la capacité d’un matériau à conduire la chaleur : plus cette valeur est faible, moins la chaleur passe facilement à travers le matériau, ce qui signifie une meilleure capacité à retenir la chaleur dans un textile donné.

Des mesures de conductivité thermique montrent par exemple que certains isolants synthétiques comme la polaire présentent des valeurs très basses (0,035-0,05 watt par mètre-kelvin (W/m·K)), indiquant une excellente capacité à retenir la chaleur. Pour comparaison, la laine, lorsqu’elle est compacte ou densifiée, peut atteindre 0,16 W/m·K, mais dans les textiles isolants volumineux, elle reste faible (0,033–0,045 W/m·K).

Toutefois, l’origine fossile, la non-biodégradabilité, la libération de microplastiques et un recyclage encore très limité font des textiles synthétiques des matériaux à fort impact environnemental.

Le pull en laine qui gratte, un préjugé qui colle à la peau

À l’inverse, si les fibres naturelles sont parfois boudées, ce n’est pas toujours pour des raisons environnementales, mais souvent pour des questions de confort. Une personne ayant déjà porté un vêtement en fibres naturelles qui lui a paru inconfortable ou irritant peut développer un rejet global de ces fibres, au profit du synthétique, même lorsque des alternatives plus douces existent.

Or, des solutions sont disponibles : privilégier des fibres fines comme la laine mérinos, l’alpaga ou le cachemire, recourir à des traitements mécaniques ou enzymatiques pour adoucir les fibres, ou encore combiner différentes fibres naturelles. Le choix doit aussi tenir compte de l’usage du vêtement et de son contact direct avec la peau.

En pratique, choisir un textile chaud et moins polluant relève donc d’un compromis, qui dépend autant de la matière que de l’usage. Une sous-couche portée à même la peau bénéficiera de fibres fines et respirantes, comme la laine mérinos, tandis qu’une couche intermédiaire privilégiera l’isolation et un vêtement extérieur la protection contre l’humidité et le vent.

Enfin, plutôt que de rechercher une matière « parfaite », il est essentiel de raisonner en cycle de vie. Sa durabilité (combien de temps il est porté), sa réparabilité, la fréquence et la manière de le laver, ainsi que sa fin de vie (recyclage, réutilisation, compostage pour les fibres naturelles) influencent largement son impact environnemental total. Un vêtement bien entretenu et durable peut avoir un impact bien moindre qu’un textile « écologique », mais rapidement jeté.

Au final, les matières textiles les plus chaudes et les moins polluantes sont majoritairement naturelles, mais aucune n’est totalement exempte d’impact. La laine mérinos et l’alpaga offrent aujourd’hui un compromis intéressant entre chaleur, confort et fin de vie environnementale. Le rejet des fibres naturelles pour des raisons de grattage mérite d’être nuancé : la qualité et la finesse des fibres font toute la différence. Mieux informer sur ces aspects pourrait encourager des choix plus durables. En textile comme ailleurs, le meilleur choix reste souvent celui que l’on garde longtemps.

The Conversation

Coralie Thieulin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quel textile choisir pour avoir chaud tout en limitant l’impact environnemental ? – https://theconversation.com/quel-textile-choisir-pour-avoir-chaud-tout-en-limitant-limpact-environnemental-273602

Comment le djihadisme s’est métamorphosé

Source: The Conversation – in French – By Myriam Benraad, Chercheure spécialiste de l’Irak, professeure en relations internationales, enseignante sur le Moyen-Orient, Institut catholique de Paris (ICP)

Idéologie doublée d’une militance globale, le djihadisme a connu un recul après la débâcle de l’organisation État islamique sur le théâtre syro-irakien, dont les combattants ne sont pas parvenus à se réimposer, Al-Qaida ayant aussi perdu de son écho. Le monde est témoin d’un épuisement du phénomène et d’une mise en déroute de ses structures, en Europe et en France par exemple, terres vers lesquelles un terrorisme de masse a cessé de s’exporter. Mais n’est-il pas plus judicieux d’évoquer une « métamorphose » du djihad, au sens de la modification progressive et inachevée de ses formes et de sa nature ? Dans son nouvel ouvrage Jihad : la métamorphose d’une menace, la politiste et professeure en relations internationales Myriam Benraad sonde un ensemble d’idées reçues sur cette mouvance hétéroclite.


Les plus méfiants rétorqueront que des développements dramatiques comme l’attentat de la plage de Bondi à caractère antisémite en décembre 2025, la chute de Kaboul aux mains des talibans en 2021, le changement de régime en Syrie en décembre 2024 à la faveur de djihadistes endurcis, ou encore l’expansion de cette mouvance dans les États du Sahel, l’assassinat de Samuel Paty en 2020 et celui de Dominique Bernard trois ans plus tard démontrent que le djihadisme reste un système de pensée actif et meurtrier. L’affirmation n’est pas dénuée de fondement.

Mais évoquer un épuisement ne revient pas à conclure à la déchéance définitive des idées et des hommes. Comme mouvement et dispositif, le djihadisme s’inscrit dans la durée. À plusieurs reprises, il a surmonté ses revers et l’élimination de ses chefs. Une survivance illustrée en 2023 lorsque, dans le contexte de la relance des hostilités au Proche-Orient après les attaques du Hamas en Israël le 7 octobre, a ressurgi une « Lettre à l’Amérique » signée par Oussama Ben Laden en 2001 en justification des attentats du 11 septembre et incitant les musulmans à « venger le peuple palestinien » contre les États-Unis, Israël et leurs alliés.

Il y a, d’une part, une dégradation manifeste des groupes et de leur commandement, de leur cause et de leurs capacités. On peut juger, d’autre part, qu’une actualité géopolitique extrêmement lourde, de la pandémie de Covid-19 à la guerre en Ukraine et à la conflagration dans la bande de Gaza, a contribué à reléguer la menace au second plan.

Le traitement médiatique n’a plus rien à voir avec la frénésie informationnelle qui avait marqué la période antérieure. Quoique le traumatisme suscité par des vagues d’attaques sanglantes n’ait jamais complètement guéri, le temps a commencé à faire son œuvre, lentement. Peu de citoyens craignent une répétition des actions qui ont meurtri la France en 2015 et 2016. Aucun Français ne s’attend plus à la commission d’une attaque comparable à celle du Bataclan.

Mais comme le suggère l’idée de métamorphose, se transformer ne signifie pas avoir disparu. Le djihad, abordé comme un acte guerrier violent, n’est certes plus aussi puissant qu’auparavant et a vu son potentiel d’enrôlement s’amoindrir. Il n’y a pas eu non plus d’internationalisation djihadiste de la question palestinienne et pas de nouveaux flots de militants à destination du Moyen-Orient depuis la dernière guerre israélo-palestinienne.

Au même moment, le djihadisme est opérationnel sur d’autres terrains. Même minoritaire, il agit dans des pays comme la Syrie, la Libye, le Yémen, où les guerres civiles ont laissé de lourdes séquelles et continuent de procurer aux djihadistes des espaces pour sévir. Dans nos sociétés, des profils d’individus vulnérables aux idées de cette mouvance sont identifiés et mis hors d’état de nuire régulièrement. Enfin, du fait de leur promesse d’endurance et de rétribution, les djihadistes clament haut et fort leur détermination à survivre et continuer de frapper.

Rappelons que le djihad n’est pas réductible à la guerre, en dépit de la violence qui demeure la principale expression du djihadisme contemporain. Au-delà des stéréotypes et clichés, il est impératif de se saisir de la pluralité des significations de ce mot et d’opérer une distinction claire entre ses interprétations théologiques et manifestations historiques, d’un côté, et ses acceptions idéologiques récentes, de l’autre. En effet, le djihad n’est pas le djihadisme malgré la confusion fréquemment opérée entre ces deux termes.

Nier la lourdeur de leurs connotations négatives n’est pas non plus la meilleure des manières de dépasser les préjugés courants, ni d’apporter des éléments de réponse sur un sujet qui reste d’actualité même s’il n’occupe plus les grands titres.

Si l’on excepte le poids de certaines dérives médiatiques et politiques, le djihad est un objet pluri­dimensionnel. La mouvance djihadiste initialement constituée par des Sayyid Qutb, Abdallah Azzam et Oussama Ben Laden n’en a pas épuisé toutes les formes et les structures, et encore moins l’influence. Or ce caractère hétéroclite est difficilement démontrable dans un contexte trop souvent marqué par les polémiques et controverses, notamment en France où les tueries de l’année 2015 continuent de résonner au niveau sociétal.

Dix ans plus tard, les commémorations des attentats du 13 novembre ont montré en quoi la mémoire traumatique de l’ultraviolence est omniprésente et combien le besoin d’une justice restaurative importe pour les victimes, directes ou indirectes. On perçoit bien à cet égard la nécessité d’un retour aux sources, arabes et médiévales, en vue de lever le voile sur les zones d’ombre persistantes. Certes, l’approche belliqueuse du djihad élaborée par les djihadistes sied à leurs convictions, mais elle fausse en large part le sens de l’islam.

Cet extrait est issu de Jihad. La métamorphose d’une menace, de Myriam Benraad, qui vient de paraître aux éditions Le Cavalier bleu.

Dans de nombreux commentaires, on observe aussi que l’Histoire est la grande absente. Les djihadistes ont imposé leur lecture idéologique des circonstances d’expansion de cette religion, qu’ils assimilent à une conquête militaire. En réalité, cette expansion a été plus dispersée dans le temps, pluriforme et multifactorielle. Elle est également plus riche que les descriptions qui en sont faites ici et là. Les bouleversements des dernières décennies ne sauraient occulter que l’islam a accouché d’une civilisation qui était autrefois majestueuse et orientée vers le progrès.

Les djihadistes sont d’ailleurs loin d’être unis dans la vision qu’ils entretiennent de ce passé et des moyens de le restituer. Le « califat » un temps revendiqué par l’État islamique procédait d’une réinvention de la tradition islamique et s’est symptomatiquement vu rejeté par une majorité de musulmans. Cette logique de fragmentation du champ djihadiste a cours, dans les faits, depuis les années 1990 et les djihads afghan, algérien, bosniaque et tchétchène. Puis les clivages entre mouvements se sont renforcés avec les guerres d’Irak, de Libye et de Syrie, pour ne citer que ces crises.

Un socle partagé n’en définit pas moins le djihadisme, pétri de mythes et d’un puissant imaginaire. Depuis le 11 septembre 2001, une majorité de militants s’est ainsi ralliée à la notion d’une croisade supposément conduite par l’Occident et ses alliés contre l’islam et ses fidèles, croisade à laquelle devrait répondre un djihad globalisé. Cette représentation binaire et manichéenne explique l’intolérance absolue des djihadistes et leur rejet de toute différence, y compris religieuse parmi leurs coreligionnaires qu’ils prétendent représenter et défendre.

Quelles sont au fond les causes du djihadisme ? Prétendre apporter une réponse linéaire et exclusive relève du leurre car il n’existe aucun système d’interprétation fixe. À l’identique, les parcours des djihadistes pris individuellement rendent compte de l’absence d’un profil-type, tandis que radicalisation et déradicalisation se doivent d’être examinées à la lumière d’expériences tangibles. Pour l’heure, le djihadisme poursuit sa métamorphose, moins délétère que par le passé, mais le chemin sera long, dans le monde musulman comme dans nos sociétés, avant de prétendre l’avoir vaincu.

The Conversation

Myriam Benraad ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Comment le djihadisme s’est métamorphosé – https://theconversation.com/comment-le-djihadisme-sest-metamorphose-272978

Sergueï Karaganov est-il vraiment l’architecte de la politique étrangère du Kremlin ?

Source: The Conversation – in French – By Maxime Daniélou, Doctorant en études slaves et chargé de cours à l’université Paris-Nanterre, Université Paris Nanterre

Le 7 juin 2024, avant la séance plénière du Forum économique international de Saint-Pétersbourg, dont il est le modérateur, Sergueï Karaganov discute avec Vladimir Poutine.
Kirill Morozov/Roscongress, site officiel de la présidence russe

Spécialiste reconnu des relations internationales depuis plusieurs décennies, fondateur de think tanks influents et d’une grande revue consacrée aux affaires diplomatiques, Sergueï Karaganov s’est dernièrement fait remarquer par des propos plus que musclés, promettant notamment à ceux qui s’opposeraient à la Russie, à commencer par les pays de l’Union européenne, une destruction totale. On aurait toutefois tort de voir en lui l’un des artisans de la politique étrangère de Moscou : il s’agit plutôt d’un habile « entrepreneur idéologique », qui sert le pouvoir en lui proposant un habillage conceptuel et en lançant des messages destinés à raffermir, dans l’opinion occidentale, l’idée selon laquelle le Kremlin est déterminé à aller, le cas échéant, jusqu’à la guerre nucléaire.


Les prises de position de l’universitaire russe Sergueï Karaganov font l’objet d’une attention croissante dans l’espace médiatique français et international depuis le début de l’invasion de l’Ukraine par la Russie en février 2022. Récemment, des articles et des émissions télévisées lui ont attribué une influence déterminante sur la politique étrangère russe, allant jusqu’à le qualifier de « nouvel architecte de la politique étrangère du Kremlin » ou de « cerveau géopolitique de Vladimir Poutine », le plus souvent sans autre justification que sa proximité supposée avec le président russe.

Cette situation rappelle un phénomène déjà observé avec le philosophe ultranationaliste Alexandre Douguine, lui-aussi régulièrement présenté comme le « cerveau de Poutine » depuis le début des années 2000, en dépit des démentis répétés de plusieurs chercheurs spécialistes de la Russie.

Dans le cas de Douguine comme dans celui de Karaganov, attribuer une telle influence sur le chef du Kremlin sans fondement empirique solide contribue à obscurcir la compréhension des dynamiques à l’œuvre dans le processus de prise de décision en matière de politique étrangère dans la Russie contemporaine. Ces exagérations offrent par ailleurs une exposition médiatique bienvenue à ces entrepreneurs idéologiques. Si ni l’un ni l’autre n’ont jamais confirmé le rôle qui leur est parfois prêté au sommet de l’État, ils profitent de la visibilité et de l’autorité symbolique que cette image leur confère dans une logique de promotion personnelle et de diffusion de leurs idées, en Russie comme à l’étranger.

Afin de dépasser les interprétations excessives, il est nécessaire de s’interroger sur la place réelle qu’occupe Sergueï Karaganov dans l’environnement politique et idéologique russe. Revenir sur son parcours, ses réseaux et les idées qu’il défend permet de relativiser l’idée d’une influence directe sur les décisions du Kremlin, et de mieux comprendre les raisons de sa soudaine surexposition médiatique.

Un réseau puissant en formation dès la chute de l’URSS

En janvier 1992, moins d’un mois après la chute de l’URSS, Sergueï Karaganov (né en 1952), expert des États-Unis au sein de l’Académie des sciences soviétique, fonde l’un des premiers think tanks russes indépendants, le Conseil pour la politique étrangère et de défense (SVOP selon le sigle russe). En raison de la faiblesse des institutions qui caractérise la décennie 1990 en Russie, le SVOP, qui réunit hommes d’affaires, diplomates et militaires, parvient à exercer une influence certaine sur la politique nationale et permet à son directeur de se doter d’un réseau puissant.

Les dynamiques de centralisation et de renforcement de l’État, ainsi que le renouvellement des élites qui accompagne l’arrivée de Vladimir Poutine à la présidence en 2000, entraînent le déclin irréversible du SVOP et obligent Karaganov à se renouveler. En 2002, il fonde l’influente revue de politique étrangère Russia in Global Affairs, avant d’être nommé à la tête de la faculté de politique internationale de la Haute École d’économie, l’une des plus prestigieuses universités du pays, quatre ans plus tard.

Son implication dans la création du club de discussion Valdaï en 2004, qui s’impose progressivement comme un des principaux think tanks de l’ère Poutine, lui permet de se garantir un canal de communication avec l’administration présidentielle, institution centrale de la Russie poutinienne, qui est la seule à même de pouvoir faire circuler ses idées jusqu’au sommet de l’État.

Un entrepreneur idéologique

La politologue Marlène Laruelle, qui a récemment publié un ouvrage sur la construction idéologique de l’État russe, souligne que cette dernière est en constante évolution et repose sur un corpus dont la production est le plus souvent externe à l’État. Elle propose la notion d’« entrepreneur idéologique » pour désigner les acteurs situés en dehors des institutions étatiques qui entrent en concurrence pour capter l’attention de l’administration présidentielle et du gouvernement, afin d’accéder aux ressources et à la reconnaissance qui y sont associées.

Sergueï Karaganov s’inscrit pleinement dans cette catégorie, puisqu’il utilise son réseau et les organisations qu’il a fondées pour développer puis promouvoir ses idées et récits auprès des décideurs russes, dans l’espoir d’en tirer des bénéfices symboliques et matériels.

Capture d’écran de la page d’accueil du site Internet de Sergueï Karaganov.
karaganov.ru

Depuis le début des années 2010, Karaganov a ainsi réussi à s’imposer comme l’un des principaux fournisseurs conceptuels du « tournant russe vers l’Asie ». Plusieurs notions qu’il a développées, comme la « Grande Eurasie » ou, plus récemment, « la Majorité mondiale », ont été intégrées dans le discours officiel, aidant les dirigeants à justifier et à promouvoir la réorientation stratégique et économique de la Russie vers la Chine et ses autres partenaires non-occidentaux.

Rien ne permet en revanche de lui attribuer une quelconque influence sur la définition de l’agenda ni sur les choix concrets de politique étrangère : en la matière, le processus de prise de décision semble cloisonné au président et à son entourage le plus proche, dont Karaganov ne fait assurément pas partie.

Pourquoi toute cette attention aujourd’hui et quelle utilité pour le Kremlin ?

Tout au long de sa carrière, Sergueï Karaganov a bénéficié d’une exposition médiatique en adéquation avec son statut d’expert reconnu en relations internationales. Depuis le début de la guerre en Ukraine, cette exposition a toutefois changé d’échelle, élargissant nettement son audience. Karaganov a su tirer parti du contexte de radicalisation de l’espace public, dans lequel les experts sont incités à afficher leur soutien à la guerre, voire à surenchérir par rapport à la ligne officielle, afin de se distinguer et d’augmenter leur visibilité.

À partir de l’été 2023, il s’est illustré par ses appels répétés en faveur d’une baisse du seuil d’emploi de l’arme atomique et de « frappes nucléaires limitées » contre plusieurs capitales européennes. Ces prises de position, très controversées, y compris au sein de la communauté académique russe, l’ont propulsé au premier plan du débat public. Elles ont très probablement pesé dans sa désignation comme modérateur de la séance plénière du Forum économique international de Saint-Pétersbourg, le 7 juin 2024.

Cette position hautement symbolique lui a permis de dialoguer avec Vladimir Poutine en direct devant les caméras du monde entier. Lors de cet échange, le président russe a déclaré lire les textes de Karaganov, ce qui a alimenté les spéculations quant à l’influence de ce dernier sur la politique étrangère du pays. Cet épisode a également accru ses sollicitations par les médias, jusqu’à son intervention en direct sur la première chaîne de télévision russe, le 5 décembre dernier, largement reprise et traduite à l’étranger pour ses déclarations particulièrement belliqueuses envers l’Europe.

Du point de vue du Kremlin, Karaganov constitue une voix radicale supplémentaire permettant de durcir le discours sans impliquer directement le sommet de l’État. Il joue ainsi le rôle d’un épouvantail utile, à l’image de l’ancien président Dmitri Medvedev, dont les déclarations provocatrices s’inscrivent dans une stratégie de guerre psychologique contre l’Occident. Cette délégation du discours le plus extrême permet au pouvoir de préserver une posture officielle apparaissant comme ouverte à la négociation, tout en laissant circuler des messages plus agressifs par des canaux indirects.

Ainsi, invité du podcast de Tucker Carlson au mois de janvier 2026 dans un contexte de tensions inédites dans les relations transatlantiques dont le Kremlin entend profiter, Sergueï Karaganov a pu s’adresser à l’Amérique trumpiste par l’un de ses canaux favoris. Espérant sans doute être entendu jusque dans le Bureau ovale, il est allé toujours plus loin dans la surenchère, rappelant que « l’Europe est la source de tous les maux » et qu’elle serait « rayée de la carte de l’humanité » en cas d’assassinat de Vladimir Poutine…

The Conversation

Maxime Daniélou ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Sergueï Karaganov est-il vraiment l’architecte de la politique étrangère du Kremlin ? – https://theconversation.com/sergue-karaganov-est-il-vraiment-larchitecte-de-la-politique-etrangere-du-kremlin-272486

« Une bataille après l’autre » et « The Mastermind » : quand le cinéma révèle les échecs de la gauche aux États-Unis

Source: The Conversation – in French – By Gregory Frame, Teaching Associate in Media and Cultural Studies, University of Nottingham

Explorant les failles et la défaite de la gauche américaine, les films Une bataille après l’autre, de Paul Thomas Anderson, et The Mastermind, de Kelly Reichardt, sont sortis en 2025, tandis que Donald Trump faisait un retour en force. Chacun à leur manière, ils invitent les membres et les partisans du parti démocrate comme les activistes de la gauche radicale à faire leur introspection.


La victoire de Donald Trump en novembre 2024 a provoqué une profonde remise en question dans les forces de gauche de la politique états-unienne. Après avoir échoué, les dirigeants du Parti démocrate ont passé l’essentiel de l’année 2025 à panser leurs plaies, tandis que Trump lançait ce que ses opposants considèrent comme une attaque frontale contre la démocratie américaine.

La nouvelle année a commencé par de nouveaux scandales, tant sur le plan intérieur qu’extérieur, l’administration Trump agissant avec une impunité de plus en plus effrayante.




À lire aussi :
Le raid de Donald Trump sur le Venezuela laisse présager un nouveau partage du monde entre les grandes puissances


Combinée à la poursuite de la montée du populisme de droite et de l’autoritarisme dans le monde entier, la version « 2.0 » de Trump est vécue comme une crise existentielle pour la gauche.

Le pays a déjà connu une telle situation. Les mouvements de protestation de gauche des années 1960 aux États-Unis ont contribué à d’importants changements législatifs – en particulier dans le domaine des droits civiques –, mais ils ont souvent été caricaturés comme étant « antipatriotiques », notamment s’agissant de la guerre du Vietnam. Le sentiment que le pays se désagrégeait sous l’action de jeunes radicaux violents a conduit la « majorité silencieuse » conservatrice à offrir la victoire électorale à Richard Nixon en 1968.

Depuis lors, la gauche institutionnelle étasunienne s’est détournée de l’idéalisme des années 1960 et a plutôt proposé des changements progressifs et limités. Mais cette stratégie ne s’est sans doute pas révélée très efficace au cours du dernier demi-siècle.

Dans le contexte d’une nouvelle défaite et d’un énième cycle d’introspection, il semble donc approprié que deux films portant sur les échecs de la politique révolutionnaire de gauche des années 1960 et 1970 émergent presque simultanément avec le retour en force de Trump.

Explorer l’activisme de gauche

Bien que très différents par leur style et leur ton, Une bataille après l’autre (2025), de Paul Thomas Anderson, et The Mastermind (2025), de Kelly Reichardt, critiquent ce qu’ils présentent comme l’insuffisance stratégique et l’autosatisfaction de l’activisme de gauche, tout en explorant son coût personnel.

Une bataille après l’autre met en scène l’ancien révolutionnaire Pat Calhoun, alias Bob, (Leonardo DiCaprio) qui tente de sauver sa fille Willa (Chase Infiniti) des griffes d’un colonel suprémaciste blanc, qui a tout d’un psychopathe, Lockjaw (Sean Penn). Bien que Bob ait autrefois résisté aux politiques d’immigration cruelles et racistes du gouvernement fédéral à travers une série de raids audacieux contre des centres de détention, la paternité et une consommation excessive de cannabis ont émoussé son ardeur révolutionnaire.

Au lieu de cela, Bob est désormais un bouffon quelque peu incompétent. Le film exploite à des fins comiques ses tentatives chaotiques pour communiquer avec la « French 75 », l’armée révolutionnaire dont il faisait autrefois partie, inspirée de groupes révolutionnaires réels des années 1960 et 1970, comme les Weathermen.

Déambulant en peignoir, il a oublié tous les codes et les conventions nécessaires pour évoluer dans cet univers. Des mots de passe aux pronoms, Bob est en décalage avec son époque.

Cependant, le film se permet aussi de se moquer du moralisme de la gauche. Alors que Bob devient de plus en plus agressif faute d’obtenir des informations sur un point de rendez-vous crucial, le radical à qui il parle au téléphone l’informe que le langage qu’il emploie nuit à son bien-être. Si Bob manque de compétences pour soutenir la révolution, ceux qui la dirigent sont trop fragiles pour en mener une à bien.

À l’inverse, The Mastermind suit J. B. Mooney (Josh O’Connor) dans ses tentatives d’échapper aux autorités après avoir orchestré le vol de quatre œuvres d’art dans un musée de banlieue. Mari, père et fils d’un juge, Mooney est privilégié, sans direction, désorganisé, égoïste et, semble-t-il, indifférent à l’impact de la guerre du Vietnam alors que le conflit fait rage autour de lui.

Sa désorganisation est évidente dès le moment où il réalise que l’école de ses enfants est fermée pour une journée de formation des enseignants, le jour du casse. Son privilège apparaît clairement lorsqu’il lui suffit de mentionner le nom de son père lors de son premier interrogatoire par la police pour qu’on le laisse tranquille.

Même ses tentatives de convaincre sa femme, Terri (Alana Haim), qu’il a agi pour elle et pour leurs enfants sont maladroites, puisqu’il finit par admettre qu’il l’a aussi fait pour lui-même.

Alors qu’il est en fuite, Mooney semble ignorer ce qui se passe réellement autour de lui, des jeunes hommes noirs qui discutent de leur déploiement imminent au Vietnam, aux bulletins d’information relatant la réalité de la guerre. Sans rien dévoiler, Mooney ne peut finalement échapper aux conséquences de la guerre du Vietnam sur la société américaine.

Des moments révélateurs dans les deux films suggèrent également l’engagement vacillant envers la révolution de la part de ses anciens adeptes. Dans The Mastermind, Mooney se cache chez Fred (John Magaro) et Maude (Gaby Hoffmann), un couple avec lequel il a fréquenté l’école d’art. Malgré son passé militant, Maude refuse de l’héberger plus d’une nuit par crainte d’attirer l’attention des autorités. Dans Une bataille après l’autre, la volonté de Bob de prendre des risques pour sa sécurité et sa liberté diminue lorsqu’il devient parent et il est, de manière assez problématique, prompt à juger la mère de Willa, Perfidia (Teyana Taylor), qui continue à agir à ses risques et périls.

Le cinéma politique des années 1970

Les deux films rappellent inévitablement les œuvres tout aussi politiques produites par le cinéma états-unien à la fin des années 1960 et au début des années 1970, telles que Cinq pièces faciles (1970), Macadam à deux voies (1971) et Chinatown (1974). Au cœur du contrecoup nixonien face au radicalisme des années 1960, ces films adoptent un ton de résignation défaitiste, mettant en scène des protagonistes sans direction et des fins malheureuses.

La conclusion de The Mastermind ressemble à celle de ces films des années 1970. Le film s’achève sur des policiers présents lors d’une manifestation contre la guerre du Vietnam, se félicitant mutuellement après avoir arrêté un nouveau groupe de manifestants et de les avoir envoyés en prison.

Bien qu’Une bataille après l’autre soit beaucoup plus pétillant dans son style, la politique révolutionnaire de gauche y apparaît aussi comme une impasse. Des victoires à plus petite échelle restent possibles : Sergio (Benicio del Toro) continue de se battre pour les immigrés sans papiers, et Willa s’enfuit pour rejoindre une manifestation Black Lives Matter à la fin du film.

Mais en regardant ces deux films depuis la perspective d’une nouvelle année où l’administration Trump menace de provoquer de nouveaux bouleversements violents, tant au plan national qu’international, je repense à la lamentation mélancolique de Captain America (Peter Fonda) vers la fin du classique de la contre-culture Easy Rider (1969) :

« On a tout gâché. »

The Conversation

Gregory Frame ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. « Une bataille après l’autre » et « The Mastermind » : quand le cinéma révèle les échecs de la gauche aux États-Unis – https://theconversation.com/une-bataille-apres-lautre-et-the-mastermind-quand-le-cinema-revele-les-echecs-de-la-gauche-aux-etats-unis-274060

Du technocapitalisme aux Venture Capitals : la grande transformation des industries de défense

Source: The Conversation – in French – By Nicolas Minvielle, Spécialiste du design et de l’innovation, Audencia

La valeur de l’industrie de défense est en train de muter vers le monde du logiciel. Le monde d’hier est donc bien caduc. Imperial War Museums

Alors que le contexte géopolitique change en profondeur, de nouvelles entreprises émergent dans le monde de la défense. Après des décennies dominées par la puissance d’entreprises industrielles à l’ancienne, les start-up du logiciel deviennent des actrices clés. Retour sur une mutation en cours et décryptage des nouveaux enjeux qu’elle pose.


Dans le contexte de la guerre en Ukraine où l’« autonomie stratégique » devient un problème concret apparaît, à côté du traditionnel « complexe militaro-industriel »), un nouveau modèle que l’on pourrait décrire comme étant un complexe technocapitaliste. Un écosystème où start-up, fonds de capital-risque, fonds souverains, initiatives européennes et philanthropes techno-nationalistes investissent massivement dans la défense et la sécurité.

Non pas pour remplacer d’un coup la base industrielle et technologique de défense (BITD) – et ce malgré les annonces tonitruantes de certains de ces acteurs –, mais pour en modifier progressivement l’architecture, les acteurs et les temporalités.

Le dernier souper est servi

Le modèle qui domine encore aujourd’hui a pris forme dans les années 1990, avec la grande consolidation de l’industrie américaine de défense sous l’administration Clinton. Durant cette période, la base industrielle de défense américaine a connu une consolidation d’une ampleur inédite. Surnommé le last supper, ce moment d’accélération des fusions a donné naissance aux cinq géants qui dominent encore largement la défense américaine – Lockheed Martin, Boeing, Northrop Grumman, Raytheon et General Dynamics. Quelques grands maîtres d’œuvre – ces fameux Big Five – se partagent ainsi depuis l’essentiel des grands programmes : avions de combat, frégates, satellites, systèmes de commandement intégrés.




À lire aussi :
Réarmement : l’indispensable coopétition entre petites, moyennes et grandes entreprises de la défense


Leur logique est celle de la commande publique lourde : des besoins définis par l’État, des appels d’offres longs, des cycles de développement qui se comptent en décennies, une forte intégration verticale, une relation quasi organique avec les ministères de la Défense. Ce modèle assure une certaine visibilité budgétaire et une capacité à gérer des systèmes d’une complexité extrême. Il produit aussi une grande inertie tant sur le plan technologique que procédural.

L’arrivée du monde du logiciel

Depuis une dizaine d’années, ce paysage est bousculé par des acteurs qui viennent, pour l’essentiel, du monde du logiciel : Anduril, Palantir, Helsing, Shield AI, et en France des entreprises comme Command AI. Leur point de départ n’est pas une plateforme matérielle (un avion, un navire, un char), mais le logiciel : fusion de données, IA, capteurs distribués, systèmes autonomes, couches de command & control.

Leurs méthodes de travail et de production, héritées de la tech consistent en itérations rapides, tests fréquents, déploiements progressifs, adaptation au retour du terrain plutôt qu’exécution d’un cahier des charges figé. Aux États-Unis, des dispositifs comme les Other Transaction Authority (OTA) ont été créés pour faciliter cette collaboration avec des acteurs non traditionnels, ce qui permet d’en contourner certaines lourdeurs réglementaires.

Traverser la « vallée de la mort »

Au sein de ces organisations, on sait prototyper plus vite, expérimenter plus tôt, et ce qu’elles que soient leurs origines géographiques. Mais le cœur du problème reste entier : beaucoup de ces start-up valident un démonstrateur… puis butent sur la « vallée de la mort » entre prototypes financés en mode agile et programmes pérennes inscrits en loi de finances. L’appareil budgétaire, taillé pour les grands industriels historiques, peine à absorber des solutions issues de ce nouveau monde.

En Europe, on tente d’importer cet esprit à travers des marchés d’innovation, des programmes d’expérimentation accélérée, des dispositifs dual-use. Mais la culture d’acquisition reste largement calibrée pour les grands programmes industriels, plutôt que pour des produits logiciels qui changent de version plusieurs fois par an.

La défense devient une classe d’actifs

Parallèlement à cette rupture technologique, c’est la structure du financement de la défense qui se transforme. La sécurité n’est plus seulement affaire de budgets ministériels ; elle devient aussi un segment identifié du capital-risque. Aux côtés des commandes publiques et des investissements des grands groupes se constitue un nouvel écosystème d’investisseurs composé :

  • des fonds privés spécialisés dans la défense, la sécurité et les technologies dites « civilisationnelles » (IA, autonomie, cyber, spatial, résilience d’infrastructures) ;

  • des fonds souverains et publics qui cherchent à orienter l’innovation vers des priorités de souveraineté ;

  • des dispositifs européens (fonds de fonds, véhicules dédiés) qui tentent de structurer un marché encore fragmenté ;

  • des philanthropes techno-nationalistes qui investissent par conviction politique ou civilisationnelle autant que pour le rendement (Peter Thiel par exemple).

Tous partagent la conviction que certaines technologiesIA militaire, lutte anti-drones, robotique autonome, surveillance avancée, sécurité spatiale – vont devenir structurantes, et que la valeur se créera très en amont, bien avant les grands contrats publics. Le schéma de l’industriel finançant la R&D sur fonds propres pour vendre ensuite un produit à marge encadrée recule. Le risque est socialisé dans le capital : les VC, les fonds souverains, les programmes européens prennent le risque initial, en misant sur l’hypothèse qu’un jour, une partie de la commande publique basculera vers ces nouvelles solutions.

Ce mouvement ne remplace pas le financement traditionnel par les États ; il l’encercle, le complète et le pousse à se réorganiser. Ministères de la Défense, Union européenne, Otan tentent désormais de co-concevoir des instruments (fonds, equity facilities, fonds d’innovation) pour ne pas laisser au seul capital privé le soin de définir, par ses paris, l’architecture future de la BITD.

Un dialogue nécessaire entre deux modèles

On l’aura compris, dans ce nouvel environnement, deux grandes logiques industrielles cohabitent. Du côté des industriels historiques, la chaîne de valeur part de l’expression de besoin : l’État formalise une exigence (un avion de combat, un système de défense antiaérienne, une frégate de nouvelle génération), lance un appel d’offres, sélectionne un industriel, et s’engage sur des décennies. La robustesse, la certification, l’intégration dans des architectures complexes sont centrales. Les marges sont encadrées, le risque est partagé, mais le tempo reste celui du temps long.

Les start-up de défense, à l’inverse, développent des produits avant que le besoin ne soit formalisé. Elles financent le développement puis se tournent vers les États en disant, en substance : « voilà ce que nous savons déjà faire, regardez si vous pouvez vous en passer ».

Cette asymétrie se voit dans la façon dont on conçoit les systèmes. Là où les grands industriels ont longtemps construit d’abord la plateforme matérielle, puis ajouté des couches logicielles au fil du temps, les nouveaux entrants adoptent une logique software first.

Un nouveau rapport de forces

Le cas d’Anduril est emblématique. Au cœur de sa stratégie se trouve un système d’exploitation tactique, conçu pour connecter capteurs, drones, effecteurs et flux de données. À partir de cette brique logicielle, l’entreprise déploie ensuite ses propres drones, capteurs, systèmes d’armes, en gardant la maîtrise de l’architecture logicielle qui fait la jonction. Le tout étant principalement focalisé sur La clientèle militaire.

Cette inversion du rapport de force – la valeur se loge dans le logiciel, la plateforme matérielle devient, jusqu’à un certain point, substituable – rend très concrète la question de la souveraineté : qui contrôle la brique logicielle qui orchestre l’ensemble ? Qui décide du rythme des mises à jour ? Où se situent les dépendances critiques ?

Elle rebat aussi les cartes du Hi–Low mix : comment articuler des systèmes lourds, rares et coûteux (avion de combat, frégate) avec des objets plus simples, distribués, produits en masse (drones, capteurs, effecteurs low cost). Les nouveaux acteurs occupent volontiers ce bas et ce milieu du spectre, la « masse agile » ; les industriels historiques doivent, eux, apprendre à descendre vers des produits plus modulaires, plus rapides, tout en continuant à garantir l’excellence sur les systèmes de très haute complexité.

Des horizons temporels différents

La rencontre entre capital-risque et défense met aussi au jour une tension structurante : celle des horizons temporels. Le Venture Capital (VC, ou capital-risque) raisonne en cycles de cinq à sept ans, avec l’idée que l’entreprise doit, soit atteindre une taille critique, soit être rachetée, soit entrer en bourse. Les ministères de la défense, eux, raisonnent sur vingt ou trente ans, voire davantage.

Ce décalage pose des questions très concrètes. Que se passe-t-il si un acteur clé de l’IA tactique ou du contre-drone, devenu indispensable sur le terrain, se retrouve fragilisé par la conjoncture financière, ou racheté par un acteur étranger ? Comment garantir la continuité d’une capacité opérationnelle dont la brique critique est portée par une entreprise structurée selon les logiques de la tech ?

Trois idées structurantes

À l’inverse, la défense ne peut plus ignorer le rythme d’innovation propre au logiciel. Attendre dix ans pour figer une architecture revient souvent à se condamner à déployer des systèmes déjà dépassés. D’où la montée en puissance de trois idées structurantes :

  • Le dual-use : privilégier les technologies qui ont, par construction, des débouchés civils et militaires (cyber, spatial, IA, robotique, résilience d’infrastructures). Cela élargit la base industrielle, répartit le risque et évite de concentrer des capacités critiques sur des marchés de niche.

  • Le « software-defined, hardware-enabled » : concevoir des systèmes où le cœur de valeur est dans l’algorithme (détection, fusion de capteurs, décision), et où le matériel – drone, capteur, effecteur – peut évoluer plus librement.

  • La modularisation et les architectures ouvertes : prévoir dès la conception des points d’insertion réguliers pour de nouvelles briques logicielles, de nouveaux capteurs, sans devoir réinventer tout le système.

Ces leviers ne font pas disparaître la tension entre temps court financier et temps long doctrinal, mais ils la rendent plus gérable. L’État peut, en théorie, remplacer une brique sans casser l’ensemble. Et le capital peut se concentrer sur des modules identifiables plutôt que sur des mégaprogrammes monolithiques.

BFM, 2025.

Jungle et zoo ou concilier l’inconciliable

On décrit parfois la situation actuelle comme la rencontre d’un « zoo » – celui des grands programmes, très régulés, très documentés, pensés pour durer – et d’une « jungle » peuplée d’insurgés technologiques, financés par les VC, en constante exploration.

Les nouveaux acteurs occupent des niches, souvent à la périphérie des grands programmes, mais avec un fort potentiel de diffusion. Pour l’instant, une grande partie d’entre eux reste dépendante de tremplins publics (contrats d’étude, expérimentations, appels à projets). Le marché réel, celui des grands volumes, demeure largement capté par les industriels historiques.

Dans le même temps, et le point est clé, les investisseurs privés se concentrent progressivement sur des profils plus mûrs : des entreprises qui ont déjà fait la preuve de leur solidité technique, de leur capacité à dialoguer avec les armées, de leur compréhension des contraintes réglementaires. On s’éloigne du fantasme de la start-up de défense sortie de nulle part pour se rapprocher d’acteurs hybrides, où se mêlent les cultures tech, industrielle et stratégique. Dit autrement, malgré le marketing ambiant, les investisseurs préfèrent accélérer des sociétés ayant une forme de maturité plutôt qu’une forme de risque extrême à tout va.

Quelles réponses européennes ?

Pour l’Europe, l’enjeu n’est pas de choisir entre la jungle et le zoo, ni de rêver à une table rase. Il est d’apprendre à articuler ces deux univers :

  • en assumant plus clairement une politique industrielle de défense, qui fixe des priorités et des lignes rouges ;

  • en construisant des passerelles institutionnelles et financières entre fonds souverains, VC et industriels historiques ;

  • en pensant la souveraineté non seulement en termes de plates-formes matérielles, mais aussi en termes d’architectures logicielles, de données, de standards.

Le « complexe technocapitaliste » ne supprime pas le complexe militaro-industriel. Il le met à l’épreuve, l’oblige à se transformer et offre, si l’on sait le canaliser, de nouveaux leviers pour renforcer une souveraineté européenne qui ne peut plus se contenter de dépendre des choix technologiques et politiques des autres.

The Conversation

Nicolas Minvielle est membre du comité d’orientation de La Fabrique de la Cité, et du collectif Making Tomorrow

Marie Roussie travaille au sein de Alt-a et est membre du Collectif Making Tomorrow.

ref. Du technocapitalisme aux Venture Capitals : la grande transformation des industries de défense – https://theconversation.com/du-technocapitalisme-aux-venture-capitals-la-grande-transformation-des-industries-de-defense-273707

Taxe Gafam : le Conseil constitutionnel consacre un régime fiscal spécifique pour les plateformes numériques

Source: The Conversation – France (in French) – By Grégoire Rota-Graziosi, Professeur CERDI-UCA-CNRS-IRD, Université Clermont Auvergne (UCA)

Le Conseil constitutionnel français admet qu’une activité numérique relève du champ de l’impôt taxé dans la juridiction des utilisateurs. ToninT/Shutterstock

Le 12 septembre 2025, le Conseil constitutionnel français approuve une taxe sur les services numériques (TSN). Il assume l’existence d’un régime fiscal distinct applicable aux grandes plateformes numériques, sans rupture d’égalité devant l’impôt. Une révolution copernicienne ? Oui, car l’impôt n’est plus fondé sur la localisation des entreprises, mais sur celle de ses utilisateurs. En l’occurrence, en France et non aux États-Unis.


Un clic à Paris. Une réservation à Milan. Une vidéo à Londres. Trois gestes anodins, trois fractions de seconde offertes aux plateformes. Pour les marchés financiers, ces actes valent des milliards. Pour les administrations fiscales, ils ne valaient presque rien, les entreprises concernées évitant l’imposition de leurs bénéfices respectifs par des pratiques d’optimisation fiscale.

Pour y remédier, les autorités françaises ont introduit une taxe sur les services numériques (TSN) en 2019 comme une mesure transitoire pour appréhender les bénéfices réalisés en France par les entreprises multinationales dites du « numérique ». Elle rapporterait environ 700 millions d’euros en 2024.

Cette taxe initialement de 3 % s’applique sur le chiffre d’affaires des plateformes de services numériques – intermédiation, publicité ciblée, vente de données, etc.

Comment fonctionne concrètement cette taxe Gafam ? Quelles implications sur notre économie ? Pourquoi

Seule la juridiction des utilisateurs compte

Le 12 septembre 2025, le Conseil constitutionnel admet qu’une activité purement numérique – l’interaction entre une plateforme et ses utilisateurs situés en France – relève du champ de l’impôt. L’absence d’un établissement stable – usine, bureau ou filiale – ne fait plus obstacle à l’imposition des revenus issus d’utilisateurs localisés en France. Cette décision consacre une évolution majeure : une activité immatérielle est localisée par ses utilisateurs justifiant son imposition par la juridiction (pays) de ces derniers.

En reconnaissant ce principe, le Conseil donne un socle constitutionnel à la taxe sur les services numériques (TSN) française et, au-delà, à une fiscalité de l’usage. La présence économique ne se mesure plus en mètres carrés, en nombre de salariés, en valeur des immobilisations corporelles mais en interactions, en données et en attention des utilisateurs.

Cette décision considère l’activité numérique des utilisateurs comme une base fiscale autonome. Elle constitue une rupture discrète, mais historique, dans un débat planétaire portant sur la source de valeur à l’ère numérique.

Les États-Unis vent debout contre cette réforme

Le retrait des États-Unis en janvier 2025 du Global Tax Deal a ravivé la pertinence de solutions unilatérales.

Le 2 décembre 2019, les États-Unis avaient rapidement réagi à l’adoption par la France, en juillet de la même année, de la loi créant la taxe sur les services numériques, en menaçant de rétorsion tarifaire non seulement la France, mais aussi d’autres pays ayant adopté une taxe similaire, comme le Royaume-Uni, l’Espagne, l’Autriche et l’Italie.

L’Organisation de coopération et de développement économiques (OCDE) est alors chargée de trouver une solution multilatérale dans le cadre des règles globales anti-érosion de la base imposable. La solution proposée repose sur deux piliers :

  • La (ré)allocation d’une partie des profits résiduels des grandes multinationales, en particulier numériques, vers les juridictions de marché indépendamment de la présence physique ;

  • L’instauration d’un impôt minimum mondial sur les sociétés, afin de limiter la concurrence fiscale et l’érosion des bases. L’administration de Donald Trump a rejeté en janvier 2025 cette solution et leurs engagements antérieurs dans l’accord de l’OCDE datant de 2021.

Dans ce contexte, la décision du Conseil constitutionnel rapproche la France de la position des Nations unies, sans rompre avec celle de l’OCDE. Dès 2021, l’article 12B du Modèle de Convention fiscale de l’ONU autorise les États à imposer les revenus tirés des « services automatisés fournis à distance », comme le cloud, le streaming, les logiciels, la publicité en ligne, les moteurs de recherche ou les plateformes. Cette approche protège davantage les intérêts des pays du Sud, davantage de consommateurs de services numériques que les « producteurs » de ceux-ci ou les hébergeurs des sièges des entreprises multinationales du numérique.

« Servicisation numérique »

La définition de l’assiette taxable des services numériques est sensiblement plus large dans l’approche des Nations unies que dans les législations fiscales européennes.

L’intérêt de cette définition étendue est d’anticiper les évolutions industrielles actuelles et futures comme la « servicisation numérique ». Cette dernière désigne le passage de la vente de produits physiques à celle de services numériques. Par exemple, la valeur d’un équipement industriel ne repose pas tant sur celle de l’équipement physique que sur les services numériques dédiés à la performance de l’équipement.

La « servicisation numérique » transfère la création de valeur et de profits d’actifs physiques vers des actifs intangibles, comme des droits de propriété intellectuelle ou des services numériques. Le transfert des bénéfices vers des centres étrangers de services numériques localisés dans des pays à faible fiscalité participe à l’érosion des bénéfices imposables.

La taxe sur les services numériques (TSN) devient un moyen de limiter le risque de transfert de profits qui concerne la plupart des secteurs économiques.

Taxation optimale

Par sa forme, la taxe sur les services numériques est simple. Elle repose sur le chiffre d’affaires réalisé dans le pays où habite l’utilisateur. Cette forme évite la renégociation des conventions fiscales bilatérales.

Elle reste critiquée par les partisans de la théorie de la taxation optimale. Pourquoi ? Parce qu’elle réduit l’efficience de la production en taxant chaque transaction, en ignorant les marges bénéficiaires qui varient d’une entreprise à l’autre.

Par exemple, une taxe de 3 % sur le chiffre d’affaires d’une entreprise ayant une marge de 30 % correspond à une taxe de 10 % sur ses bénéfices. La même taxe appliquée à une entreprise moins profitable, ayant une marge de 5 % par exemple, supporterait alors une taxe de 60 % sur ses bénéfices.

Présence économique significative indienne

Son alternative est la présence économique significative (PES) introduite en Inde en 2018, puis au Nigeria notamment.

Ce régime taxe le profit supposé réalisé dans le pays. Si cette forme de taxation respecte davantage l’orthodoxie fiscale en taxant les bénéfices, elle est plus complexe à mettre en œuvre. Elle nécessite d’estimer non seulement le chiffre d’affaires réalisé dans le pays, mais également les coûts associés à l’activité dans le pays concerné.

L’article 12B du Modèle de Convention fiscale de l’ONU laisse le choix aux pays de taxer le chiffre d’affaires ou le profit.

La décision du Conseil constitutionnel a confirmé la compétence fiscale de l’État à taxer la valeur créée par un utilisateur français de services numériques d’entreprises étrangères. Cette décision ne règle pas toutes les difficultés, et de nouveaux défis et oppositions existent concernant la définition ou l’estimation de la valeur taxable.

Elle est pourtant une première étape vers un système fiscal à l’ère du numérique.


Cet article a été co-rédigé avec Abdel-Malek Riad, chercheur associé au CERDI–CNRS et président-directeur général d’AMR IM.

The Conversation

Grégoire Rota-Graziosi est membre de la FERDI. Il est expert en politique fiscales et assure des missions auprès d’institutions nationales, régionales ou internationales.

ref. Taxe Gafam : le Conseil constitutionnel consacre un régime fiscal spécifique pour les plateformes numériques – https://theconversation.com/taxe-gafam-le-conseil-constitutionnel-consacre-un-regime-fiscal-specifique-pour-les-plateformes-numeriques-268600

Géo-ingénierie marine : qui développe ces grands projets, et qu’y a-t-il à y gagner ?

Source: The Conversation – in French – By Manuel Bellanger, Chercheur en économie, Ifremer

L’océan joue un rôle important pour absorber le carbone présent dans l’atmosphère terrestre et le stocker. Des start-ups cherchent à favoriser ce stockage dans le but de limiter les impacts du changement climatique, mais l’efficacité et les risques de ces techniques sont mal connus. ESA, CC BY-SA

Le mot « géo-ingénierie » recouvre un grand nombre de techniques, du « parasol spatial », qui limite l’arrivée de lumière du soleil dans l’atmosphère, à l’ensemencement de l’océan pour lui faire absorber encore plus de carbone qu’il ne le fait naturellement.

Manuel Bellanger étudie à l’Ifremer le développement des techniques de géo-ingénierie marine avec son regard d’économiste. Cet interview, réalisée par Elsa Couderc, cheffe de rubrique Sciences et Technologies, constitue le second volet de « regards croisés » sur la géo-ingénierie climatique. Dans le premier, nous explorons avec Laurent Bopp, climatologue et académicien, les nouveaux risques climatiques que ces techniques pourraient faire émerger.


The Conversation : La géo-ingénierie marine est mal connue en France, pourtant elle se développe à l’étranger. Qui développe ces projets ?

Manuel Bellanger : En ce qui concerne l’océan, le spectre des acteurs et des techniques de géo-ingénierie est très varié.

Les initiatives les plus prudentes sont en général pilotées par des instituts de recherche, par exemple aux États-Unis ou en Allemagne. Leur finalité est plutôt de comprendre si ces interventions sont techniquement possibles : peut-on développer des méthodes pour capturer du CO₂ atmosphérique par l’océan, mesurer la quantité de carbone stockée durablement, vérifier les affirmations des différents acteurs, étudier les impacts écologiques, tenter de définir des bonnes pratiques et des protocoles ? Ces projets de recherche sont typiquement financés par des fonds publics, souvent sans objectif de rentabilité immédiate.

Il existe aussi des collaborations entre institutions académiques et partenaires privés et, enfin, à l’autre bout du spectre, un certain nombre de start-up qui font la promotion du déploiement rapide et massif de ces techniques.

Peut-on espérer gagner de l’argent grâce à la géo-ingénierie marine ?

M. B. : Le modèle économique de ces start-up repose sur la vente de crédits carbone qu’elles espèrent pouvoir mettre sur les marchés volontaires du carbone – c’est-à-dire qu’elles cherchent à vendre des certificats à des acteurs privés qui veulent compenser leurs émissions.

Pour cela, la séquestration doit être certifiée par des standards ou des autorités. Sachant qu’il y a aussi des initiatives privées qui développent des certifications… aujourd’hui, c’est un peu la jungle, les marchés volontaires du carbone. Et l’achat de ces crédits certifiés reste sur la base du volontariat, puisqu’il n’y a généralement pas d’obligation réglementaire pour les entreprises de compenser leurs émissions.

Pouvez-vous nous donner des exemples de telles start-up et l’état de leurs travaux ?

M. B. : Running Tide, aux États-Unis, a tenté de développer des crédits carbone issus de la culture d’algues sur des bouées biodégradables qui devaient couler sous leur propre poids dans les profondeurs abyssales. Mais ils ne sont pas parvenus à produire des quantités significatives d’algues. L’entreprise a finalement eu recours au déversement de milliers de tonnes de copeaux de bois dans les eaux islandaises pour essayer d’honorer les crédits carbone qu’ils avaient vendus. Mais les experts et observateurs ont critiqué le manque de preuves scientifiques montrant que cette approche permettait réellement de séquestrer du CO₂ et l’absence d’évaluation des impacts sur les écosystèmes marins. L’entreprise finalement a cessé ses activités en 2024 pour des raisons économiques.

Une start-up canadienne, Planetary Technology, développe une approche d’augmentation de l’alcalinité océanique visant à accroître l’absorption du CO₂ atmosphérique et son stockage à long terme sous forme dissoute dans l’océan. Pour cela, ils ajoutent à l’eau de mer du minerai alcalin, de l’hydroxyde de magnésium. Ils ont annoncé avoir vendu des crédits carbone, notamment à Shopify et British Airways.

Une autre société, californienne cette fois, Ebb Carbon, cherche également à augmenter l’alcalinité océanique, mais par électrochimie : ils traitent de l’eau de mer pour la séparer en flux alcalins et acides, puis renvoient la solution alcaline dans l’océan. Cette société a annoncé avoir signé un contrat avec Microsoft pour retirer des centaines de milliers de tonnes de CO₂ sur plusieurs années.

L’écosystème commercial fleurit déjà en Amérique du Nord, même si on n’en entend pas forcément parler ici.

Il y a aussi une sorte de fonds, appelé Frontier Climate, qui engage des contrats anticipés pour des tonnes de CO₂ qui seront retirées de l’atmosphère dans le futur : ils achètent par avance des crédits carbone à des sociétés qui sont en phase de développement et qui ne sont pas encore réellement en train de capturer et de séquestrer du carbone. Derrière ce fonds-là, il y a des géants de la tech, comme Google ou Facebook, parmi les membres fondateurs. On peut supposer que c’est une manière pour ces entreprises, qui ont une consommation énergétique assez importante, de s’acheter une vertu climatique. Donc, eux, ils ont déjà annoncé avoir acheté pour 1,75 million de dollars (plus de 1,5 million d’euros) de crédits carbone à des entreprises d’alcalinisation de l’océan.

Et pourtant, vous disiez tout à l’heure qu’on n’est pas encore sûrs de savoir mesurer scientifiquement si l’océan a bien absorbé ces tonnes de carbone.

M. B. : Effectivement, les bases scientifiques de ces techniques-là ne sont vraiment pas solides aujourd’hui. On ne sait pas encore quelles quantités de CO₂ elles vont permettre de capturer et de séquestrer et on ne sait pas non plus quels vont être les impacts sur l’environnement.




À lire aussi :
Géo-ingénierie climatique : de quoi parle-t-on ? Pour quelle efficacité et quels nouveaux risques ?


Et côté scientifique, il n’y a donc pour l’instant pas de consensus sur la capacité des techniques de géo-ingénierie marine à retirer suffisamment de carbone de l’atmosphère pour réellement freiner le changement climatique ?

M. B. : Il y a même pratiquement un consensus scientifique pour dire que, aujourd’hui, on ne peut pas présenter les techniques de géo-ingénierie marine comme des solutions. En fait, tant qu’on n’a pas drastiquement réduit les émissions de gaz à effet de serre, beaucoup considèrent qu’il est complètement futile de vouloir commencer à déployer ces techniques-là.

En effet, aujourd’hui, les ordres de grandeur évoqués (le nombre de tonnes que les entreprises annoncent séquestrer) n’ont rien à voir avec les ordres de grandeur qui permettraient de changer quoi que ce soit au climat. Par exemple, pour la culture de macroalgues, certaines modélisations estiment qu’il faudrait recouvrir 20 % de la surface totale des océans avec des fermes de macroalgues – ce qui est déjà presque absurde en soi – pour capturer (si ça marche) 0,6 gigatonne de CO₂ par an… à comparer aux 40 gigatonnes que l’humanité émet aujourd’hui chaque année. Si ces techniques pouvaient jouer un rôle dans le futur pour compenser les émissions que le Giec désigne comme « résiduelles » et « difficiles à éviter » (de l’ordre de 7 à 9 gigatonnes de CO₂ par an à l’horizon 2050) et atteindre des objectifs de neutralité carbone, les déployer aujourd’hui ne pourrait en aucun cas remplacer des réductions d’émissions rapides et massives.

Alors, qui pousse ces développements technologiques ?

M. B. : Un certain nombre d’initiatives semblent être poussées par ceux qui ont un intérêt au statu quo, peut-être même par certains qui n’auraient pas de réelle volonté de déployer la géo-ingénierie, mais qui ont un intérêt à faire diversion pour retarder l’action qui viserait à diminuer les émissions aujourd’hui.

On pense plutôt aux acteurs des énergies fossiles qu’aux géants de la tech, dans ce cas ?

M. B. : Les acteurs des énergies fossiles ont effectivement cet intérêt à retarder l’action climatique, mais ils sont de fait moins visibles aujourd’hui dans le financement direct des techniques de géo-ingénierie – il semble qu’ils soient plus dans le lobbying et dans les discours qui vont légitimer ce genre de techniques.

De fait, investir dans la géo-ingénierie ne fait-il pas courir le risque de détourner l’attention des citoyens et des gouvernements de l’urgence de réduire nos émissions de gaz à effet de serre ?

M. B. : C’est un risque clairement identifié dans la littérature scientifique, parfois sous le nom d’« aléa moral climatique », parfois d’« effet de dissuasion ». Derrière, il y a l’idée que la promesse de solutions technologiques futures, comme la géo-ingénierie marine, pourrait affaiblir la volonté politique ou sociétale de réduire les émissions dès maintenant. Donc le risque d’être moins exigeants envers nos décideurs politiques pour qu’ils tiennent les engagements climatiques et, in fine, que le décalage entre les objectifs et l’action climatique réelle soit toujours plus grand.

Par ailleurs, on a des ressources financières, ressources en main-d’œuvre, en expertise, qui sont somme toute limitées. Tout ce qui est investi dans la recherche et le développement ou pour l’expérimentation de ces technologies de géo-ingénierie peut se faire au détriment des ressources allouées pour les mesures d’atténuation connues et démontrées : l’efficacité énergétique, les énergies renouvelables, la sobriété. On sait que ces solutions fonctionnent : ce sont elles qu’il faudrait mettre en œuvre le plus rapidement.

La priorité absolue – on n’arrête pas de le répéter –, c’est la diminution rapide des émissions de gaz à effet de serre. Donc la position de la plupart des scientifiques, c’est que ces techniques de géo-ingénierie marine devraient être explorées d’un point de vue de la recherche, par exemple pour évaluer leur efficacité et leurs effets environnementaux, économiques et sociaux, de manière à éclairer les choix politiques et sociétaux à venir. Mais, encore une fois, aujourd’hui la géo-ingénierie marine ne peut pas être présentée comme une solution à court terme.

C’est pour cela que la communauté scientifique appelle à une gouvernance internationale de la géo-ingénierie, avant un déploiement massif de ces techniques. Quelles instances internationales seraient à même de mener une gouvernance sur le sujet ?

M. B. : Il faut en effet que les États s’impliquent fortement dans la gouvernance de la géo-ingénierie, et il faut des traités internationaux. Pour l’instant, c’est assez fragmenté entre différents instruments juridiques, mais il y a ce qu’on appelle le protocole de Londres, adopté en 1996, pour éviter la pollution en mer par dumping (le fait de pouvoir décharger des choses en mer). Ce protocole permet déjà en partie de réguler les usages de géo-ingénierie marine.

Par exemple, la fertilisation des océans par ajout de fer visant à stimuler le phytoplancton qui capture le CO₂ par photosynthèse. Cette technique rentre dans le cadre existant du protocole de Londres, qui interdit la fertilisation de l’océan à des fins commerciales et impose un cadre strict pour la recherche scientifique depuis plus d’une quinzaine d’années. Le protocole pourrait être adapté ou amendé pour réguler d’autres techniques de géo-ingénierie marine, ce qui est plus facile que de créer un nouveau traité international.

Les COP sur le climat sont aussi importantes pour deux raisons : elles rassemblent plus de nations que le protocole de Londres, et elles sont le cadre privilégié pour discuter des marchés carbone et donc pour éviter la prolifération d’initiatives commerciales non contrôlées, pour limiter les risques environnementaux et les dérives du type crédits carbone douteux.

Il y a des précédents avec ce qu’il s’est passé sur les crédits carbone forestiers : une enquête publiée par le Guardian en 2022 a montré que plus de 90 % des projets certifiés par Verra – le principal standard mondial – n’ont pas empêché la déforestation ou ont largement surévalué leurs bénéfices climatiques. Sans encadrement, la géo-ingénierie marine pourrait tout à fait suivre le même chemin.

Enfin, il y a bien sûr des enjeux d’équité, si ceux qui mettent en œuvre une action ne sont pas ceux qui risquent de subir les impacts ! Là aussi, il y a des précédents observés sur des projets forestiers certifiés pour générer des crédits carbone, où les bénéfices économiques sont captés par les investisseurs tandis que les communautés locales subissent des restrictions d’accès aux ressources forestières ou sont exposées à des changements dans leur mode de vie.

Concrètement, quels sont les risques pour les populations qui vivent à proximité de l’océan ou s’en servent de ressource nourricière, par exemple ?

M. B. : Ça dépend vraiment de la technique de géo-ingénierie utilisée et de l’endroit où ça va être déployé. Par exemple, si on imagine un déploiement massif de cultures d’algues, ça pourrait modifier les écosystèmes côtiers, et par ailleurs générer une concurrence pour l’espace avec la pêche ou l’aquaculture traditionnelle.

Sur les littoraux, où les activités maritimes sont souvent très denses, il y a déjà des conflits d’usage, que l’on observe par exemple dans les tensions autour des installations de parcs éoliens en mer.


Propos recueillis par Elsa Couderc.

The Conversation

Manuel Bellanger a reçu des financements dans le cadre du programme ANR n° 21-POCE-0001 PPR Océan & Climat.

ref. Géo-ingénierie marine : qui développe ces grands projets, et qu’y a-t-il à y gagner ? – https://theconversation.com/geo-ingenierie-marine-qui-developpe-ces-grands-projets-et-quy-a-t-il-a-y-gagner-272385

Les crocodiles, des reptiles loquaces et à l’écoute du monde

Source: The Conversation – in French – By Nicolas Mathevon, Professeur (Neurosciences & bioacoustique – Université de Saint-Etienne, Ecole Pratique des Hautes Etudes – PSL & Institut universitaire de France), Université Jean Monnet, Saint-Étienne

S’ils sont discrets, les crocodiles sont aussi bavards entre eux, et ce, avant même l’éclosion de l’œuf. Nicolas Mathevon/Université Jean-Monnet, Fourni par l’auteur

On l’imagine chasseur solitaire et discret, constamment à l’affût d’une proie. Pourtant, l’armure d’écailles du crocodile dissimule une vie sociale complexe. Tendez l’oreille : le seigneur des fleuves a beaucoup à dire.


Lorsque l’on se représente un crocodile, on pense à un prédateur silencieux, un tronc d’arbre flottant au milieu du fleuve, attendant patiemment qu’une proie s’approche pour faire brusquement claquer ses mâchoires. Cette image, bien que partiellement vraie – il est sagement déconseillé de nager au milieu de crocodiles –, occulte une réalité biologique fascinante : les crocodiliens (crocodiles, alligators, caïmans et gavials) sont les reptiles les plus vocaux et les plus sociaux de la planète.

Ces animaux possèdent un système de communication acoustique sophistiqué et une ouïe d’une finesse redoutable, peut-être hérités de leurs ancêtres communs avec les oiseaux et les dinosaures. Depuis près de trois décennies, notre équipe de recherche en bioacoustique s’attelle à décoder ce qu’ils disent et à comprendre comment ils perçoivent leur environnement sonore. Voici ce que nos études révèlent du monde sonore des crocodiliens.

La première conversation : parler depuis l’œuf

L’histoire acoustique d’un crocodile commence avant sa naissance. Contrairement à la majorité des reptiles qui pondent leurs œufs et les abandonnent, les mères ou les pères crocodiliens montent la garde près du nid. Mais comment savoir quand les petits sont prêts à sortir, enfouis sous des dizaines de centimètres de sable ou de végétation ? Nos recherches ont démontré que les embryons de crocodiles ne sont pas passifs. Lorsqu’ils sont prêts à sortir de l’œuf, après trois mois d’incubation, ils commencent à émettre des vocalisations particulières, appelées cris d’éclosion.

Les cris d’éclosion des petits crocodiles encore dans l’œuf.
Nicolas Mathevon/Université Jean-Monnet, Fourni par l’auteur91,5 ko (download)

Ces sons, audibles à travers la coquille et à l’extérieur du nid, remplissent une double fonction. D’une part, ils s’adressent à la fratrie. Lors d’expériences consistant à émettre des sons depuis un haut-parleur près d’œufs de crocodiles du Nil prêts à éclore, nous avons observé que l’audition de ces cris incite les autres embryons à vocaliser à leur tour et à briser leur coquille. Ce mécanisme permet de synchroniser l’éclosion : toute la nichée va sortir ensemble. Pour des proies aussi vulnérables que des nouveau-nés de quelques dizaines de grammes, c’est une belle stratégie de survie face aux prédateurs.

D’autre part, ces cris sont un signal impérieux pour la mère ou le père. Une femelle crocodile qui monte la garde depuis trois mois réagit immédiatement à l’audition de ces cris d’éclosion : elle se met à creuser le nid avec ses pattes. Sans ce comportement parental en réponse à leur signal sonore, les petits resteraient prisonniers sous terre.

Cependant, la mère ne réagit pas au premier petit bruit venu. Nos expériences sur le crocodile du Nil ont montré que la femelle réagit à des cris isolés par des mouvements de tête, enfouissant son museau dans le sol comme pour en sentir les vibrations, mais elle ne commence à creuser activement que si les cris forment une séquence continue et rythmée. Ceci évite à la femelle d’ouvrir le nid trop tôt pour un seul petit précocement bavard, ce qui mettrait en danger le reste de la couvée.

Le langage des jeunes crocos

Une fois sortis de l’œuf et délicatement transportés à l’eau dans la gueule de leurs parents, les jeunes crocodiliens restent groupés en crèches sous la protection de l’adulte pendant des semaines, voire des mois. Durant cette période, la communication acoustique entre parent et jeunes est vitale.

Le répertoire vocal des juvéniles est structuré autour de deux types de signaux principaux : les cris de contact et les cris de détresse. Le cri de contact est utilisé pour maintenir la cohésion du groupe de jeunes. C’est un son d’intensité assez faible et dont la fréquence varie peu. Le cri de détresse, lui, est émis lorsqu’un jeune est saisi par un prédateur. Il est plus fort et sa fréquence est plus modulée. Il présente souvent une structure acoustique plus chaotique, ce qui le rend un peu rugueux à l’oreille.

La tête d’un jeune crocodile qui dépasse de l’eau
Les jeunes crocodiles s’expriment, soit pour signaler un danger, soit pour maintenir la cohésion du groupe.
Nicolas Mathevon/Université Jean-Monnet, Fourni par l’auteur

La mère sait faire la différence : un cri de contact suscite une simple attention, tandis qu’un cri de détresse déclenche une réaction agressive de défense immédiate. Mais un parent reconnaît-il la voix de ses petits ? Visiblement pas : nos analyses acoustiques des crocodiles du Nil indiquent qu’il n’y a pas de signature vocale chez les nouveau-nés qui permettrait aux parents de les identifier individuellement. En revanche, nous avons découvert que plus le crocodile est petit, plus le cri est aigu. Lors d’expériences réalisées dans la nature, les mères crocodiles du Nil ont réagi plus intensément aux cris les plus aigus. C’est logique : les plus petits sont les plus vulnérables aux prédateurs et nécessitent une protection accrue.

La tête d’un crocodile adulte dépasse de l’eau. Autour d’elle, de très jeunes crocodiles se confondent avec des plantes aquatiques
Les parents, ici une femelle, surveillent leurs jeunes au sein de crèches et restent attentifs à leurs vocalisations.
Nicolas Mathevon/Université Jean-Monnet, Fourni par l’auteur

Une ouïe entre l’eau et l’air

Le crocodile est un animal amphibie, vivant à l’interface entre l’air et l’eau, mondes aux propriétés acoustiques radicalement différentes. Mais son audition est d’abord aérienne. Lorsque le crocodile flotte, immobile, ce qui est sa position favorite pour attendre une proie, ses oreilles se trouvent juste au-dessus de la ligne de flottaison. Si l’animal plonge, une paupière vient protéger l’oreille, et l’on ne sait pas encore si les crocodiles entendent bien sous l’eau.

La tête d’un caïman yacare qui sort de l’eau
Un yacare à l’affut. Ce caïman, comme les autres crocodiliens, garde ses oreilles juste au-dessus de l’eau lorsqu’il s’immerge.
Nicolas Mathevon/Université Jean-Monnet, Fourni par l’auteur

Comment un animal dont la tête est à moitié immergée fait-il pour localiser une proie, un petit ou un rival ? Chez l’humain ou d’autres mammifères et oiseaux, la localisation repose sur deux indices principaux : le son arrive plus vite à l’oreille tournée vers la source et est également plus fort, puisque la tête fait écran. Dans des expériences, nous avons entraîné des crocodiles à se diriger vers des haut-parleurs pour obtenir une récompense, et les résultats montrent qu’ils utilisent également ces deux sources d’information. Pour les sons graves, ils se fient surtout au temps ; pour les aigus, ils utilisent plutôt la différence d’intensité.

Distinguer dans le bruit

Les crocodiliens vivent souvent dans des environnements bruyants. Pour survivre, ils doivent être capables d’isoler un signal pertinent du bruit de fond, mais aussi d’identifier ce qu’ils entendent. Un bruit dans les roseaux est-il une proie ou un congénère ? Au laboratoire, nous avons découvert quel paramètre acoustique ils utilisent pour faire cette distinction. Ce n’est pas la hauteur du son ni son rythme mais l’enveloppe spectrale, c’est-à-dire le timbre du son. C’est exactement le même paramètre que nous, humains, utilisons pour distinguer les voyelles (« a » ou « o ») ou pour reconnaître la voix de quelqu’un au téléphone. Et la catégorisation des sons opérée par les crocodiles n’est pas totalement figée, elle peut être affinée par l’apprentissage, preuve d’une vraie plasticité cognitive.

En particulier, les crocodiles savent reconnaître et sont particulièrement appâtés par les signaux de détresse d’autres animaux. Quand on diffuse des enregistrements de pleurs de bébés humains, bonobos ou chimpanzés à des crocodiles du Nil, les résultats sont frappants : les crocodiles sont très fortement attirés par ces pleurs. Mais pas n’importe comment.

Les humains jugent la détresse d’un bébé principalement à la hauteur de son cri (plus c’est aigu, plus on pense que le bébé exprime de la douleur). Les crocodiles, eux, se basent sur un critère acoustique plus fiable : le chaos, qui se traduit par la rugosité de la voix qui survient lorsque les cordes vocales sont poussées à leurs limites physiques sous l’effet du stress ou de la douleur.

Les crocodiles se sont donc révélés meilleurs que les humains pour évaluer le niveau de détresse des bébés, en particulier des bonobos. Là où nous surestimons la détresse des bonobos à cause de leurs cris suraigus, les crocodiles ne réagissent intensément qu’aux pleurs contenant beaucoup de chaos acoustique, signe d’une véritable urgence, et donc d’une proie vulnérable.

Entre congénère et proie, que privilégier ?

Si les jeunes crocodiliens sont particulièrement bavards, les adultes ne sont pas en reste. Les mères, et les pères pour les espèces où ils s’occupent de leur progéniture, émettent des grognements qui attirent les jeunes. Femelles et mâles adultes rugissent lors des parades nuptiales et pour défendre leur territoire. Lorsqu’ils se sentent menacés, les adultes peuvent souffler de manière bruyante, ce qui passe l’envie de les approcher. On observe cependant de grandes différences dans l’usage des signaux sonores entre les groupes de crocodiliens : si les alligators et les caïmans sont particulièrement vocaux, les autres crocodiles deviennent plus silencieux à l’âge adulte.

Le rugissement d’un caïman noir adulte.
Nicolas Mathevon/Université Jean Monnet, Fourni par l’auteur30,2 ko (download)

Imaginez un jeune crocodile affamé qui entend un congénère l’appeler, mais qui sent en même temps une odeur de viande. Que fait-il ? Nous avons testé ce conflit sensoriel. Les résultats montrent que l’état de satiété modifie la réponse comportementale. Un crocodile rassasié est très attentif aux sons sociaux : il se dirige vers les cris de contact de ses congénères. Un crocodile affamé privilégie la recherche d’une source de nourriture. Cela suggère une modulation de l’attention : la priorité de l’animal peut basculer selon les besoins physiologiques.

Loin de l’image du monstre primitif, le crocodile est un animal doté d’une vie sensorielle et cognitive riche. Il naît dans un monde sonore, synchronisant son éclosion avec ses frères et sœurs. Il communique avec l’adulte qui s’occupe de lui pour obtenir protection. Il analyse son environnement sonore avec des outils sophistiqués (localisation binaurale, démasquage spatial) dignes des oiseaux ou des mammifères. Il catégorise les sons sur la base de leur timbre pour distinguer les congénères des en-cas. Et il est même capable d’évaluer le niveau de détresse dans la voix d’autres espèces.


Ces études sur les crocodiles ont impliqué de nombreux collaborateurs et collaboratrices, dont Thierry Aubin (CNRS), Nicolas Grimault (CNRS), Nicolas Boyer (Université de Saint-Étienne), Amélie Vergne, Léo Papet, Julie Thévenet et Naïs Caron-Delsbosc. Je remercie les parcs zoologiques La Ferme aux crocodiles (Pierrelatte, France) et Crocoparc (Agadir, Maroc) pour leur soutien.

The Conversation

Nicolas Mathevon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les crocodiles, des reptiles loquaces et à l’écoute du monde – https://theconversation.com/les-crocodiles-des-reptiles-loquaces-et-a-lecoute-du-monde-271640

Des éclairs détectés sur Mars pour la toute première fois

Source: The Conversation – in French – By Baptiste Chide, Chargé de Recherche CNRS à l’IRAP (Université de Toulouse, CNES), Observatoire Midi-Pyrénées

Pour la première fois, un microphone placé sur le rover Perseverance de la Nasa a permis de découvrir l’existence de petites décharges électriques dans les tourbillons et les tempêtes martiennes de poussière. Longtemps théorisés, ces petits éclairs sur Mars deviennent une réalité grâce à des enregistrements acoustiques et électromagnétiques inédits que nous venons de publier dans la revue Nature. Cette découverte, aux conséquences multiples sur nos connaissances de la chimie et de la physique ainsi que sur le climat de la planète rouge, révèle de nouveaux défis pour les futures missions robotiques et habitées.


Un souffle de vent martien, et soudain, un claquement sec : les dust devils, ces tourbillons de poussière qui parcourent la planète rouge, viennent de nous livrer un secret bien gardé : ils sont traversés de petits arcs électriques ! Ils ont été vus, ou plutôt entendus, de manière totalement fortuite, grâce au microphone de l’instrument SuperCam sur le rover Perseverance qui sillonne Mars depuis 2020.

Ce microphone est notre oreille à la surface de Mars. Il alimente depuis 2021 une « playlist » de plus de 30 heures composée de brefs extraits quotidiens du paysage sonore martien : le microphone est allumé environ 3 minutes tous les deux jours, pour des raisons de partage du temps du rover avec les autres instruments.

Un jackpot scientifique

Parmi ses morceaux les plus écoutés ? Le ronflement basse fréquence du souffle du vent, le crépitement aigu des grains de sable et les grincements mécaniques des articulations du robot. Mais le dernier titre de cette compilation d’un autre monde est une pépite : un dust devil capté en direct alors qu’il passait au-dessus de notre microphone. Qu’un dust devil passe au-dessus de Perseverance, ce n’est pas forcément exceptionnel – ils sont très actifs dans le cratère de Jezero où est posé Perseverance. Mais, qu’il survole le rover à l’instant même où le microphone est allumé, cela relève du jackpot scientifique.

Le son du tout premier éclair enregistré sur Mars.
NASA/JPL-Caltech/LANL/CNES/CNRS/IRAP, Fourni par l’auteur214 ko (download)

Au cœur de cet enregistrement se cachait un signal fort que nous avons peiné à interpréter. Notre première hypothèse fut celle d’un gros grain de sable ayant impacté la zone proche de la membrane du microphone. Quelques années plus tard, alors que nous assistions à une conférence sur l’électricité atmosphérique, nous avons eu une illumination : s’il y avait des décharges sur Mars, la façon la plus directe de les détecter serait de les écouter parce qu’aucun autre instrument à bord de Perseverance ne permet d’étudier les champs électriques.

Évidemment, l’enregistrement le plus favorable pour vérifier cette hypothèse était précisément celui-ci. Réexaminé à la lumière de cette interprétation, il correspondait bien au signal acoustique d’une décharge électrique. Ce n’était pas tout !

Cette onde de choc était précédée d’un signal étrange qui ne ressemblait pas à quelque chose de naturel mais qui provenait en réalité de l’interférence électromagnétique de la décharge avec l’électronique du microphone. Nous savions que celle-ci était sensible aux ondes parasites, mais nous avons tourné ce petit défaut à notre avantage. Grâce à la combinaison de ces deux signaux, tout était devenu clair : nous avions détecté pour la première fois des arcs électriques sur Mars. Pour en être absolument convaincus, nous avons reproduit ce phénomène en laboratoire à l’aide de la réplique de l’instrument SuperCam et d’une machine de Wimshurst, une expérience historiquement utilisée pour générer des arcs électriques. Les deux signaux – acoustique et électromagnétique – obtenus étaient rigoureusement identiques à ceux enregistrés sur Mars.

En soi, l’existence de ces décharges martiennes n’est pas si surprenante que cela : sur Terre, l’électrification des particules de poussière est bien connue, notamment dans les régions désertiques, mais elle aboutit rarement à des décharges électriques. Sur Mars en revanche, l’atmosphère ténue de CO2 rend ce phénomène beaucoup plus probable, la quantité de charges nécessaire à la formation d’étincelles étant beaucoup plus faible que sur Terre. Cela s’explique par le frottement de minuscules grains de poussière entre eux, qui se chargent en électrons puis libèrent leurs charges sous forme d’arcs électriques longs de quelques centimètres, accompagnés d’ondes de choc audibles. Le vrai changement de paradigme de cette découverte, c’est la fréquence et l’énergie de ces décharges : à peine perceptibles, comparables à une décharge d’électricité lorsqu’on touche une raquette à moustiques, ces étincelles martiennes sont fréquentes, en raison de l’omniprésence de la poussière sur Mars.

Des implications au niveau du climat martien

Ce qui est fascinant, c’est que cette découverte intervient après des décennies de spéculations sur l’activité électrique martienne, touchant une arborescence de phénomènes encore peu ou mal expliqués. Par exemple, l’activité électrique de la poussière a longtemps été suspectée de fournir un moyen très efficace pour soulever la poussière du sol martien. Les champs électriques derrière les arcs électriques entendus sur Mars sont a priori suffisamment forts pour faire léviter la poussière.

En absorbant et en réfléchissant la lumière solaire, la poussière martienne contrôle la température de l’air et intensifie la circulation atmosphérique (les vents). Et parce que les vents contrôlent en retour le soulèvement de la poussière, la boucle de rétroactions poussière-vent-poussière est à l’origine des tempêtes globales qui recouvrent intégralement la planète de poussière tous les 5 ou 6 ans. Vu l’importance de la poussière dans le climat martien, et alors que les meilleurs modèles ne savent pas encore prédire correctement son soulèvement, les forces électrostatiques ne pourront plus être ignorées dans le cycle global de la poussière sur Mars.

Expliquer la disparition du méthane

L’autre sujet qui attire les regards des scientifiques concerne le très controversé méthane martien. La communauté débat depuis plus de vingt ans à son sujet en raison de ses implications potentielles, à savoir une activité géophysique ou biologique éventuelle sur Mars, deux hypothèses fascinantes.

Au-delà du caractère énigmatique de ses détections sporadiques, sa disparition – des centaines de fois plus rapide que ce que prédisent les modèles de chimie atmosphérique les plus sophistiqués – a longtemps laissé les experts circonspects. L’un des mécanismes de destruction du méthane les plus prometteurs, proposé il y a une vingtaine d’années, fait précisément intervenir l’action de champs électriques intenses sur la chimie atmosphérique. En accélérant ions et électrons, ces champs permettent de casser les molécules de méthane, mais surtout celles de la vapeur d’eau, produisant ainsi de puissantes espèces réactives capables de détruire le méthane bien plus efficacement encore.

Qui plus est, la présence d’arcs électriques à l’échelle planétaire pourrait s’avérer déterminante dans la préservation de la matière organique. Des expériences de laboratoire ont montré la destruction brutale de biomarqueurs causée par le recyclage d’espèces chlorées induite par l’activité électrostatique de la poussière.

On le voit, la portée de ces nouveaux sons martiens dépasse largement le seul cadre de la communication grand public. Ils redessinent plusieurs pans de notre compréhension de Mars et ouvrent un nouveau champ d’investigations, qui nécessitera un nombre accru d’observations.

Peut-être lors de futures missions ? L’ESA avait déjà tenté l’expérience – sans succès – avec l’atterrisseur Schiaparelli, qui devait réaliser les premières mesures des champs électriques martiens avant de s’écraser à la surface de la planète. L’exploration future, humaine ou non, se devra de mieux caractériser ces champs pour mieux cerner leurs implications. D’ici là, Perseverance restera l’unique témoin in situ de ce phénomène qui est sans doute loin de nous avoir tout révélé.

The Conversation

Franck Montmessin a reçu des financements de l’ANR et du CNES.

Baptiste Chide ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Des éclairs détectés sur Mars pour la toute première fois – https://theconversation.com/des-eclairs-detectes-sur-mars-pour-la-toute-premiere-fois-272864

Géo-ingénierie climatique : de quoi parle-t-on ? Pour quelle efficacité et quels nouveaux risques ?

Source: The Conversation – in French – By Laurent Bopp, Directeur de recherche, Centre national de la recherche scientifique (CNRS); École normale supérieure (ENS) – PSL; Académie des sciences

L’idée d’injecter des aérosols dans l’atmosphère pour imiter l’effet des éruptions volcaniques et masquer les rayons du Soleil n’est pas nouvelle, mais elle nous expose au risque de « choc terminal » : un réchauffement brutal si l’injection venait à s’arrêter. Ici, une éruption du volcan Tonga, dans le Pacifique. Goes-West Satellite/NOAA/RAMMB/CIRA, CC BY

La « géo-ingénierie climatique » recouvre un ensemble de techniques qui visent à manipuler le climat à grande échelle afin d’éviter les risques du changement climatique. Ces techniques sont très variées, depuis les parasols spatiaux pour limiter l’arrivée des rayons du soleil dans l’atmosphère jusqu’à la fertilisation des océans pour que le phytoplancton consomme davantage de CO₂, en passant par la restauration et la conservation de zones humides où le carbone est stocké de façon préférentielle.

En octobre 2025, l’Académie des sciences a publié un rapport qui détaille ce que l’on sait et ce que l’on ignore encore sur les éventuels bénéfices de ces techniques et sur les nouveaux risques qu’elles font surgir.

Elsa Couderc, cheffe de rubrique Sciences et Technologies, explore ici avec Laurent Bopp, climatologue et académicien, les nouveaux risques climatiques que ces techniques pourraient faire émerger. Le second volet de ces « regards croisés » est un entretien avec Manuel Bellanger, qui étudie à l’Ifremer le développement des techniques de géo-ingénierie marine avec un regard d’économiste.


The Conversation : Pourquoi l’Académie des sciences s’empare-t-elle aujourd’hui du sujet de la géo-ingénierie climatique, alors qu’on en parle relativement peu en France ?

Laurent Bopp : Le sujet est de plus en plus présent dans la littérature scientifique, dans le débat scientifique et dans le débat politique qui entoure les discussions sur le changement climatique. On ne s’en rend pas bien compte en France, mais aux États-Unis, en Angleterre, en Allemagne, au Canada, le débat est beaucoup plus présent.

Certains climatologues, y compris de renom, se prononcent pour faire beaucoup plus de recherches sur ces technologies, mais aussi parfois pour envisager leur déploiement à grande échelle afin d’éviter un réchauffement trop important. L’argument est simple : un niveau de réchauffement trop élevé génère des risques importants et pourrait conduire au dépassement de certains points de bascule potentiels dans le système climatique, par exemple une fonte irréversible des calottes glaciaires du Groenland et de l’Antarctique, ce qui pourrait entraîner une élévation du niveau de la mer de plusieurs mètres additionnels.

En France, nous avons besoin collectivement de plus d’informations et de plus de débats autour de ces techniques. Nous avons eu le sentiment que certains de nos représentants se sont retrouvés en partie dépourvus dans des arènes de négociations internationales, face à des représentants d’autres gouvernements qui ont un agenda très agressif sur ces technologies. C’est sans doute une des raisons pour lesquelles l’Académie des sciences s’est emparée du sujet.

L’idée des interventions de géo-ingénierie climatique, c’est de réduire les risques liés au changement climatique. Mais ces interventions pourraient-elles induire de nouveaux risques et lesquels ?

L. B. : Un des intérêts de ce rapport, c’est de mettre la lumière sur ces nouveaux risques.

Mais, avant de rentrer dans le détail, il faut, quand nous parlons de géo-ingénierie climatique, distinguer deux grandes catégories de techniques – ces deux catégories sont fondées sur des approches très différentes et présentent des risques, là aussi, très différents.

Pour la première de ces catégories, il s’agit de modifier de façon assez directe le rayonnement solaire. On parle en anglais de Solar Radiation Management ou SRM. Dans ce cas-là, l’action s’apparente plutôt à une sorte de pansement sur la plaie d’une blessure, sans s’attaquer du tout à la cause du changement climatique : l’idée est de refroidir la Terre de façon artificielle, en utilisant par exemple des particules atmosphériques ou des miroirs spatiaux qui limiteraient la pénétration du rayonnement solaire jusqu’à la surface de la Terre. Ce refroidissement pourrait compenser, en partie au moins, le réchauffement lié aux gaz à effet de serre qui continueraient à augmenter dans l’atmosphère.

L’injection d’aérosols dans la haute atmosphère vise à imiter des éruptions volcaniques de très grande taille qui, par le passé, ont pu refroidir la Terre. Une des limites premières de cette approche, c’est que cette façon de refroidir la Terre est très différente de la façon dont elle se réchauffe aujourd’hui à cause des gaz à effet de serre : les échelles de temps et les échelles spatiales associées sont très différentes, et cela engendre un certain nombre de conséquences. Les risques sont à lire en fonction de ces deux échelles.

Les aérosols que l’on pourrait injecter dans la haute atmosphère ont une durée de vie courte. Ils vont disparaître de l’atmosphère assez rapidement, tandis que les gaz à effet de serre qui réchauffent le système Terre, le CO₂ en particulier, sont dans l’atmosphère pour très longtemps.

Cette différence majeure entraîne l’un des risques les plus préoccupants : le risque de « choc terminal ». Concrètement, si l’on décidait d’arrêter brutalement l’injection d’aérosols après s’être engagé dans ce type de stratégie
– et les raisons pourraient être multiples, qu’il s’agisse de problèmes de gouvernance, de financement ou de conflits internationaux – le réchauffement climatique jusque-là partiellement masqué réapparaîtrait d’un seul coup. On subirait alors, en très peu de temps, plusieurs années de réchauffement accumulé. On aurait des taux de réchauffement temporels très très rapides, et donc des conséquences sur la biodiversité ou sur les sociétés humaines difficiles à anticiper.

En d’autres termes, si le réchauffement arrive relativement lentement, la mise en place de mesures d’adaptation est possible ; s’il est très rapide, les conséquences sont potentiellement bien plus dévastatrices.

L’autre risque majeur est lié aux échelles spatiales : refroidir avec des aérosols par exemple, ce n’est pas du tout la même chose que ne pas refroidir en émettant moins de CO₂. Les effets régionaux du refroidissement vont être très différents de ce qu’ils auraient été si on avait réchauffé un peu moins. La localisation des précipitations, l’intensité de la mousson notamment ont des conséquences sur l’agriculture, sur la santé. Sur ces effets régionaux, il y a encore beaucoup d’incertitudes aujourd’hui, c’est quelque chose que les modèles décrivent moins bien que les effets temporels dont je parlais tout à l’heure.




À lire aussi :
Parasols géants et blanchiment du ciel : de fausses bonnes idées pour le climat


Face à ce risque majeur, l’Académie recommande d’arrêter le déploiement des techniques de modification du rayonnement solaire, et même les recherches sur cette technique de géo-ingénierie…

L. B. : Effectivement, notre rapport recommande de ne pas utiliser ces techniques, et nous allons même jusqu’à suggérer un traité international qui interdirait leur déploiement.

Nous pensons aussi qu’il ne faut pas financer, de façon importante, de la recherche qui soit spécifiquement fléchée sur ces techniques de modification du rayonnement solaire, pour éviter de légitimer ces approches trop dangereuses.

Bien sûr, nous avons besoin de bien plus de recherche sur le climat et sur les processus climatiques importants, donc sur les processus qui lient, par exemple, les aérosols dans la haute atmosphère avec la modification du rayonnement, mais nous pensons vraiment qu’il faut éviter les projets fondamentalement pensés pour pousser l’avènement de ces technologies. Les risques associés sont trop importants.

La géo-ingénierie climatique inclut une deuxième approche, celle qui consiste à augmenter l’efficacité des puits de carbone naturels, par exemple les forêts, les tourbières ou les océans qui absorbent naturellement du carbone. En quoi est-ce fondamentalement différent de la modification du rayonnement solaire ?

L. B. : Il ne s’agit plus de refroidir la Terre pour compenser un réchauffement qui serait lié à l’augmentation des gaz à effet de serre, mais d’éliminer du CO₂ qui est déjà présent dans l’atmosphère. Le terme consacré est celui d’« élimination du dioxyde de carbone », ou Carbon Dioxide Removal (CDR) en anglais.

D’abord, soyons clairs : la priorité des priorités reste de réduire les émissions actuelles de façon drastique. Ces « puits de carbone » additionnels ne doivent intervenir que comme un complément, après la réduction des émissions de façon massive et immédiate.

Pour stabiliser le climat et répondre aux objectifs de l’accord de Paris à 1,5 ou 2 °C de réchauffement par rapport à l’époque préindustrielle, nous avons besoin d’aller collectivement vers des émissions nettes nulles !

Comme il y aura sans doute des secteurs difficiles à décarboner, comme la sidérurgie ou le transport aérien, nous savons qu’il y aura sans doute besoin d’un peu de ces puits de carbone pour compenser ces émissions résiduelles.

On est donc sur une ligne de crête compliquée à tenir : ne pas mettre ces techniques d’élimination du CO₂ en avant, pour ne pas décourager la réduction des émissions – en raison du potentiel de décarbonation limité de ces techniques, nous allons y revenir – et en même temps continuer à soutenir la recherche sur ces technologies parce qu’elles pourraient se révéler utiles, au moins dans une certaine mesure.

En augmentant l’efficacité des puits de carbone naturels, si on reprend l’analogie avec le pansement et la blessure, on ne s’attaque toujours pas à la cause (l’émission de gaz à effet de serre), mais on remonte dans la chaîne de causalité en s’attaquant à quelque chose de plus amont que dans le cas de la modification du rayonnement solaire.

Il existe de nombreux types de méthodes d’élimination du CO₂, à la fois naturelles et technologiques. Présentent-elles toutes le même potentiel et les mêmes risques ?

L. B. : Pour éliminer du CO₂ déjà dans l’atmosphère, il y a une très grande diversité de techniques, en partie parce qu’il existe plusieurs « réservoirs » dans lesquels il serait possible de stocker le CO₂ retiré de l’atmosphère : dans le sous-sol, dans l’océan, dans la biomasse continentale.

Pour simplifier, je dirais qu’il y a une série de techniques qui sont aujourd’hui considérées comme « gagnant-gagnant » : elles permettent de retirer du CO₂ de l’atmosphère et elles ont d’autres bénéfices.

Prenons par exemple la restauration et la conservation des écosystèmes côtiers, comme les mangroves ou les herbiers marins : ces actions permettent un stockage de carbone et, par exemple, de mieux protéger les côtes contre la montée du niveau marin et les épisodes de submersion côtière. D’autres techniques, en foresterie, en agroforesterie ou en stockant le carbone dans les sols, permettent aussi de développer des pratiques agricoles qui sont plus vertueuses.

Malheureusement, comme évoqué dans le rapport, ces approches sont difficiles à mettre à l’échelle, en raison des surfaces souvent limitées et des quantités phénoménales de carbone qu’il faudrait pouvoir stocker dans ces réservoirs naturels pour avoir un effet significatif.

Et puis il y a, à l’autre bout du spectre, des techniques qui sont jugées peu efficaces et dont on sait qu’elles ont sans doute des effets dommageables sur les écosystèmes. Compte tenu des connaissances actuelles, l’Académie des sciences recommande de ne pas poursuivre dans ces directions-là.

L’exemple le mieux documenté est celui de la fertilisation par le fer du plancton marin, car elle a été envisagée il y a déjà longtemps, à la fin des années 1980. L’idée est d’aller en pleine mer, dans des régions où le développement du phytoplancton est limité par la faible abondance d’un nutriment bien particulier : le fer. Dans ces régions, il n’y a pas besoin d’ajouter beaucoup de fer pour fertiliser le plancton, qui va se développer davantage, et pour cela absorber plus de CO₂. Une partie de la matière organique produite coule ensuite vers les profondeurs de l’océan, emportant avec elle le carbone qu’elle contient. Ce carbone est ainsi isolé de l’atmosphère dans l’océan profond, potentiellement pour des centaines d’années.

Plusieurs expériences scientifiques ont été menées en pleine mer dans les années 1990 et 2000. À court terme, elles ont effectivement mis en évidence une augmentation du flux de carbone de l’atmosphère vers l’océan.

Toutefois, des travaux plus récents, notamment fondés sur la modélisation, montrent que cette technique est probablement beaucoup moins efficace qu’on ne l’imaginait initialement. Surtout, en modifiant fortement les écosystèmes marins pour capter du carbone, elle entraîne toute une série d’effets indésirables : l’émission d’autres gaz à effet de serre, une diminution de l’oxygène dans les eaux profondes, ou encore l’épuisement de certains nutriments essentiels, qui ne sont alors plus disponibles pour d’autres écosystèmes.

Ces constats ont conduit la communauté internationale à réagir. En 2008, les États ont amendé le protocole de Londres afin d’y introduire une interdiction de ce type de pratiques en haute mer.

Dans le cas de la fertilisation des océans, les risques sont donc bien documentés – ils ne concernent pas directement le climat mais des dommages collatéraux ?

L. B. : Oui. Malheureusement, on voit en ce moment une résurgence de certains projets poussés par certains chercheurs qui continuent à défendre ce type de techniques, par exemple aux États-Unis. Mais pour nous, il semble clair qu’il ne faut pas recommander ces techniques aux effets collatéraux bien documentés.




À lire aussi :
Géo-ingénierie marine : qui développe ces grands projets, et qu’y a-t-il à y gagner ?


Entre les techniques trop risquées, comme la fertilisation des océans, et les techniques de conservation et de restauration, que j’appelais « gagnant-gagnant » tout à l’heure, il y a d’autres techniques, pour lesquelles on a besoin de davantage de recherche – c’est le cas, par exemple, des techniques d’alcalinisation de l’océan.

Il s’agit d’une technique chimique cette fois : on augmente le pouvoir tampon de l’océan en ajoutant du matériel alcalin. Un des points positifs, c’est que cette technique consiste en l’accélération d’un phénomène naturel qui est l’altération des roches sur les continents. Quand les roches s’altèrent, elles apportent de l’alcalinité à l’océan, donc elles augmentent le pouvoir tampon de l’océan qui absorbe plus de CO₂ – c’est un processus très lent, qui a un rôle très important sur les échelles de temps très, très longues et qui régule en partie le cycle du carbone sur les échelles de temps géologiques.

Deuxième avantage : le CO2 ainsi stocké dans l’océan l’est de manière très durable, bien plus que dans des approches reposant sur du carbone organique (comme la fertilisation des océans) où le stockage est beaucoup plus incertain. Troisième point positif, cette augmentation de l’alcalinité permet aussi de réduire partiellement l’acidification des océans.

Mais ces bénéfices s’accompagnent de nombreuses incertitudes et de risques. Ajouter des matériaux alcalins modifie parfois fortement la chimie de l’eau de mer. Quels effets cela pourrait-il avoir sur les écosystèmes marins, le plancton ou les espèces côtières dont dépendent de nombreuses populations humaines ? À ce stade, nous manquons encore de données pour répondre clairement à ces questions.

L’efficacité même de la technique reste également incertaine. Pour qu’elle fonctionne, l’alcalinité ajoutée doit rester dans les couches de surface de l’océan, là où les échanges avec l’atmosphère ont lieu. Si elle est rapidement entraînée vers les profondeurs, son impact sur l’absorption du CO₂ devient très limité.

Enfin, il y a beaucoup de questions sur le coût de ces techniques. En particulier, un certain nombre de start-up et d’entreprises s’orientent vers des méthodes électrochimiques, mais c’est très coûteux d’un point de vue énergétique. Il faut faire le bilan sur l’ensemble du cycle de vie de ces techniques.

En somme, on a une gamme de techniques, parfois appelées abusivement « solutions » : certaines que l’on ne recommande pas aujourd’hui parce que les risques sont énormes ; d’autres qu’il faut prioriser et recommander, mais qui ont une efficacité somme toute limitée. Et puis entre les deux, des méthodes sur lesquelles il faut continuer à travailler.

À l’échelle internationale, où et quand se discutent les nouveaux risques des techniques de géo-ingénierie climatique ?

L. B. : La question des puits de carbone est déjà largement débattue dans le cadre des COP Climat, notamment parce que les gouvernements peuvent les intégrer dans leurs objectifs de réduction des émissions. C’est le cas, par exemple, des stratégies d’afforestation (boisement) et de reforestation. En revanche, il reste encore beaucoup de travail à faire sur les modalités concrètes de mise en œuvre de certaines techniques d’élimination du CO₂ que nous avons évoquées. En particulier, les questions de mesure et de vérification du CO₂ réellement retiré de l’atmosphère sont complexes et loin d’être résolues. Le Giec a d’ailleurs été mandaté par les gouvernements pour produire un rapport méthodologique spécifiquement consacré à ces enjeux.

En ce qui concerne la modification du rayonnement solaire, mon inquiétude est nettement plus forte. Certains pays affichent désormais ouvertement leur intérêt pour un déploiement potentiel de ces techniques.

Dans le prochain rapport du Giec, la géo-ingénierie occupera une place plus importante que dans les précédents. J’espère que cela permettra de documenter de façon précise et convaincante les risques potentiels associés à ces approches.


Propos recueillis par Elsa Couderc.

The Conversation

Bopp Laurent a reçu des financements du CNRS, de l’Agence Nationale de la Recherche, de la Fondation pour la Recherche sur la Biodiversité, du Programme Horizon Europe de la Commission Européenne, et de la Fondation Schmidt Sciences.

ref. Géo-ingénierie climatique : de quoi parle-t-on ? Pour quelle efficacité et quels nouveaux risques ? – https://theconversation.com/geo-ingenierie-climatique-de-quoi-parle-t-on-pour-quelle-efficacite-et-quels-nouveaux-risques-272387