Le Conseil constitutionnel français admet qu’une activité numérique relève du champ de l’impôt taxé dans la juridiction des utilisateurs.ToninT/Shutterstock
Le 12 septembre 2025, le Conseil constitutionnel français approuve une taxe sur les services numériques (TSN). Il assume l’existence d’un régime fiscal distinct applicable aux grandes plateformes numériques, sans rupture d’égalité devant l’impôt. Une révolution copernicienne ? Oui, car l’impôt n’est plus fondé sur la localisation des entreprises, mais sur celle de ses utilisateurs. En l’occurrence, en France et non aux États-Unis.
Un clic à Paris. Une réservation à Milan. Une vidéo à Londres. Trois gestes anodins, trois fractions de seconde offertes aux plateformes. Pour les marchés financiers, ces actes valent des milliards. Pour les administrations fiscales, ils ne valaient presque rien, les entreprises concernées évitant l’imposition de leurs bénéfices respectifs par des pratiques d’optimisation fiscale.
Pour y remédier, les autorités françaises ont introduit une taxe sur les services numériques (TSN) en 2019 comme une mesure transitoire pour appréhender les bénéfices réalisés en France par les entreprises multinationales dites du « numérique ». Elle rapporterait environ 700 millions d’euros en 2024.
Cette taxe initialement de 3 % s’applique sur le chiffre d’affaires des plateformes de services numériques – intermédiation, publicité ciblée, vente de données, etc.
Comment fonctionne concrètement cette taxe Gafam ? Quelles implications sur notre économie ? Pourquoi
Seule la juridiction des utilisateurs compte
Le 12 septembre 2025, le Conseil constitutionnel admet qu’une activité purement numérique – l’interaction entre une plateforme et ses utilisateurs situés en France – relève du champ de l’impôt. L’absence d’un établissement stable – usine, bureau ou filiale – ne fait plus obstacle à l’imposition des revenus issus d’utilisateurs localisés en France. Cette décision consacre une évolution majeure : une activité immatérielle est localisée par ses utilisateurs justifiant son imposition par la juridiction (pays) de ces derniers.
En reconnaissant ce principe, le Conseil donne un socle constitutionnel à la taxe sur les services numériques (TSN) française et, au-delà, à une fiscalité de l’usage. La présence économique ne se mesure plus en mètres carrés, en nombre de salariés, en valeur des immobilisations corporelles mais en interactions, en données et en attention des utilisateurs.
Cette décision considère l’activité numérique des utilisateurs comme une base fiscale autonome. Elle constitue une rupture discrète, mais historique, dans un débat planétaire portant sur la source de valeur à l’ère numérique.
Les États-Unis vent debout contre cette réforme
Le retrait des États-Unis en janvier 2025 du Global Tax Deal a ravivé la pertinence de solutions unilatérales.
Le 2 décembre 2019, les États-Unis avaient rapidement réagi à l’adoption par la France, en juillet de la même année, de la loi créant la taxe sur les services numériques, en menaçant de rétorsion tarifaire non seulement la France, mais aussi d’autres pays ayant adopté une taxe similaire, comme le Royaume-Uni, l’Espagne, l’Autriche et l’Italie.
L’Organisation de coopération et de développement économiques (OCDE) est alors chargée de trouver une solution multilatérale dans le cadre des règles globales anti-érosion de la base imposable. La solution proposée repose sur deux piliers :
La (ré)allocation d’une partie des profits résiduels des grandes multinationales, en particulier numériques, vers les juridictions de marché indépendamment de la présence physique ;
L’instauration d’un impôt minimum mondial sur les sociétés, afin de limiter la concurrence fiscale et l’érosion des bases. L’administration de Donald Trump a rejeté en janvier 2025 cette solution et leurs engagements antérieurs dans l’accord de l’OCDE datant de 2021.
Dans ce contexte, la décision du Conseil constitutionnel rapproche la France de la position des Nations unies, sans rompre avec celle de l’OCDE. Dès 2021, l’article 12B du Modèle de Convention fiscale de l’ONU autorise les États à imposer les revenus tirés des « services automatisés fournis à distance », comme le cloud, le streaming, les logiciels, la publicité en ligne, les moteurs de recherche ou les plateformes. Cette approche protège davantage les intérêts des pays du Sud, davantage de consommateurs de services numériques que les « producteurs » de ceux-ci ou les hébergeurs des sièges des entreprises multinationales du numérique.
« Servicisation numérique »
La définition de l’assiette taxable des services numériques est sensiblement plus large dans l’approche des Nations unies que dans les législations fiscales européennes.
L’intérêt de cette définition étendue est d’anticiper les évolutions industrielles actuelles et futures comme la « servicisation numérique ». Cette dernière désigne le passage de la vente de produits physiques à celle de services numériques. Par exemple, la valeur d’un équipement industriel ne repose pas tant sur celle de l’équipement physique que sur les services numériques dédiés à la performance de l’équipement.
La « servicisation numérique » transfère la création de valeur et de profits d’actifs physiques vers des actifs intangibles, comme des droits de propriété intellectuelle ou des services numériques. Le transfert des bénéfices vers des centres étrangers de services numériques localisés dans des pays à faible fiscalité participe à l’érosion des bénéfices imposables.
La taxe sur les services numériques (TSN) devient un moyen de limiter le risque de transfert de profits qui concerne la plupart des secteurs économiques.
Taxation optimale
Par sa forme, la taxe sur les services numériques est simple. Elle repose sur le chiffre d’affaires réalisé dans le pays où habite l’utilisateur. Cette forme évite la renégociation des conventions fiscales bilatérales.
Elle reste critiquée par les partisans de la théorie de la taxation optimale. Pourquoi ? Parce qu’elle réduit l’efficience de la production en taxant chaque transaction, en ignorant les marges bénéficiaires qui varient d’une entreprise à l’autre.
Par exemple, une taxe de 3 % sur le chiffre d’affaires d’une entreprise ayant une marge de 30 % correspond à une taxe de 10 % sur ses bénéfices. La même taxe appliquée à une entreprise moins profitable, ayant une marge de 5 % par exemple, supporterait alors une taxe de 60 % sur ses bénéfices.
Présence économique significative indienne
Son alternative est la présence économique significative (PES) introduite en Inde en 2018, puis au Nigeria notamment.
Ce régime taxe le profit supposé réalisé dans le pays. Si cette forme de taxation respecte davantage l’orthodoxie fiscale en taxant les bénéfices, elle est plus complexe à mettre en œuvre. Elle nécessite d’estimer non seulement le chiffre d’affaires réalisé dans le pays, mais également les coûts associés à l’activité dans le pays concerné.
L’article 12B du Modèle de Convention fiscale de l’ONU laisse le choix aux pays de taxer le chiffre d’affaires ou le profit.
La décision du Conseil constitutionnel a confirmé la compétence fiscale de l’État à taxer la valeur créée par un utilisateur français de services numériques d’entreprises étrangères. Cette décision ne règle pas toutes les difficultés, et de nouveaux défis et oppositions existent concernant la définition ou l’estimation de la valeur taxable.
Elle est pourtant une première étape vers un système fiscal à l’ère du numérique.
Cet article a été co-rédigé avec Abdel-Malek Riad, chercheur associé au CERDI–CNRS et président-directeur général d’AMR IM.
Grégoire Rota-Graziosi est membre de la FERDI. Il est expert en politique fiscales et assure des missions auprès d’institutions nationales, régionales ou internationales.
Es posible que, al sumergirnos en estos artículos, igual que ocurre cuando nos zambullimos en el mar, se nos pase por la cabeza que la naturaleza es una verdadera obra de arte. Y, como la naturaleza somos todos, tal vez por eso, ciencia, arte y vida van tan de la mano. Más allá de la evidente relación entre ellas, artes y ciencias se necesitan. Cuando personas de distintas disciplinas colaboran, producen interpretaciones más profundas, diversas y sensibles de la realidad. No hay más que ver los primeros mapas del mundo, las láminas de historia natural o las bellas neuronas retratadas por Santiago Ramón y Cajal.
Source: The Conversation – UK – By Naomi Braithwaite, Associate Professor in Fashion and Material Culture, Nottingham Trent University
On the advent of the seasonal haute couture catwalk shows in Paris, the fashion industry mourns the loss of another iconic designer. Valentino Garavani has died at the age of 93. He was the creator of the House of Valentino and renowned as one of Italy’s greatest couturiers.
For Valentino, fashion was about creating beautiful dresses. He was famously quoted as saying: “I know what women want. They want to be beautiful.” However, his notions of “ideal beauty” were met with some controversy through his career, in particular his defence of skinny models on the runway in 2007.
It was during this time that he apprenticed with couturiers, including Balenciaga and Guy Laroche. Haute couture, defined as “high dressmaking”, is distinct from ready-to-wear fashion. The couturier is a designer who uses bespoke techniques and makes one-off garments for individual customers. Couture garments are made by hand with specialised techniques and luxurious materials.
In 1959, following the founding of his design studio in Rome, Valentino designed his first ready-to-wear collection. This collection included strapless mid-length dresses in block colours and showcased what was to become known as the eponymous Valentino style. This was fashion that embodied elegance and sophistication with meticulous attention paid to accentuating the female silhouette through the use of sumptuous materials.
In 1960, Valentino opened the luxury fashion house, Valentino, with the support of his business and life partner Giancarlo Giammetti. It was his first couture show in 1962 at The Pitti Palace in Florence that was to launch Valentino onto the global fashion stage. Critics were astounded by his exquisite tailored dresses in sumptuous materials, including a parade of red dresses that were to become his signature look. The looks on show exuded elegance and showcased Valentino’s ability to inject a modern stance on classic styling..
In 1973, Valentino became the first Italian designer to be welcomed into the Fédération de la Haute Couture et de la Mode (the Federation of Haute Couture and Fashion). This was unusual for an organisation which privileged couture as part of France’s heritage. Membership is restricted to those who demonstrate outstanding craftsmanship and creativity. The federation’s recognition of Valentino’s contribution to haute couture was a testament to the techniques that he gained in Paris as a student and apprentice of couture fashion.
Valentino became the first Italian to present haute couture on Paris runways. Undoubtedly, his success in Paris paved the way for Italy’s other legendary designers, Giorgio Armani and Gianni Versace, to show at haute couture week.
Over the years the Valentino brand has expanded to include menswear and accessories. In 1998, the label was sold to an Italian holding company for an estimated US$300 million (£223 million), with Valentino continuing as designer until his retirement in 2008.
Valentino will probably be most renowned for his iconic red dresses. Red was first featured in Valentino’s 1959 collection with the La Fiesta dress. The colour became a signature style throughout his career.
The death of Valentino follows a few months after the loss of Giorgio Armani. Valentino and Armani were both creative visionaries who placed Italian fashion on the global stage. Their fashion houses were built through their hard graft and creative genius and they will be remembered simultaneously as a leading generation of designers from a time before fashion was significantly commercialised and run by conglomerates.
The Italian fashion industry has certainly taken a huge hit with the loss of two of its most legendary designers. However, both Valentino and Armani have left an undeniable mark on fashion, that will continue to define Italy’s dominance in the global fashion industry.
Reflecting on a life in fashion, Valentino’s approach to silhouette, fabric and his distinctive signature red colour, reveals a designer who leaves a huge mark on fashion globally too. To look back at his work is to see that he undoubtedly fulfilled his wish to make women beautiful.
Looking for something good? Cut through the noise with a carefully curated selection of the latest releases, live events and exhibitions, straight to your inbox every fortnight, on Fridays. Sign up here.
Naomi Braithwaite does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.
L’océan joue un rôle important pour absorber le carbone présent dans l’atmosphère terrestre et le stocker. Des start-ups cherchent à favoriser ce stockage dans le but de limiter les impacts du changement climatique, mais l’efficacité et les risques de ces techniques sont mal connus.ESA, CC BY-SA
Le mot « géo-ingénierie » recouvre un grand nombre de techniques, du « parasol spatial », qui limite l’arrivée de lumière du soleil dans l’atmosphère, à l’ensemencement de l’océan pour lui faire absorber encore plus de carbone qu’il ne le fait naturellement.
Manuel Bellanger étudie à l’Ifremer le développement des techniques de géo-ingénierie marine avec son regard d’économiste. Cet interview, réalisée par Elsa Couderc, cheffe de rubrique Sciences et Technologies, constitue le second volet de « regards croisés » sur la géo-ingénierie climatique. Dans le premier, nous explorons avec Laurent Bopp, climatologue et académicien, les nouveaux risques climatiques que ces techniques pourraient faire émerger.
The Conversation : La géo-ingénierie marine est mal connue en France, pourtant elle se développe à l’étranger. Qui développe ces projets ?
Manuel Bellanger : En ce qui concerne l’océan, le spectre des acteurs et des techniques de géo-ingénierie est très varié.
Les initiatives les plus prudentes sont en général pilotées par des instituts de recherche, par exemple aux États-Unis ou en Allemagne. Leur finalité est plutôt de comprendre si ces interventions sont techniquement possibles : peut-on développer des méthodes pour capturer du CO₂ atmosphérique par l’océan, mesurer la quantité de carbone stockée durablement, vérifier les affirmations des différents acteurs, étudier les impacts écologiques, tenter de définir des bonnes pratiques et des protocoles ? Ces projets de recherche sont typiquement financés par des fonds publics, souvent sans objectif de rentabilité immédiate.
Il existe aussi des collaborations entre institutions académiques et partenaires privés et, enfin, à l’autre bout du spectre, un certain nombre de start-up qui font la promotion du déploiement rapide et massif de ces techniques.
Peut-on espérer gagner de l’argent grâce à la géo-ingénierie marine ?
M. B. : Le modèle économique de ces start-up repose sur la vente de crédits carbone qu’elles espèrent pouvoir mettre sur les marchés volontaires du carbone – c’est-à-dire qu’elles cherchent à vendre des certificats à des acteurs privés qui veulent compenser leurs émissions.
Pour cela, la séquestration doit être certifiée par des standards ou des autorités. Sachant qu’il y a aussi des initiatives privées qui développent des certifications… aujourd’hui, c’est un peu la jungle, les marchés volontaires du carbone. Et l’achat de ces crédits certifiés reste sur la base du volontariat, puisqu’il n’y a généralement pas d’obligation réglementaire pour les entreprises de compenser leurs émissions.
Pouvez-vous nous donner des exemples de telles start-up et l’état de leurs travaux ?
M. B. : Running Tide, aux États-Unis, a tenté de développer des crédits carbone issus de la culture d’algues sur des bouées biodégradables qui devaient couler sous leur propre poids dans les profondeurs abyssales. Mais ils ne sont pas parvenus à produire des quantités significatives d’algues. L’entreprise a finalement eu recours au déversement de milliers de tonnes de copeaux de bois dans les eaux islandaises pour essayer d’honorer les crédits carbone qu’ils avaient vendus. Mais les experts et observateurs ont critiqué le manque de preuves scientifiques montrant que cette approche permettait réellement de séquestrer du CO₂ et l’absence d’évaluation des impacts sur les écosystèmes marins. L’entreprise finalement a cessé ses activités en 2024 pour des raisons économiques.
Une start-up canadienne, Planetary Technology, développe une approche d’augmentation de l’alcalinité océanique visant à accroître l’absorption du CO₂ atmosphérique et son stockage à long terme sous forme dissoute dans l’océan. Pour cela, ils ajoutent à l’eau de mer du minerai alcalin, de l’hydroxyde de magnésium. Ils ont annoncé avoir vendu des crédits carbone, notamment à Shopify et British Airways.
Une autre société, californienne cette fois, Ebb Carbon, cherche également à augmenter l’alcalinité océanique, mais par électrochimie : ils traitent de l’eau de mer pour la séparer en flux alcalins et acides, puis renvoient la solution alcaline dans l’océan. Cette société a annoncé avoir signé un contrat avec Microsoft pour retirer des centaines de milliers de tonnes de CO₂ sur plusieurs années.
L’écosystème commercial fleurit déjà en Amérique du Nord, même si on n’en entend pas forcément parler ici.
Il y a aussi une sorte de fonds, appelé Frontier Climate, qui engage des contrats anticipés pour des tonnes de CO₂ qui seront retirées de l’atmosphère dans le futur : ils achètent par avance des crédits carbone à des sociétés qui sont en phase de développement et qui ne sont pas encore réellement en train de capturer et de séquestrer du carbone. Derrière ce fonds-là, il y a des géants de la tech, comme Google ou Facebook, parmi les membres fondateurs. On peut supposer que c’est une manière pour ces entreprises, qui ont une consommation énergétique assez importante, de s’acheter une vertu climatique. Donc, eux, ils ont déjà annoncé avoir acheté pour 1,75 million de dollars (plus de 1,5 million d’euros) de crédits carbone à des entreprises d’alcalinisation de l’océan.
Et pourtant, vous disiez tout à l’heure qu’on n’est pas encore sûrs de savoir mesurer scientifiquement si l’océan a bien absorbé ces tonnes de carbone.
M. B. : Effectivement, les bases scientifiques de ces techniques-là ne sont vraiment pas solides aujourd’hui. On ne sait pas encore quelles quantités de CO₂ elles vont permettre de capturer et de séquestrer et on ne sait pas non plus quels vont être les impacts sur l’environnement.
Et côté scientifique, il n’y a donc pour l’instant pas de consensus sur la capacité des techniques de géo-ingénierie marine à retirer suffisamment de carbone de l’atmosphère pour réellement freiner le changement climatique ?
M. B. : Il y a même pratiquement un consensus scientifique pour dire que, aujourd’hui, on ne peut pas présenter les techniques de géo-ingénierie marine comme des solutions. En fait, tant qu’on n’a pas drastiquement réduit les émissions de gaz à effet de serre, beaucoup considèrent qu’il est complètement futile de vouloir commencer à déployer ces techniques-là.
En effet, aujourd’hui, les ordres de grandeur évoqués (le nombre de tonnes que les entreprises annoncent séquestrer) n’ont rien à voir avec les ordres de grandeur qui permettraient de changer quoi que ce soit au climat. Par exemple, pour la culture de macroalgues, certaines modélisations estiment qu’il faudrait recouvrir 20 % de la surface totale des océans avec des fermes de macroalgues – ce qui est déjà presque absurde en soi – pour capturer (si ça marche) 0,6 gigatonne de CO₂ par an… à comparer aux 40 gigatonnes que l’humanité émet aujourd’hui chaque année. Si ces techniques pouvaient jouer un rôle dans le futur pour compenser les émissions que le Giec désigne comme « résiduelles » et « difficiles à éviter » (de l’ordre de 7 à 9 gigatonnes de CO₂ par an à l’horizon 2050) et atteindre des objectifs de neutralité carbone, les déployer aujourd’hui ne pourrait en aucun cas remplacer des réductions d’émissions rapides et massives.
Alors, qui pousse ces développements technologiques ?
M. B. : Un certain nombre d’initiatives semblent être poussées par ceux qui ont un intérêt au statu quo, peut-être même par certains qui n’auraient pas de réelle volonté de déployer la géo-ingénierie, mais qui ont un intérêt à faire diversion pour retarder l’action qui viserait à diminuer les émissions aujourd’hui.
On pense plutôt aux acteurs des énergies fossiles qu’aux géants de la tech, dans ce cas ?
M. B. : Les acteurs des énergies fossiles ont effectivement cet intérêt à retarder l’action climatique, mais ils sont de fait moins visibles aujourd’hui dans le financement direct des techniques de géo-ingénierie – il semble qu’ils soient plus dans le lobbying et dans les discours qui vont légitimer ce genre de techniques.
De fait, investir dans la géo-ingénierie ne fait-il pas courir le risque de détourner l’attention des citoyens et des gouvernements de l’urgence de réduire nos émissions de gaz à effet de serre ?
M. B. : C’est un risque clairement identifié dans la littérature scientifique, parfois sous le nom d’« aléa moral climatique », parfois d’« effet de dissuasion ». Derrière, il y a l’idée que la promesse de solutions technologiques futures, comme la géo-ingénierie marine, pourrait affaiblir la volonté politique ou sociétale de réduire les émissions dès maintenant. Donc le risque d’être moins exigeants envers nos décideurs politiques pour qu’ils tiennent les engagements climatiques et, in fine, que le décalage entre les objectifs et l’action climatique réelle soit toujours plus grand.
Par ailleurs, on a des ressources financières, ressources en main-d’œuvre, en expertise, qui sont somme toute limitées. Tout ce qui est investi dans la recherche et le développement ou pour l’expérimentation de ces technologies de géo-ingénierie peut se faire au détriment des ressources allouées pour les mesures d’atténuation connues et démontrées : l’efficacité énergétique, les énergies renouvelables, la sobriété. On sait que ces solutions fonctionnent : ce sont elles qu’il faudrait mettre en œuvre le plus rapidement.
La priorité absolue – on n’arrête pas de le répéter –, c’est la diminution rapide des émissions de gaz à effet de serre. Donc la position de la plupart des scientifiques, c’est que ces techniques de géo-ingénierie marine devraient être explorées d’un point de vue de la recherche, par exemple pour évaluer leur efficacité et leurs effets environnementaux, économiques et sociaux, de manière à éclairer les choix politiques et sociétaux à venir. Mais, encore une fois, aujourd’hui la géo-ingénierie marine ne peut pas être présentée comme une solution à court terme.
C’est pour cela que la communauté scientifique appelle à une gouvernance internationale de la géo-ingénierie, avant un déploiement massif de ces techniques. Quelles instances internationales seraient à même de mener une gouvernance sur le sujet ?
M. B. : Il faut en effet que les États s’impliquent fortement dans la gouvernance de la géo-ingénierie, et il faut des traités internationaux. Pour l’instant, c’est assez fragmenté entre différents instruments juridiques, mais il y a ce qu’on appelle le protocole de Londres, adopté en 1996, pour éviter la pollution en mer par dumping (le fait de pouvoir décharger des choses en mer). Ce protocole permet déjà en partie de réguler les usages de géo-ingénierie marine.
Par exemple, la fertilisation des océans par ajout de fer visant à stimuler le phytoplancton qui capture le CO₂ par photosynthèse. Cette technique rentre dans le cadre existant du protocole de Londres, qui interdit la fertilisation de l’océan à des fins commerciales et impose un cadre strict pour la recherche scientifique depuis plus d’une quinzaine d’années. Le protocole pourrait être adapté ou amendé pour réguler d’autres techniques de géo-ingénierie marine, ce qui est plus facile que de créer un nouveau traité international.
Les COP sur le climat sont aussi importantes pour deux raisons : elles rassemblent plus de nations que le protocole de Londres, et elles sont le cadre privilégié pour discuter des marchés carbone et donc pour éviter la prolifération d’initiatives commerciales non contrôlées, pour limiter les risques environnementaux et les dérives du type crédits carbone douteux.
Il y a des précédents avec ce qu’il s’est passé sur les crédits carbone forestiers : une enquête publiée par le Guardian en 2022 a montré que plus de 90 % des projets certifiés par Verra – le principal standard mondial – n’ont pas empêché la déforestation ou ont largement surévalué leurs bénéfices climatiques. Sans encadrement, la géo-ingénierie marine pourrait tout à fait suivre le même chemin.
Enfin, il y a bien sûr des enjeux d’équité, si ceux qui mettent en œuvre une action ne sont pas ceux qui risquent de subir les impacts ! Là aussi, il y a des précédents observés sur des projets forestiers certifiés pour générer des crédits carbone, où les bénéfices économiques sont captés par les investisseurs tandis que les communautés locales subissent des restrictions d’accès aux ressources forestières ou sont exposées à des changements dans leur mode de vie.
Concrètement, quels sont les risques pour les populations qui vivent à proximité de l’océan ou s’en servent de ressource nourricière, par exemple ?
M. B. : Ça dépend vraiment de la technique de géo-ingénierie utilisée et de l’endroit où ça va être déployé. Par exemple, si on imagine un déploiement massif de cultures d’algues, ça pourrait modifier les écosystèmes côtiers, et par ailleurs générer une concurrence pour l’espace avec la pêche ou l’aquaculture traditionnelle.
Sur les littoraux, où les activités maritimes sont souvent très denses, il y a déjà des conflits d’usage, que l’on observe par exemple dans les tensions autour des installations de parcs éoliens en mer.
Propos recueillis par Elsa Couderc.
Manuel Bellanger a reçu des financements dans le cadre du programme ANR n° 21-POCE-0001 PPR Océan & Climat.
Source: The Conversation – in French – By Nicolas Mathevon, Professeur (Neurosciences & bioacoustique – Université de Saint-Etienne, Ecole Pratique des Hautes Etudes – PSL & Institut universitaire de France), Université Jean Monnet, Saint-Étienne
S’ils sont discrets, les crocodiles sont aussi bavards entre eux, et ce, avant même l’éclosion de l’œuf.Nicolas Mathevon/Université Jean-Monnet, Fourni par l’auteur
On l’imagine chasseur solitaire et discret, constamment à l’affût d’une proie. Pourtant, l’armure d’écailles du crocodile dissimule une vie sociale complexe. Tendez l’oreille : le seigneur des fleuves a beaucoup à dire.
Lorsque l’on se représente un crocodile, on pense à un prédateur silencieux, un tronc d’arbre flottant au milieu du fleuve, attendant patiemment qu’une proie s’approche pour faire brusquement claquer ses mâchoires. Cette image, bien que partiellement vraie – il est sagement déconseillé de nager au milieu de crocodiles –, occulte une réalité biologique fascinante : les crocodiliens (crocodiles, alligators, caïmans et gavials) sont les reptiles les plus vocaux et les plus sociaux de la planète.
Ces animaux possèdent un système de communication acoustique sophistiqué et une ouïe d’une finesse redoutable, peut-être hérités de leurs ancêtres communs avec les oiseaux et les dinosaures. Depuis près de trois décennies, notre équipe de recherche en bioacoustique s’attelle à décoder ce qu’ils disent et à comprendre comment ils perçoivent leur environnement sonore. Voici ce que nos études révèlent du monde sonore des crocodiliens.
La première conversation : parler depuis l’œuf
L’histoire acoustique d’un crocodile commence avant sa naissance. Contrairement à la majorité des reptiles qui pondent leurs œufs et les abandonnent, les mères ou les pères crocodiliens montent la garde près du nid. Mais comment savoir quand les petits sont prêts à sortir, enfouis sous des dizaines de centimètres de sable ou de végétation ? Nos recherches ont démontré que les embryons de crocodiles ne sont pas passifs. Lorsqu’ils sont prêts à sortir de l’œuf, après trois mois d’incubation, ils commencent à émettre des vocalisations particulières, appelées cris d’éclosion.
Les cris d’éclosion des petits crocodiles encore dans l’œuf. Nicolas Mathevon/Université Jean-Monnet, Fourni par l’auteur91,5 ko(download)
Ces sons, audibles à travers la coquille et à l’extérieur du nid, remplissent une double fonction. D’une part, ils s’adressent à la fratrie. Lors d’expériences consistant à émettre des sons depuis un haut-parleur près d’œufs de crocodiles du Nil prêts à éclore, nous avons observé que l’audition de ces cris incite les autres embryons à vocaliser à leur tour et à briser leur coquille. Ce mécanisme permet de synchroniser l’éclosion : toute la nichée va sortir ensemble. Pour des proies aussi vulnérables que des nouveau-nés de quelques dizaines de grammes, c’est une belle stratégie de survie face aux prédateurs.
D’autre part, ces cris sont un signal impérieux pour la mère ou le père. Une femelle crocodile qui monte la garde depuis trois mois réagit immédiatement à l’audition de ces cris d’éclosion : elle se met à creuser le nid avec ses pattes. Sans ce comportement parental en réponse à leur signal sonore, les petits resteraient prisonniers sous terre.
Cependant, la mère ne réagit pas au premier petit bruit venu. Nos expériences sur le crocodile du Nil ont montré que la femelle réagit à des cris isolés par des mouvements de tête, enfouissant son museau dans le sol comme pour en sentir les vibrations, mais elle ne commence à creuser activement que si les cris forment une séquence continue et rythmée. Ceci évite à la femelle d’ouvrir le nid trop tôt pour un seul petit précocement bavard, ce qui mettrait en danger le reste de la couvée.
Le langage des jeunes crocos
Une fois sortis de l’œuf et délicatement transportés à l’eau dans la gueule de leurs parents, les jeunes crocodiliens restent groupés en crèches sous la protection de l’adulte pendant des semaines, voire des mois. Durant cette période, la communication acoustique entre parent et jeunes est vitale.
Le répertoire vocal des juvéniles est structuré autour de deux types de signaux principaux : les cris de contact et les cris de détresse. Le cri de contact est utilisé pour maintenir la cohésion du groupe de jeunes. C’est un son d’intensité assez faible et dont la fréquence varie peu. Le cri de détresse, lui, est émis lorsqu’un jeune est saisi par un prédateur. Il est plus fort et sa fréquence est plus modulée. Il présente souvent une structure acoustique plus chaotique, ce qui le rend un peu rugueux à l’oreille.
Les jeunes crocodiles s’expriment, soit pour signaler un danger, soit pour maintenir la cohésion du groupe. Nicolas Mathevon/Université Jean-Monnet, Fourni par l’auteur
La mère sait faire la différence : un cri de contact suscite une simple attention, tandis qu’un cri de détresse déclenche une réaction agressive de défense immédiate. Mais un parent reconnaît-il la voix de ses petits ? Visiblement pas : nos analyses acoustiques des crocodiles du Nil indiquent qu’il n’y a pas de signature vocale chez les nouveau-nés qui permettrait aux parents de les identifier individuellement. En revanche, nous avons découvert que plus le crocodile est petit, plus le cri est aigu. Lors d’expériences réalisées dans la nature, les mères crocodiles du Nil ont réagi plus intensément aux cris les plus aigus. C’est logique : les plus petits sont les plus vulnérables aux prédateurs et nécessitent une protection accrue.
Les parents, ici une femelle, surveillent leurs jeunes au sein de crèches et restent attentifs à leurs vocalisations. Nicolas Mathevon/Université Jean-Monnet, Fourni par l’auteur
Une ouïe entre l’eau et l’air
Le crocodile est un animal amphibie, vivant à l’interface entre l’air et l’eau, mondes aux propriétés acoustiques radicalement différentes. Mais son audition est d’abord aérienne. Lorsque le crocodile flotte, immobile, ce qui est sa position favorite pour attendre une proie, ses oreilles se trouvent juste au-dessus de la ligne de flottaison. Si l’animal plonge, une paupière vient protéger l’oreille, et l’on ne sait pas encore si les crocodiles entendent bien sous l’eau.
Un yacare à l’affut. Ce caïman, comme les autres crocodiliens, garde ses oreilles juste au-dessus de l’eau lorsqu’il s’immerge. Nicolas Mathevon/Université Jean-Monnet, Fourni par l’auteur
Comment un animal dont la tête est à moitié immergée fait-il pour localiser une proie, un petit ou un rival ? Chez l’humain ou d’autres mammifères et oiseaux, la localisation repose sur deux indices principaux : le son arrive plus vite à l’oreille tournée vers la source et est également plus fort, puisque la tête fait écran. Dans des expériences, nous avons entraîné des crocodiles à se diriger vers des haut-parleurs pour obtenir une récompense, et les résultats montrent qu’ils utilisent également ces deux sources d’information. Pour les sons graves, ils se fient surtout au temps ; pour les aigus, ils utilisent plutôt la différence d’intensité.
Distinguer dans le bruit
Les crocodiliens vivent souvent dans des environnements bruyants. Pour survivre, ils doivent être capables d’isoler un signal pertinent du bruit de fond, mais aussi d’identifier ce qu’ils entendent. Un bruit dans les roseaux est-il une proie ou un congénère ? Au laboratoire, nous avons découvert quel paramètre acoustique ils utilisent pour faire cette distinction. Ce n’est pas la hauteur du son ni son rythme mais l’enveloppe spectrale, c’est-à-dire le timbre du son. C’est exactement le même paramètre que nous, humains, utilisons pour distinguer les voyelles (« a » ou « o ») ou pour reconnaître la voix de quelqu’un au téléphone. Et la catégorisation des sons opérée par les crocodiles n’est pas totalement figée, elle peut être affinée par l’apprentissage, preuve d’une vraie plasticité cognitive.
En particulier, les crocodiles savent reconnaître et sont particulièrement appâtés par les signaux de détresse d’autres animaux. Quand on diffuse des enregistrements de pleurs de bébés humains, bonobos ou chimpanzés à des crocodiles du Nil, les résultats sont frappants : les crocodiles sont très fortement attirés par ces pleurs. Mais pas n’importe comment.
Les humains jugent la détresse d’un bébé principalement à la hauteur de son cri (plus c’est aigu, plus on pense que le bébé exprime de la douleur). Les crocodiles, eux, se basent sur un critère acoustique plus fiable : le chaos, qui se traduit par la rugosité de la voix qui survient lorsque les cordes vocales sont poussées à leurs limites physiques sous l’effet du stress ou de la douleur.
Les crocodiles se sont donc révélés meilleurs que les humains pour évaluer le niveau de détresse des bébés, en particulier des bonobos. Là où nous surestimons la détresse des bonobos à cause de leurs cris suraigus, les crocodiles ne réagissent intensément qu’aux pleurs contenant beaucoup de chaos acoustique, signe d’une véritable urgence, et donc d’une proie vulnérable.
Entre congénère et proie, que privilégier ?
Si les jeunes crocodiliens sont particulièrement bavards, les adultes ne sont pas en reste. Les mères, et les pères pour les espèces où ils s’occupent de leur progéniture, émettent des grognements qui attirent les jeunes. Femelles et mâles adultes rugissent lors des parades nuptiales et pour défendre leur territoire. Lorsqu’ils se sentent menacés, les adultes peuvent souffler de manière bruyante, ce qui passe l’envie de les approcher. On observe cependant de grandes différences dans l’usage des signaux sonores entre les groupes de crocodiliens : si les alligators et les caïmans sont particulièrement vocaux, les autres crocodiles deviennent plus silencieux à l’âge adulte.
Le rugissement d’un caïman noir adulte. Nicolas Mathevon/Université Jean Monnet, Fourni par l’auteur30,2 ko(download)
Imaginez un jeune crocodile affamé qui entend un congénère l’appeler, mais qui sent en même temps une odeur de viande. Que fait-il ? Nous avons testé ce conflit sensoriel. Les résultats montrent que l’état de satiété modifie la réponse comportementale. Un crocodile rassasié est très attentif aux sons sociaux : il se dirige vers les cris de contact de ses congénères. Un crocodile affamé privilégie la recherche d’une source de nourriture. Cela suggère une modulation de l’attention : la priorité de l’animal peut basculer selon les besoins physiologiques.
Loin de l’image du monstre primitif, le crocodile est un animal doté d’une vie sensorielle et cognitive riche. Il naît dans un monde sonore, synchronisant son éclosion avec ses frères et sœurs. Il communique avec l’adulte qui s’occupe de lui pour obtenir protection. Il analyse son environnement sonore avec des outils sophistiqués (localisation binaurale, démasquage spatial) dignes des oiseaux ou des mammifères. Il catégorise les sons sur la base de leur timbre pour distinguer les congénères des en-cas. Et il est même capable d’évaluer le niveau de détresse dans la voix d’autres espèces.
Ces études sur les crocodiles ont impliqué de nombreux collaborateurs et collaboratrices, dont Thierry Aubin (CNRS), Nicolas Grimault (CNRS), Nicolas Boyer (Université de Saint-Étienne), Amélie Vergne, Léo Papet, Julie Thévenet et Naïs Caron-Delsbosc. Je remercie les parcs zoologiques La Ferme aux crocodiles (Pierrelatte, France) et Crocoparc (Agadir, Maroc) pour leur soutien.
Nicolas Mathevon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Source: The Conversation – in French – By Baptiste Chide, Chargé de Recherche CNRS à l’IRAP (Université de Toulouse, CNES), Observatoire Midi-Pyrénées
Pour la première fois, un microphone placé sur le rover Perseverance de la Nasa a permis de découvrir l’existence de petites décharges électriques dans les tourbillons et les tempêtes martiennes de poussière. Longtemps théorisés, ces petits éclairs sur Mars deviennent une réalité grâce à des enregistrements acoustiques et électromagnétiques inédits que nous venons de publier dans la revue Nature. Cette découverte, aux conséquences multiples sur nos connaissances de la chimie et de la physique ainsi que sur le climat de la planète rouge, révèle de nouveaux défis pour les futures missions robotiques et habitées.
Un souffle de vent martien, et soudain, un claquement sec : les dust devils, ces tourbillons de poussière qui parcourent la planète rouge, viennent de nous livrer un secret bien gardé : ils sont traversés de petits arcs électriques ! Ils ont été vus, ou plutôt entendus, de manière totalement fortuite, grâce au microphone de l’instrument SuperCam sur le rover Perseverance qui sillonne Mars depuis 2020.
Ce microphone est notre oreille à la surface de Mars. Il alimente depuis 2021 une « playlist » de plus de 30 heures composée de brefs extraits quotidiens du paysage sonore martien : le microphone est allumé environ 3 minutes tous les deux jours, pour des raisons de partage du temps du rover avec les autres instruments.
Un jackpot scientifique
Parmi ses morceaux les plus écoutés ? Le ronflement basse fréquence du souffle du vent, le crépitement aigu des grains de sable et les grincements mécaniques des articulations du robot. Mais le dernier titre de cette compilation d’un autre monde est une pépite : un dust devil capté en direct alors qu’il passait au-dessus de notre microphone. Qu’un dust devil passe au-dessus de Perseverance, ce n’est pas forcément exceptionnel – ils sont très actifs dans le cratère de Jezero où est posé Perseverance. Mais, qu’il survole le rover à l’instant même où le microphone est allumé, cela relève du jackpot scientifique.
Le son du tout premier éclair enregistré sur Mars. NASA/JPL-Caltech/LANL/CNES/CNRS/IRAP, Fourni par l’auteur214 ko(download)
Au cœur de cet enregistrement se cachait un signal fort que nous avons peiné à interpréter. Notre première hypothèse fut celle d’un gros grain de sable ayant impacté la zone proche de la membrane du microphone. Quelques années plus tard, alors que nous assistions à une conférence sur l’électricité atmosphérique, nous avons eu une illumination : s’il y avait des décharges sur Mars, la façon la plus directe de les détecter serait de les écouter parce qu’aucun autre instrument à bord de Perseverance ne permet d’étudier les champs électriques.
Évidemment, l’enregistrement le plus favorable pour vérifier cette hypothèse était précisément celui-ci. Réexaminé à la lumière de cette interprétation, il correspondait bien au signal acoustique d’une décharge électrique. Ce n’était pas tout !
Cette onde de choc était précédée d’un signal étrange qui ne ressemblait pas à quelque chose de naturel mais qui provenait en réalité de l’interférence électromagnétique de la décharge avec l’électronique du microphone. Nous savions que celle-ci était sensible aux ondes parasites, mais nous avons tourné ce petit défaut à notre avantage. Grâce à la combinaison de ces deux signaux, tout était devenu clair : nous avions détecté pour la première fois des arcs électriques sur Mars. Pour en être absolument convaincus, nous avons reproduit ce phénomène en laboratoire à l’aide de la réplique de l’instrument SuperCam et d’une machine de Wimshurst, une expérience historiquement utilisée pour générer des arcs électriques. Les deux signaux – acoustique et électromagnétique – obtenus étaient rigoureusement identiques à ceux enregistrés sur Mars.
En soi, l’existence de ces décharges martiennes n’est pas si surprenante que cela : sur Terre, l’électrification des particules de poussière est bien connue, notamment dans les régions désertiques, mais elle aboutit rarement à des décharges électriques. Sur Mars en revanche, l’atmosphère ténue de CO2 rend ce phénomène beaucoup plus probable, la quantité de charges nécessaire à la formation d’étincelles étant beaucoup plus faible que sur Terre. Cela s’explique par le frottement de minuscules grains de poussière entre eux, qui se chargent en électrons puis libèrent leurs charges sous forme d’arcs électriques longs de quelques centimètres, accompagnés d’ondes de choc audibles. Le vrai changement de paradigme de cette découverte, c’est la fréquence et l’énergie de ces décharges : à peine perceptibles, comparables à une décharge d’électricité lorsqu’on touche une raquette à moustiques, ces étincelles martiennes sont fréquentes, en raison de l’omniprésence de la poussière sur Mars.
Des implications au niveau du climat martien
Ce qui est fascinant, c’est que cette découverte intervient après des décennies de spéculations sur l’activité électrique martienne, touchant une arborescence de phénomènes encore peu ou mal expliqués. Par exemple, l’activité électrique de la poussière a longtemps été suspectée de fournir un moyen très efficace pour soulever la poussière du sol martien. Les champs électriques derrière les arcs électriques entendus sur Mars sont a priori suffisamment forts pour faire léviter la poussière.
En absorbant et en réfléchissant la lumière solaire, la poussière martienne contrôle la température de l’air et intensifie la circulation atmosphérique (les vents). Et parce que les vents contrôlent en retour le soulèvement de la poussière, la boucle de rétroactions poussière-vent-poussière est à l’origine des tempêtes globales qui recouvrent intégralement la planète de poussière tous les 5 ou 6 ans. Vu l’importance de la poussière dans le climat martien, et alors que les meilleurs modèles ne savent pas encore prédire correctement son soulèvement, les forces électrostatiques ne pourront plus être ignorées dans le cycle global de la poussière sur Mars.
Expliquer la disparition du méthane
L’autre sujet qui attire les regards des scientifiques concerne le très controversé méthane martien. La communauté débat depuis plus de vingt ans à son sujet en raison de ses implications potentielles, à savoir une activité géophysique ou biologique éventuelle sur Mars, deux hypothèses fascinantes.
Au-delà du caractère énigmatique de ses détections sporadiques, sa disparition – des centaines de fois plus rapide que ce que prédisent les modèles de chimie atmosphérique les plus sophistiqués – a longtemps laissé les experts circonspects. L’un des mécanismes de destruction du méthane les plus prometteurs, proposé il y a une vingtaine d’années, fait précisément intervenir l’action de champs électriques intenses sur la chimie atmosphérique. En accélérant ions et électrons, ces champs permettent de casser les molécules de méthane, mais surtout celles de la vapeur d’eau, produisant ainsi de puissantes espèces réactives capables de détruire le méthane bien plus efficacement encore.
Qui plus est, la présence d’arcs électriques à l’échelle planétaire pourrait s’avérer déterminante dans la préservation de la matière organique. Des expériences de laboratoire ont montré la destruction brutale de biomarqueurs causée par le recyclage d’espèces chlorées induite par l’activité électrostatique de la poussière.
On le voit, la portée de ces nouveaux sons martiens dépasse largement le seul cadre de la communication grand public. Ils redessinent plusieurs pans de notre compréhension de Mars et ouvrent un nouveau champ d’investigations, qui nécessitera un nombre accru d’observations.
Peut-être lors de futures missions ? L’ESA avait déjà tenté l’expérience – sans succès – avec l’atterrisseur Schiaparelli, qui devait réaliser les premières mesures des champs électriques martiens avant de s’écraser à la surface de la planète. L’exploration future, humaine ou non, se devra de mieux caractériser ces champs pour mieux cerner leurs implications. D’ici là, Perseverance restera l’unique témoin in situ de ce phénomène qui est sans doute loin de nous avoir tout révélé.
Franck Montmessin a reçu des financements de l’ANR et du CNES.
Baptiste Chide ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Source: The Conversation – in French – By Laurent Bopp, Directeur de recherche, Centre national de la recherche scientifique (CNRS); École normale supérieure (ENS) – PSL; Académie des sciences
L’idée d’injecter des aérosols dans l’atmosphère pour imiter l’effet des éruptions volcaniques et masquer les rayons du Soleil n’est pas nouvelle, mais elle nous expose au risque de « choc terminal » : un réchauffement brutal si l’injection venait à s’arrêter. Ici, une éruption du volcan Tonga, dans le Pacifique.Goes-West Satellite/NOAA/RAMMB/CIRA, CC BY
La « géo-ingénierie climatique » recouvre un ensemble de techniques qui visent à manipuler le climat à grande échelle afin d’éviter les risques du changement climatique. Ces techniques sont très variées, depuis les parasols spatiaux pour limiter l’arrivée des rayons du soleil dans l’atmosphère jusqu’à la fertilisation des océans pour que le phytoplancton consomme davantage de CO₂, en passant par la restauration et la conservation de zones humides où le carbone est stocké de façon préférentielle.
En octobre 2025, l’Académie des sciences a publié un rapport qui détaille ce que l’on sait et ce que l’on ignore encore sur les éventuels bénéfices de ces techniques et sur les nouveaux risques qu’elles font surgir.
Elsa Couderc, cheffe de rubrique Sciences et Technologies, explore ici avec Laurent Bopp, climatologue et académicien, les nouveaux risques climatiques que ces techniques pourraient faire émerger. Le second volet de ces « regards croisés » est un entretien avec Manuel Bellanger, qui étudie à l’Ifremer le développement des techniques de géo-ingénierie marine avec un regard d’économiste.
The Conversation : Pourquoi l’Académie des sciences s’empare-t-elle aujourd’hui du sujet de la géo-ingénierie climatique, alors qu’on en parle relativement peu en France ?
Laurent Bopp : Le sujet est de plus en plus présent dans la littérature scientifique, dans le débat scientifique et dans le débat politique qui entoure les discussions sur le changement climatique. On ne s’en rend pas bien compte en France, mais aux États-Unis, en Angleterre, en Allemagne, au Canada, le débat est beaucoup plus présent.
Certains climatologues, y compris de renom, se prononcent pour faire beaucoup plus de recherches sur ces technologies, mais aussi parfois pour envisager leur déploiement à grande échelle afin d’éviter un réchauffement trop important. L’argument est simple : un niveau de réchauffement trop élevé génère des risques importants et pourrait conduire au dépassement de certains points de bascule potentiels dans le système climatique, par exemple une fonte irréversible des calottes glaciaires du Groenland et de l’Antarctique, ce qui pourrait entraîner une élévation du niveau de la mer de plusieurs mètres additionnels.
En France, nous avons besoin collectivement de plus d’informations et de plus de débats autour de ces techniques. Nous avons eu le sentiment que certains de nos représentants se sont retrouvés en partie dépourvus dans des arènes de négociations internationales, face à des représentants d’autres gouvernements qui ont un agenda très agressif sur ces technologies. C’est sans doute une des raisons pour lesquelles l’Académie des sciences s’est emparée du sujet.
L’idée des interventions de géo-ingénierie climatique, c’est de réduire les risques liés au changement climatique. Mais ces interventions pourraient-elles induire de nouveaux risques et lesquels ?
L. B. : Un des intérêts de ce rapport, c’est de mettre la lumière sur ces nouveaux risques.
Mais, avant de rentrer dans le détail, il faut, quand nous parlons de géo-ingénierie climatique, distinguer deux grandes catégories de techniques – ces deux catégories sont fondées sur des approches très différentes et présentent des risques, là aussi, très différents.
Pour la première de ces catégories, il s’agit de modifier de façon assez directe le rayonnement solaire. On parle en anglais de Solar Radiation Management ou SRM. Dans ce cas-là, l’action s’apparente plutôt à une sorte de pansement sur la plaie d’une blessure, sans s’attaquer du tout à la cause du changement climatique : l’idée est de refroidir la Terre de façon artificielle, en utilisant par exemple des particules atmosphériques ou des miroirs spatiaux qui limiteraient la pénétration du rayonnement solaire jusqu’à la surface de la Terre. Ce refroidissement pourrait compenser, en partie au moins, le réchauffement lié aux gaz à effet de serre qui continueraient à augmenter dans l’atmosphère.
L’injection d’aérosols dans la haute atmosphère vise à imiter des éruptions volcaniques de très grande taille qui, par le passé, ont pu refroidir la Terre. Une des limites premières de cette approche, c’est que cette façon de refroidir la Terre est très différente de la façon dont elle se réchauffe aujourd’hui à cause des gaz à effet de serre : les échelles de temps et les échelles spatiales associées sont très différentes, et cela engendre un certain nombre de conséquences. Les risques sont à lire en fonction de ces deux échelles.
Les aérosols que l’on pourrait injecter dans la haute atmosphère ont une durée de vie courte. Ils vont disparaître de l’atmosphère assez rapidement, tandis que les gaz à effet de serre qui réchauffent le système Terre, le CO₂ en particulier, sont dans l’atmosphère pour très longtemps.
Cette différence majeure entraîne l’un des risques les plus préoccupants : le risque de « choc terminal ». Concrètement, si l’on décidait d’arrêter brutalement l’injection d’aérosols après s’être engagé dans ce type de stratégie – et les raisons pourraient être multiples, qu’il s’agisse de problèmes de gouvernance, de financement ou de conflits internationaux – le réchauffement climatique jusque-là partiellement masqué réapparaîtrait d’un seul coup. On subirait alors, en très peu de temps, plusieurs années de réchauffement accumulé. On aurait des taux de réchauffement temporels très très rapides, et donc des conséquences sur la biodiversité ou sur les sociétés humaines difficiles à anticiper.
En d’autres termes, si le réchauffement arrive relativement lentement, la mise en place de mesures d’adaptation est possible ; s’il est très rapide, les conséquences sont potentiellement bien plus dévastatrices.
L’autre risque majeur est lié aux échelles spatiales : refroidir avec des aérosols par exemple, ce n’est pas du tout la même chose que ne pas refroidir en émettant moins de CO₂. Les effets régionaux du refroidissement vont être très différents de ce qu’ils auraient été si on avait réchauffé un peu moins. La localisation des précipitations, l’intensité de la mousson notamment ont des conséquences sur l’agriculture, sur la santé. Sur ces effets régionaux, il y a encore beaucoup d’incertitudes aujourd’hui, c’est quelque chose que les modèles décrivent moins bien que les effets temporels dont je parlais tout à l’heure.
Face à ce risque majeur, l’Académie recommande d’arrêter le déploiement des techniques de modification du rayonnement solaire, et même les recherches sur cette technique de géo-ingénierie…
L. B. : Effectivement, notre rapport recommande de ne pas utiliser ces techniques, et nous allons même jusqu’à suggérer un traité international qui interdirait leur déploiement.
Nous pensons aussi qu’il ne faut pas financer, de façon importante, de la recherche qui soit spécifiquement fléchée sur ces techniques de modification du rayonnement solaire, pour éviter de légitimer ces approches trop dangereuses.
Bien sûr, nous avons besoin de bien plus de recherche sur le climat et sur les processus climatiques importants, donc sur les processus qui lient, par exemple, les aérosols dans la haute atmosphère avec la modification du rayonnement, mais nous pensons vraiment qu’il faut éviter les projets fondamentalement pensés pour pousser l’avènement de ces technologies. Les risques associés sont trop importants.
La géo-ingénierie climatique inclut une deuxième approche, celle qui consiste à augmenter l’efficacité des puits de carbone naturels, par exemple les forêts, les tourbières ou les océans qui absorbent naturellement du carbone. En quoi est-ce fondamentalement différent de la modification du rayonnement solaire ?
L. B. : Il ne s’agit plus de refroidir la Terre pour compenser un réchauffement qui serait lié à l’augmentation des gaz à effet de serre, mais d’éliminer du CO₂ qui est déjà présent dans l’atmosphère. Le terme consacré est celui d’« élimination du dioxyde de carbone », ou Carbon Dioxide Removal (CDR) en anglais.
D’abord, soyons clairs : la priorité des priorités reste de réduire les émissions actuelles de façon drastique. Ces « puits de carbone » additionnels ne doivent intervenir que comme un complément, après la réduction des émissions de façon massive et immédiate.
Pour stabiliser le climat et répondre aux objectifs de l’accord de Paris à 1,5 ou 2 °C de réchauffement par rapport à l’époque préindustrielle, nous avons besoin d’aller collectivement vers des émissions nettes nulles !
Comme il y aura sans doute des secteurs difficiles à décarboner, comme la sidérurgie ou le transport aérien, nous savons qu’il y aura sans doute besoin d’un peu de ces puits de carbone pour compenser ces émissions résiduelles.
On est donc sur une ligne de crête compliquée à tenir : ne pas mettre ces techniques d’élimination du CO₂ en avant, pour ne pas décourager la réduction des émissions – en raison du potentiel de décarbonation limité de ces techniques, nous allons y revenir – et en même temps continuer à soutenir la recherche sur ces technologies parce qu’elles pourraient se révéler utiles, au moins dans une certaine mesure.
En augmentant l’efficacité des puits de carbone naturels, si on reprend l’analogie avec le pansement et la blessure, on ne s’attaque toujours pas à la cause (l’émission de gaz à effet de serre), mais on remonte dans la chaîne de causalité en s’attaquant à quelque chose de plus amont que dans le cas de la modification du rayonnement solaire.
Il existe de nombreux types de méthodes d’élimination du CO₂, à la fois naturelles et technologiques. Présentent-elles toutes le même potentiel et les mêmes risques ?
L. B. : Pour éliminer du CO₂ déjà dans l’atmosphère, il y a une très grande diversité de techniques, en partie parce qu’il existe plusieurs « réservoirs » dans lesquels il serait possible de stocker le CO₂ retiré de l’atmosphère : dans le sous-sol, dans l’océan, dans la biomasse continentale.
Pour simplifier, je dirais qu’il y a une série de techniques qui sont aujourd’hui considérées comme « gagnant-gagnant » : elles permettent de retirer du CO₂ de l’atmosphère et elles ont d’autres bénéfices.
Prenons par exemple la restauration et la conservation des écosystèmes côtiers, comme les mangroves ou les herbiers marins : ces actions permettent un stockage de carbone et, par exemple, de mieux protéger les côtes contre la montée du niveau marin et les épisodes de submersion côtière. D’autres techniques, en foresterie, en agroforesterie ou en stockant le carbone dans les sols, permettent aussi de développer des pratiques agricoles qui sont plus vertueuses.
Malheureusement, comme évoqué dans le rapport, ces approches sont difficiles à mettre à l’échelle, en raison des surfaces souvent limitées et des quantités phénoménales de carbone qu’il faudrait pouvoir stocker dans ces réservoirs naturels pour avoir un effet significatif.
Et puis il y a, à l’autre bout du spectre, des techniques qui sont jugées peu efficaces et dont on sait qu’elles ont sans doute des effets dommageables sur les écosystèmes. Compte tenu des connaissances actuelles, l’Académie des sciences recommande de ne pas poursuivre dans ces directions-là.
L’exemple le mieux documenté est celui de la fertilisation par le fer du plancton marin, car elle a été envisagée il y a déjà longtemps, à la fin des années 1980. L’idée est d’aller en pleine mer, dans des régions où le développement du phytoplancton est limité par la faible abondance d’un nutriment bien particulier : le fer. Dans ces régions, il n’y a pas besoin d’ajouter beaucoup de fer pour fertiliser le plancton, qui va se développer davantage, et pour cela absorber plus de CO₂. Une partie de la matière organique produite coule ensuite vers les profondeurs de l’océan, emportant avec elle le carbone qu’elle contient. Ce carbone est ainsi isolé de l’atmosphère dans l’océan profond, potentiellement pour des centaines d’années.
Plusieurs expériences scientifiques ont été menées en pleine mer dans les années 1990 et 2000. À court terme, elles ont effectivement mis en évidence une augmentation du flux de carbone de l’atmosphère vers l’océan.
Toutefois, des travaux plus récents, notamment fondés sur la modélisation, montrent que cette technique est probablement beaucoup moins efficace qu’on ne l’imaginait initialement. Surtout, en modifiant fortement les écosystèmes marins pour capter du carbone, elle entraîne toute une série d’effets indésirables : l’émission d’autres gaz à effet de serre, une diminution de l’oxygène dans les eaux profondes, ou encore l’épuisement de certains nutriments essentiels, qui ne sont alors plus disponibles pour d’autres écosystèmes.
Ces constats ont conduit la communauté internationale à réagir. En 2008, les États ont amendé le protocole de Londres afin d’y introduire une interdiction de ce type de pratiques en haute mer.
Dans le cas de la fertilisation des océans, les risques sont donc bien documentés – ils ne concernent pas directement le climat mais des dommages collatéraux ?
L. B. : Oui. Malheureusement, on voit en ce moment une résurgence de certains projets poussés par certains chercheurs qui continuent à défendre ce type de techniques, par exemple aux États-Unis. Mais pour nous, il semble clair qu’il ne faut pas recommander ces techniques aux effets collatéraux bien documentés.
Entre les techniques trop risquées, comme la fertilisation des océans, et les techniques de conservation et de restauration, que j’appelais « gagnant-gagnant » tout à l’heure, il y a d’autres techniques, pour lesquelles on a besoin de davantage de recherche – c’est le cas, par exemple, des techniques d’alcalinisation de l’océan.
Il s’agit d’une technique chimique cette fois : on augmente le pouvoir tampon de l’océan en ajoutant du matériel alcalin. Un des points positifs, c’est que cette technique consiste en l’accélération d’un phénomène naturel qui est l’altération des roches sur les continents. Quand les roches s’altèrent, elles apportent de l’alcalinité à l’océan, donc elles augmentent le pouvoir tampon de l’océan qui absorbe plus de CO₂ – c’est un processus très lent, qui a un rôle très important sur les échelles de temps très, très longues et qui régule en partie le cycle du carbone sur les échelles de temps géologiques.
Deuxième avantage : le CO2 ainsi stocké dans l’océan l’est de manière très durable, bien plus que dans des approches reposant sur du carbone organique (comme la fertilisation des océans) où le stockage est beaucoup plus incertain. Troisième point positif, cette augmentation de l’alcalinité permet aussi de réduire partiellement l’acidification des océans.
Mais ces bénéfices s’accompagnent de nombreuses incertitudes et de risques. Ajouter des matériaux alcalins modifie parfois fortement la chimie de l’eau de mer. Quels effets cela pourrait-il avoir sur les écosystèmes marins, le plancton ou les espèces côtières dont dépendent de nombreuses populations humaines ? À ce stade, nous manquons encore de données pour répondre clairement à ces questions.
L’efficacité même de la technique reste également incertaine. Pour qu’elle fonctionne, l’alcalinité ajoutée doit rester dans les couches de surface de l’océan, là où les échanges avec l’atmosphère ont lieu. Si elle est rapidement entraînée vers les profondeurs, son impact sur l’absorption du CO₂ devient très limité.
Enfin, il y a beaucoup de questions sur le coût de ces techniques. En particulier, un certain nombre de start-up et d’entreprises s’orientent vers des méthodes électrochimiques, mais c’est très coûteux d’un point de vue énergétique. Il faut faire le bilan sur l’ensemble du cycle de vie de ces techniques.
En somme, on a une gamme de techniques, parfois appelées abusivement « solutions » : certaines que l’on ne recommande pas aujourd’hui parce que les risques sont énormes ; d’autres qu’il faut prioriser et recommander, mais qui ont une efficacité somme toute limitée. Et puis entre les deux, des méthodes sur lesquelles il faut continuer à travailler.
À l’échelle internationale, où et quand se discutent les nouveaux risques des techniques de géo-ingénierie climatique ?
L. B. : La question des puits de carbone est déjà largement débattue dans le cadre des COP Climat, notamment parce que les gouvernements peuvent les intégrer dans leurs objectifs de réduction des émissions. C’est le cas, par exemple, des stratégies d’afforestation (boisement) et de reforestation. En revanche, il reste encore beaucoup de travail à faire sur les modalités concrètes de mise en œuvre de certaines techniques d’élimination du CO₂ que nous avons évoquées. En particulier, les questions de mesure et de vérification du CO₂ réellement retiré de l’atmosphère sont complexes et loin d’être résolues. Le Giec a d’ailleurs été mandaté par les gouvernements pour produire un rapport méthodologique spécifiquement consacré à ces enjeux.
En ce qui concerne la modification du rayonnement solaire, mon inquiétude est nettement plus forte. Certains pays affichent désormais ouvertement leur intérêt pour un déploiement potentiel de ces techniques.
Dans le prochain rapport du Giec, la géo-ingénierie occupera une place plus importante que dans les précédents. J’espère que cela permettra de documenter de façon précise et convaincante les risques potentiels associés à ces approches.
Propos recueillis par Elsa Couderc.
Bopp Laurent a reçu des financements du CNRS, de l’Agence Nationale de la Recherche, de la Fondation pour la Recherche sur la Biodiversité, du Programme Horizon Europe de la Commission Européenne, et de la Fondation Schmidt Sciences.
Source: The Conversation – in French – By Olasunkanmi Habeeb Okunola, Senior Research Associate, United Nations University – Institute for Environment and Human Security (UNU-EHS), United Nations University
Lors du sommet mondial sur le climat de 2025, la COP30, qui s’est tenu à Belém, au Brésil, une décision a eu des conséquences majeures pour l’Afrique. Les pays se sont mis d’accord sur un nouvel ensemble d’indicateurs pour mesurer les progrès.
Bien que le nom puisse sembler technique, l’idée est simple. Pour la première fois, les pays disposent désormais d’un moyen commun de déterminer si le monde s’adapte réellement mieux aux effets du changement climatique. L’adaptation au climat consiste à prendre des mesures pour se préparer et faire face aux effets du changement climatique. Ces effets comprennent les inondations, les sécheresses, les vagues de chaleur, l’érosion côtière, les pertes de récoltes et les déplacements de populations liés au climat.
Alors, que sont exactement les indicateurs de Belém et comment fonctionnent-ils ?
Il s’agit d’un nouvel ensemble de 60 mesures simples qui aident les pays à suivre leur niveau d’adaptation au changement climatique. Ils examinent les éléments qui affectent la vie quotidienne des populations. Il s’agit notamment de la sécurité de l’approvisionnement en eau, des systèmes alimentaires, de la santé, du logement, des systèmes d’alerte précoce, des écosystèmes et des économies locales. Au lieu de se concentrer uniquement sur les politiques écrites sur papier, les indicateurs examinent si les communautés deviennent réellement plus sûres et mieux à même de faire face aux inondations, aux sécheresses, aux vagues de chaleur et aux autres menaces climatiques.
Les indicateurs sont regroupés en thèmes clés, tels que :
réduire les risques climatiques : systèmes d’alerte précoce, préparation aux catastrophes
renforcer la résilience : systèmes de santé, sécurité alimentaire et hydrique
protéger les écosystèmes : forêts, zones humides et zones côtières
soutenir les personnes vulnérables : genre, handicap, groupes autochtones
suivre les finances et les ressources : comment les fonds destinés à l’adaptation sont acheminés vers les communautés.
Ensemble, ces 60 mesures offrent aux pays un moyen commun de comprendre et de suivre les progrès réalisés et les domaines dans lesquels un soutien est nécessaire de toute urgence.
Pendant des années, l’adaptation a été abordée en termes généraux, souvent sans mesures claires des progrès réalisés. Les indicateurs de Belém visent à changer cela en fournissant un langage commun pour décrire ce qu’implique la résilience et si les populations, en particulier les plus vulnérables, deviennent plus sûres.
En tant que spécialiste de la réduction des risques de catastrophe et de l’adaptation au changement climatique, j’ai examiné les nouveaux indicateurs de Belém et leur pertinence pour l’Afrique. Ils représentent une étape importante à l’échelle mondiale, mais leur succès dépendra d’un financement solide, d’une conception inclusive et d’une mise en œuvre localement ancrée Avec la COP32 qui se tiendra à Addis-Abeba, l’Afrique peut contribuer à transformer ces indicateurs d’ambition en impact réel.
Dans le même temps, les communautés africaines trouvent leurs propres solutions, qu’il s’agisse de systèmes d’alerte précoce locaux, de projets basés sur la nature, de groupes d’épargne communautaires ou de pratiques agricoles innovantes.
Mais jusqu’à présent, il n’existait aucun moyen global de reconnaître ces efforts, de suivre les progrès ou d’identifier les endroits où l’aide est la plus nécessaire. Les indicateurs de Belém commencent à combler cette lacune.
Pour l’Afrique, c’est important. Trop souvent, les moyennes nationales masquent de fortes inégalités. Elles cachent des écarts entre les zones rurales et urbaines, entre les familles riches et pauvres, et entre les groupes exposés à des menaces climatiques très différentes. Mettre l’accent sur l’équité permet d’éviter que les personnes les plus exposées ne soient ignorées.
Si l’adoption des indicateurs d’adaptation de Belém constitue une avancée majeure, ils ne sont toutefois pas, à mon avis, l’outil abouti dont le monde a besoin.
De nombreux négociateurs, observateurs et experts techniques ont noté que plusieurs éléments ont été édulcorés lors des dernières phases de négociation, rendant certains indicateurs plus généraux ou moins précis que prévu initialement. D’autres nécessitent des informations que de nombreux pays africains ne sont pas encore en mesure de collecter régulièrement, faute de systèmes ou de ressources.
Les pays manquent souvent de données fiables sur les dommages annuels causés par les effets du changement climatique, tels que les inondations ou les sécheresses. Ils ne disposent pas toujours d’évaluations locales permettant d’identifier les communautés les plus exposées et les raisons de cette exposition. En outre, ils ont du mal à vérifier si les fonds alloués à l’adaptation parviennent réellement aux personnes qui en ont besoin.
Ces défis ne remettent pas en cause la valeur du cadre. Ils mettent plutôt en évidence une réalité pratique : s’accorder sur des indicateurs mondiaux n’est qu’une première étape. Pour les rendre significatifs, mesurables et équitables, en particulier pour les pays confrontés aux risques climatiques les plus élevés, il faudra les affiner davantage. C’est pourquoi la prochaine phase de travail est d’une grande importance.
Afin de renforcer les indicateurs, les pays se sont mis d’accord sur ce qu’on appelle la «Vision Belém-Addis», un processus de deux ans visant à affiner le cadre et à le rendre plus pratique. Le moment est symbolique : la COP32, en 2027, se tiendra à Addis-Abeba, en Éthiopie. Le monde s’attend à ce que les indicateurs soient plus clairs, plus faciles à utiliser et mieux adaptés aux différentes régions d’ici là.
Ce parcours de deux ans, de Belém à Addis, offre une opportunité unique à l’Afrique. La COP32 sera le premier véritable test pour déterminer si ces indicateurs peuvent aider les pays à évaluer et à communiquer les progrès réalisés en matière d’adaptation.
L’Afrique peut montrer la voie, et non se contenter de suivre
La contribution de l’Afrique sera essentielle pour deux raisons.
Premièrement, les défis climatiques du continent sont divers et évoluent rapidement. Les solutions qui fonctionnent dans un domaine peuvent ne pas fonctionner dans un autre. Cette diversité fait de l’Afrique le meilleur terrain d’essai pour les indicateurs mondiaux qui visent à refléter la complexité du monde réel.
Mais pour que l’Afrique puisse jouer ce rôle, elle aura besoin d’aide.
Une étape importante, mais le travail reste à faire
Les indicateurs d’adaptation de Belém apportent au monde ce qui lui manquait depuis longtemps : une approche commune, compréhensible et ciblée pour discuter de l’adaptation, axée sur ce qui importe le plus, à savoir la sécurité et le bien-être des populations. Mais ils ne sont pas une solution définitive. Ils sont un point de départ.
Avec la COP32 qui se tiendra à Addis-Abeba, l’Afrique a une occasion rare d’influer sur la prochaine génération d’outils d’adaptation mondiaux et de s’assurer qu’ils fonctionnent pour ceux qui vivent en première ligne du changement climatique.
Si le voyage de Belém à Addis est utilisé à bon escient, le monde sera mieux outillé pour construire des sociétés résilientes. Sinon, un temps précieux aura été perdu dans une décennie où chaque année compte.
Olasunkanmi Habeeb Okunola est chercheur principal à l’Institut pour l’environnement et la sécurité humaine (UNU-EHS) de l’Université des Nations Unies. Il a reçu de nombreuses bourses de recherche axées sur l’adaptation au changement climatique et la réduction des risques de catastrophe.
El mundo está utilizando tanta agua dulce, en un contexto marcado por el cambio climático, que ha caído en bancarrota hídrica, y muchas regiones ya no pueden recuperarse de las frecuentes escaseces de agua.
Alrededor de 4 000 millones de personas, casi la mitad de la población mundial, viven con una grave escasez de agua durante al menos un mes al año, sin acceso a agua suficiente para satisfacer todas sus necesidades. Y muchas más están viendo las consecuencias del déficit de agua: embalses secos, ciudades que se hunden, malas cosechas, racionamiento de agua, incendios forestales y tormentas de polvo.
Las señales de la crisis hídrica están por todas partes, desde Teherán, donde las sequías y el uso insostenible del agua han agotado los embalses de los que depende la capital iraní, lo que ha avivado las tensiones políticas, hasta Estados Unidos, donde la demanda de agua ha superado el suministro del río Colorado, una fuente crucial de agua potable y riego para siete estados.
Las sequías han dificultado la búsqueda de agua para el ganado y han provocado una malnutrición generalizada en algunas zonas de Etiopía en los últimos años. En 2022, UNICEF estimó que hasta 600 000 niños necesitarían tratamiento por malnutrición grave. Demissew Bizuwerk/UNICEF Etiopía, CC BY
La bancarrota hídrica no es solo una metáfora del déficit de agua. Es una condición crónica que se desarrolla cuando un lugar utiliza más agua de la que la naturaleza puede reemplazar de forma fiable, y cuando el daño a los activos naturales que almacenan y filtran esa agua, como los acuíferos y los humedales, se vuelve difícil de revertir.
En la quiebra financiera, las primeras señales de alerta suelen parecer manejables: retrasos en los pagos, préstamos y venta de bienes que se esperaban conservar. Luego, la espiral se acelera.
La quiebra hídrica tiene etapas similares.
Al principio, extraemos un poco más de agua subterránea durante los años secos. Utilizamos bombas más grandes y pozos más profundos. Transferimos agua de una cuenca a otra. Drenamos humedales y enderezamos ríos para hacer espacio para granjas y ciudades.
Así se redujo el mar de Aral entre 2000 y 2011. El lago de agua salada era antes más ovalado y cubría las zonas de color claro hasta la década de 1980, pero el uso excesivo para la agricultura de varios países lo redujo. NASA
Este último, el hundimiento, suele sorprender a la gente. Pero es un síntoma de la escasez de agua. Cuando se extrae agua subterránea en exceso, la estructura subterránea, que retiene el agua casi como una esponja, puede colapsar. En Ciudad de México, el terreno se hunde unos 25 centímetros al año. Una vez que los poros se compactan, no se pueden rellenar fácilmente.
El informe Global Water Bankruptcy, publicado el 20 de enero de 2026, documenta lo extendido que se está volviendo este fenómeno. La extracción de agua subterránea ha contribuido a un importante hundimiento del terreno en más de 6 millones de kilómetros cuadrados, incluidas zonas urbanas donde viven cerca de 2 000 millones de personas. Yakarta, Bangkok y Ciudad Ho Chi Minh son algunos de los ejemplos más conocidos en Asia.
Un sumidero en el corazón agrícola de Turquía muestra cómo el paisaje puede colapsar cuando se extrae más agua subterránea de la que la naturaleza puede reponer. Ekrem07/Wikimedia Commons, CC BY
Alrededor de 3 000 millones de personas y más de la mitad de la producción mundial de alimentos se concentran en zonas donde el almacenamiento de agua ya está disminuyendo o es inestable. Más de 1,7 millones de kilómetros cuadrados de tierras de cultivo irrigadas sufren un estrés hídrico alto o muy alto. Esto amenaza la estabilidad del suministro de alimentos en todo el mundo.
En California, una grave sequía y la escasez de agua obligaron a algunos agricultores en 2021 a retirar los cultivos que requieren mucho riego, incluidos los almendros. Robyn Beck/AFP via Getty Images
Cada año, la naturaleza proporciona a cada región una cantidad de agua, en forma de lluvia y nieve. Piense en ello como una cuenta corriente. Esa es la cantidad de agua que recibimos cada año para gastar y compartir con la naturaleza.
Cuando la demanda aumenta, podemos recurrir a nuestra cuenta de ahorros. Extraemos más agua subterránea de la que se repone. Robamos la parte de agua que necesita la naturaleza y, en el proceso, drenamos los humedales. Esto puede funcionar durante un tiempo, al igual que la deuda puede financiar un estilo de vida derrochador durante un tiempo.
Las orillas expuesta en la presa de Latyan (cerca de Teherán, Irán) muestra unos niveles de agua significativamente bajos el 10 de noviembre de 2025. El embalse, que suministra parte del agua potable de la capital, ha experimentado un fuerte descenso debido a la prolongada sequía y al aumento de la demanda en la región. Bahram/Middle East Images/AFP via Getty Images
Esas fuentes de agua a largo plazo están desapareciendo ahora. El mundo ha perdido más de 4,1 millones de kilómetros cuadrados de humedales naturales en cinco décadas. Los humedales no solo retienen el agua. También la limpian, amortiguan las inundaciones y sustentan la flora y la fauna.
La calidad de agua también está disminuyendo. La contaminación, la intrusión de agua salada y la salinización del suelo pueden hacer que el agua esté demasiado sucia y salada para su uso, lo que contribuye a la escasez de agua.
El cambio climático está agravando la situación al reducir las precipitaciones en muchas zonas del mundo. El calentamiento aumenta la demanda de agua de los cultivos y la necesidad de electricidad para bombear más agua. También derrite los glaciares que almacenan agua dulce.
A pesar de estos problemas, los países siguen aumentando la extracción de agua para apoyar la expansión de las ciudades, las tierras de cultivo, las industrias y ahora los centros de datos.
No todas las cuencas hidrográficas y naciones están en bancarrota hídrica, pero las cuencas están interconectadas a través del comercio, la migración, el clima y otros elementos clave de la naturaleza. El colapso hídrico en una zona ejercerá más presión sobre otras y puede aumentar las tensiones locales e internacionales.
Detener la hemorragia: el primer paso es admitir que el balance está roto. Eso significa establecer límites de uso del agua que reflejen la cantidad de agua realmente disponible, en lugar de limitarse a perforar más profundamente y trasladar la carga al futuro.
Proteger el capital natural, no solo el agua: proteger los humedales, restaurar los ríos, recuperar la salud del suelo y gestionar la recarga de las aguas subterráneas no son solo algo deseable. Son esenciales para mantener un suministro de agua saludable, al igual que un clima estable.
En pequeños Estados insulares como Maldivas, el aumento del nivel del mar amenaza el suministro de agua cuando el agua salada penetra en los acuíferos subterráneos y arruina los pozos. PNUD Maldivas, 2021, CC BY
Usar menos, pero hacerlo de forma justa: gestionar la demanda de agua se ha convertido en algo inevitable en muchos lugares, pero los planes de quiebra hídrica que recortan el suministro a los pobres mientras protegen a los poderosos fracasarán. Entre los enfoques serios se incluyen las protecciones sociales, el apoyo a los agricultores para que realicen la transición a cultivos y sistemas que requieran menos agua y la inversión en eficiencia hídrica.
Medir lo que importa: muchos países siguen gestionando el agua con información parcial. La teledetección por satélite puede supervisar los suministros y las tendencias del agua y proporcionar alertas tempranas sobre el agotamiento de las aguas subterráneas, el hundimiento del terreno, la pérdida de humedales, el retroceso de los glaciares y el deterioro de la calidad del agua.
Planificar para menos agua: la parte más difícil de solucionar la quiebra es psicológica. Nos obliga a abandonar las antiguas referencias. El colapso hídrico requiere rediseñar las ciudades, los sistemas alimentarios y las economías para vivir dentro de nuevos límites antes de que esos límites se estrechen aún más.
Con el agua, al igual que con las finanzas, la bancarrota puede ser un punto de inflexión. La humanidad puede seguir gastando como si la naturaleza ofreciera crédito ilimitado, o puede aprender a vivir dentro de sus medios hidrológicos.
Kaveh Madani no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.
Source: The Conversation – (in Spanish) – By Francisco López Cantos, Ciencias de la Comunicación, experto en comunicación pública de la ciencia., Universitat Jaume I
El siglo XX fue un espejo terrible al que seguimos asomados para entender algunas formas de dominio total basadas en la ideología y el poder del relato. Destacan episodios escalofriantes de ingeniería social, que tuvieron como finalidad lograr que los individuos siguieran ciegamente mecanismos de obediencia absoluta.
En algunos casos, el objetivo fue la reeducación de disidentes a través de la violencia y la coerción. Otras veces se persiguió poner a prueba la capacidad del ser humano de infligir dolor a sus semejantes mediante un reflejo condicionado, que activa mecanismos de obediencia y sumisión.
Dos hitos de manipulación ideológica
El experimento Pitesti se implementó en una cárcel de Rumanía durante el régimen comunista entre 1949 y 1951. Una década más tarde, en 1961, el experimento Milgram recreó una experiencia de modelado social en un entorno de laboratorio en la Universidad de Yale (EE.UU.).
El experimento Milgram tuvo como finalidad analizar el uso y conformación del poder y la asignación de roles carcelario/preso o dominante/dominado, en un entorno controlado y supervisado por investigadores. Lo acabaron interrumpiendo dada la barbarie de violencia en que se había sumido el entorno carcelario simulado que sirvió para el experimento.
Los experimentos Pitesti y Milgram se desarrollaron en el contexto de irreconciliable confrontación ideológica y crecientes tensiones geopolíticas posteriores a la II Guerra Mundial, en lo que se ha venido denominando Guerra Fría.
Pitesti, una cárcel para “reeducar”
Hacia 1949 se empezó a trasladar a la cárcel de Pitesti, ciudad cercana a Bucarest y capital de la región histórica de Valaquia, a algunos de los presos que se consideraba contrarios a la doctrina del régimen.
Entre ellos se encontraba un grupo de fervientes creyentes que seguían manteniendo su fe cristiana y que, a pesar de todos los recursos que el aparato del Estado había movilizado para erradicar las creencias religiosas y construir una sociedad comunista y laica, seguían sin renunciar a su religión.
El objetivo del experimento Pitesti consistía en reeducar a los prisioneros, alterando su personalidad para obtener de ellos una obediencia absoluta. Existen diferentes estimaciones del número de presos que sufrieron torturas, con cifras que van de los 700 a los 5 000 reclusos.
En paralelo, se establecieron algunas negociaciones con la Iglesia, ya que resultaba más sencillo y práctico mantener a los poderes religiosos contenidos y controlados para utilizar su capacidad de influencia en la población.
El régimen, que por entonces lideraba Gheorghe Gheorghiu-Dej, a quien sucedería Nicolae Ceaușescu tras su muerte en 1965, lo había intentado todo. Adoctrinaban a la población con la censura y la prensa, empleaban la represión y el terror y tenían al poder eclesiástico domesticado. Pero no conseguían convertir a los irreductibles. Y a algunos de ellos los llevaban a Pitesti, a ver si se enderezaban en la cárcel y asumían la doctrina “correcta”.
Personas normales convertidas en torturadores
En Pitesti se utilizaron los métodos de reeducación popular más extremos, tras fracasar otros esfuerzos previos por controlar y adoctrinar a la población mediante el discurso propio del aparato del estado y su ideología.
Para reeducarles en la “virtud”, en este caso del comunismo, les hacían comer y cagar en el mismo recipiente, pisotear y escupir los crucifijos y recibían violentas palizas. Pobres personas en manos de unos transmisores del régimen que, como ocurría en el Holocausto, sentían que solo cumplían ordenes y estaban haciendo lo “correcto”. Incluso algunos eran creativos e imaginaban formas de tortura nuevas. Lo importante era cumplir con los preceptos que marcaba la ideología.
El terror se prolongó hasta 1951. El 12 de julio de ese año, el médico Ion Simionescu, de 67 años, sometido al proceso de reeducación, se arrojó contra el alambre de espino para que los guardias lo mataran. Su muerte se hizo pública y las autoridades iniciaron una investigación. Esta se saldó con la ejecución de algunos implicados y una cortina de humo por parte de la justicia comunista.
Cómo imponer un ideal de sociedad
Pitesti no era un laboratorio de investigación, ni siquiera fue un experimento en sentido estricto, aunque así se ha conocido. Más bien era parte de un proyecto institucional de reeducación moral de las masas. Representaba al régimen comunista y al ideal de sociedad que se pretendía.
Una sociedad en la que los diferentes roles estaban perfectamente establecidos entre quienes ostentaban el poder y el resto. Aquellos que no los asumieran, ya sabían el destino que les esperaba. La cárcel era el lugar asignado a las personas “desviadas” y difíciles de convertir a la ideología del régimen. Todo ello como forma de reeducación, si habían tenido la suerte de no ser aniquilados físicamente antes.
El resultado de tales intentos de ocupar el espacio público, y las mentes de la ciudadanía, utilizando el discurso o la violencia no fue el esperado. Bien al contrario, tras el asesinato de Ceaușescu se produjo una eclosión religiosa inmediata y masiva. A día de hoy, en Rumanía, el 85 % de la población se declara cristiana ortodoxa y practicante, sin distinciones significativas entre franjas de edad.
Milgram y la sumisión social
A diferencia de lo sucedido en Pitesti, el experimento Milgram estaba diseñado para analizar el ejercicio del poder y la sumisión e intentar explicar, desde la psicología social, el Holocausto. Por ello se simuló en unas condiciones de laboratorio, sin que existiera un poder omnisciente como el que sí se daba en Rumanía.
Stanley Milgram, un psicólogo estadounidense, estableció un mecanismo para medir el grado de obediencia a la autoridad. Este se basaba en una experiencia mediante la cual unos voluntarios, reclutados a cambio del pago de cuatro dólares, seguían órdenes que provocaban graves daños a otros mediante descargas eléctricas.
En realidad, las supuestas descargas eléctricas eran simuladas, al igual que el sufrimiento de las víctimas. Pero los verdugos voluntarios desconocían este hecho.
El experimento de Stanley Milgram mostró con crudeza la vigencia de las reflexiones de Hannah Arendt en torno a la banalidad del mal y la irracional condición humana. También pretendía revelar los peligros que supone el uso de la violencia física o simbólica cuando se utiliza para la conformación de discursos políticos extremistas.
De aquellos barros, estos lodos.
En aquellas agitadas décadas posteriores a la segunda guerra mundial, germen de los profundos cambios sociales que llegan hasta la actualidad, se desarrollaron los experimentos Pitesti y Milgram. También se produjeron significativas confrontaciones académicas estrechamente ligadas a las diferentes perspectivas ideológicas propias de los bloques enfrentados. Muestra de ello son los históricos debates entre Noam Chomsky y Michel Focault en torno a la validez de la ciencia frente al poder del discurso. O el que sostuvieron Jean-Paul Sartre y Marcel Camus en relación a la justificación de los medios para la consecución de los fines ideológicos.
Estos debates, y aquellos “experimentos”, nos acercan lecciones de la historia en torno a los nocivos efectos derivados de la simplificación y confrontación ideológica y la ingenua confianza en la eficacia y los efectos de la comunicación y el poder del relato para promover el cambio social.
El lado perverso del relato
Se ha creído ingenuamente que el poder del relato puede servir para implementar masivamente una determinada transformación social, sea de la ideología que sea. Cuando esto sucede, los resultados son impredecibles a corto y medio plazo. Oscilan entre sus efectos narcotizantes y las devastadoras consecuencias gobbelianas de su extensión y adopción irracional. En cualquier caso, sus frutos no son otros que el incremento de la polarización y la confrontación pública.
El exceso del relato y la comunicación siempre es bienvenido como práctica extensiva de carácter cultural, como ficción en sí misma que explora los límites y características de la propia condición humana y la sociedad de cada época. Pero no debería ser una práctica común en el ámbito de la comunicación pública, tal como estamos viendo en estos tiempos en que todo el mundo parece haber asumido que el éxito político y social consiste en “ganar el relato”.
Hay que tener cuidado con los experimentos sociales y la confianza en las bondades de la comunicación para imponer una particular visión ideológica. Resulta bastante sencillo convertir un inocuo club de fans de tal o cual saga literia o cinematográfica en un bastante peligroso club de fanáticos de la ideología de turno que promueve tal relato, o de la opuesta.
Y en las democracias europeas, de larga tradición académica pero cada vez más amenazadas por los extremismos ideológicos, parece que las Humanidades todavía tienen algo que decir frente el progresivo deterioro de la política y el conocimiento. Un deterioro resultado de la extrema simplificación y mitificación del relato académico en torno al poder y bondades de la comunicación.
Francisco López Cantos no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.