Valentino: the Italian designer who broke into French haute couture with his elegant style and signature red

Source: The Conversation – UK – By Naomi Braithwaite, Associate Professor in Fashion and Material Culture, Nottingham Trent University

On the advent of the seasonal haute couture catwalk shows in Paris, the fashion industry mourns the loss of another iconic designer. Valentino Garavani has died at the age of 93. He was the creator of the House of Valentino and renowned as one of Italy’s greatest couturiers.

For Valentino, fashion was about creating beautiful dresses. He was famously quoted as saying: “I know what women want. They want to be beautiful.” However, his notions of “ideal beauty” were met with some controversy through his career, in particular his defence of skinny models on the runway in 2007.

After a childhood in Italy surrounded by and inspired by fashion, a young Valentino moved to Paris in 1950 to study at the prestigious École des Beaux Arts
and Chambre Syndicale de la Couture Parisienne.

It was during this time that he apprenticed with couturiers, including Balenciaga and Guy Laroche. Haute couture, defined as “high dressmaking”, is distinct from ready-to-wear fashion. The couturier is a designer who uses bespoke techniques and makes one-off garments for individual customers. Couture garments are made by hand with specialised techniques and luxurious materials.

In 1959, following the founding of his design studio in Rome, Valentino designed his first ready-to-wear collection. This collection included strapless mid-length dresses in block colours and showcased what was to become known as the eponymous Valentino style. This was fashion that embodied elegance and sophistication with meticulous attention paid to accentuating the female silhouette through the use of sumptuous materials.

In 1960, Valentino opened the luxury fashion house, Valentino, with the support of his business and life partner Giancarlo Giammetti. It was his first couture show in 1962 at The Pitti Palace in Florence that was to launch Valentino onto the global fashion stage. Critics were astounded by his exquisite tailored dresses in sumptuous materials, including a parade of red dresses that were to become his signature look. The looks on show exuded elegance and showcased Valentino’s ability to inject a modern stance on classic styling..

The success of Valentino’s 1962 show was reinforced soon after when, French Vogue dedicated their front cover to an Italian designer for the first time. From then on Valentino became the designer to the stars, creating iconic looks for celebrities including Jackie Kennedy and Audrey Hepburn. Kennedy chose a Valentino gown to marry her second husband, Aristotle Onassis, in 1968.

In 1973, Valentino became the first Italian designer to be welcomed into the Fédération de la Haute Couture et de la Mode (the Federation of Haute Couture and Fashion). This was unusual for an organisation which privileged couture as part of France’s heritage. Membership is restricted to those who demonstrate outstanding craftsmanship and creativity. The federation’s recognition of Valentino’s contribution to haute couture was a testament to the techniques that he gained in Paris as a student and apprentice of couture fashion.

Valentino became the first Italian to present haute couture on Paris runways. Undoubtedly, his success in Paris paved the way for Italy’s other legendary designers, Giorgio Armani and Gianni Versace, to show at haute couture week.

Over the years the Valentino brand has expanded to include menswear and accessories. In 1998, the label was sold to an Italian holding company for an estimated US$300 million (£223 million), with Valentino continuing as designer until his retirement in 2008.

Valentino will probably be most renowned for his iconic red dresses. Red was first featured in Valentino’s 1959 collection with the La Fiesta dress. The colour became a signature style throughout his career.

“Rosso Valentino” received a registered trademark in 1985 and has its own pantone made from a formula that blends 100% magenta, with 100% yellow and 10% black. When Valentino retired in 2008, his last catwalk show was held at the Musee Rodin in Paris, and for the finale the models all wore dresses in his signature red.

Today Valentino is under the creative direction of Alessandro Michele who, following news of the death of Valentino, reflected on him as “an almost mythical figure”.

The death of Valentino follows a few months after the loss of Giorgio Armani. Valentino and Armani were both creative visionaries who placed Italian fashion on the global stage. Their fashion houses were built through their hard graft and creative genius and they will be remembered simultaneously as a leading generation of designers from a time before fashion was significantly commercialised and run by conglomerates.

The Italian fashion industry has certainly taken a huge hit with the loss of two of its most legendary designers. However, both Valentino and Armani have left an undeniable mark on fashion, that will continue to define Italy’s dominance in the global fashion industry.

Reflecting on a life in fashion, Valentino’s approach to silhouette, fabric and his distinctive signature red colour, reveals a designer who leaves a huge mark on fashion globally too. To look back at his work is to see that he undoubtedly fulfilled his wish to make women beautiful.


Looking for something good? Cut through the noise with a carefully curated selection of the latest releases, live events and exhibitions, straight to your inbox every fortnight, on Fridays. Sign up here.


The Conversation

Naomi Braithwaite does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Valentino: the Italian designer who broke into French haute couture with his elegant style and signature red – https://theconversation.com/valentino-the-italian-designer-who-broke-into-french-haute-couture-with-his-elegant-style-and-signature-red-273948

Des éclairs détectés sur Mars pour la toute première fois

Source: The Conversation – in French – By Baptiste Chide, Chargé de Recherche CNRS à l’IRAP (Université de Toulouse, CNES), Observatoire Midi-Pyrénées

Pour la première fois, un microphone placé sur le rover Perseverance de la Nasa a permis de découvrir l’existence de petites décharges électriques dans les tourbillons et les tempêtes martiennes de poussière. Longtemps théorisés, ces petits éclairs sur Mars deviennent une réalité grâce à des enregistrements acoustiques et électromagnétiques inédits que nous venons de publier dans la revue Nature. Cette découverte, aux conséquences multiples sur nos connaissances de la chimie et de la physique ainsi que sur le climat de la planète rouge, révèle de nouveaux défis pour les futures missions robotiques et habitées.


Un souffle de vent martien, et soudain, un claquement sec : les dust devils, ces tourbillons de poussière qui parcourent la planète rouge, viennent de nous livrer un secret bien gardé : ils sont traversés de petits arcs électriques ! Ils ont été vus, ou plutôt entendus, de manière totalement fortuite, grâce au microphone de l’instrument SuperCam sur le rover Perseverance qui sillonne Mars depuis 2020.

Ce microphone est notre oreille à la surface de Mars. Il alimente depuis 2021 une « playlist » de plus de 30 heures composée de brefs extraits quotidiens du paysage sonore martien : le microphone est allumé environ 3 minutes tous les deux jours, pour des raisons de partage du temps du rover avec les autres instruments.

Un jackpot scientifique

Parmi ses morceaux les plus écoutés ? Le ronflement basse fréquence du souffle du vent, le crépitement aigu des grains de sable et les grincements mécaniques des articulations du robot. Mais le dernier titre de cette compilation d’un autre monde est une pépite : un dust devil capté en direct alors qu’il passait au-dessus de notre microphone. Qu’un dust devil passe au-dessus de Perseverance, ce n’est pas forcément exceptionnel – ils sont très actifs dans le cratère de Jezero où est posé Perseverance. Mais, qu’il survole le rover à l’instant même où le microphone est allumé, cela relève du jackpot scientifique.

Le son du tout premier éclair enregistré sur Mars.
NASA/JPL-Caltech/LANL/CNES/CNRS/IRAP, Fourni par l’auteur214 ko (download)

Au cœur de cet enregistrement se cachait un signal fort que nous avons peiné à interpréter. Notre première hypothèse fut celle d’un gros grain de sable ayant impacté la zone proche de la membrane du microphone. Quelques années plus tard, alors que nous assistions à une conférence sur l’électricité atmosphérique, nous avons eu une illumination : s’il y avait des décharges sur Mars, la façon la plus directe de les détecter serait de les écouter parce qu’aucun autre instrument à bord de Perseverance ne permet d’étudier les champs électriques.

Évidemment, l’enregistrement le plus favorable pour vérifier cette hypothèse était précisément celui-ci. Réexaminé à la lumière de cette interprétation, il correspondait bien au signal acoustique d’une décharge électrique. Ce n’était pas tout !

Cette onde de choc était précédée d’un signal étrange qui ne ressemblait pas à quelque chose de naturel mais qui provenait en réalité de l’interférence électromagnétique de la décharge avec l’électronique du microphone. Nous savions que celle-ci était sensible aux ondes parasites, mais nous avons tourné ce petit défaut à notre avantage. Grâce à la combinaison de ces deux signaux, tout était devenu clair : nous avions détecté pour la première fois des arcs électriques sur Mars. Pour en être absolument convaincus, nous avons reproduit ce phénomène en laboratoire à l’aide de la réplique de l’instrument SuperCam et d’une machine de Wimshurst, une expérience historiquement utilisée pour générer des arcs électriques. Les deux signaux – acoustique et électromagnétique – obtenus étaient rigoureusement identiques à ceux enregistrés sur Mars.

En soi, l’existence de ces décharges martiennes n’est pas si surprenante que cela : sur Terre, l’électrification des particules de poussière est bien connue, notamment dans les régions désertiques, mais elle aboutit rarement à des décharges électriques. Sur Mars en revanche, l’atmosphère ténue de CO2 rend ce phénomène beaucoup plus probable, la quantité de charges nécessaire à la formation d’étincelles étant beaucoup plus faible que sur Terre. Cela s’explique par le frottement de minuscules grains de poussière entre eux, qui se chargent en électrons puis libèrent leurs charges sous forme d’arcs électriques longs de quelques centimètres, accompagnés d’ondes de choc audibles. Le vrai changement de paradigme de cette découverte, c’est la fréquence et l’énergie de ces décharges : à peine perceptibles, comparables à une décharge d’électricité lorsqu’on touche une raquette à moustiques, ces étincelles martiennes sont fréquentes, en raison de l’omniprésence de la poussière sur Mars.

Des implications au niveau du climat martien

Ce qui est fascinant, c’est que cette découverte intervient après des décennies de spéculations sur l’activité électrique martienne, touchant une arborescence de phénomènes encore peu ou mal expliqués. Par exemple, l’activité électrique de la poussière a longtemps été suspectée de fournir un moyen très efficace pour soulever la poussière du sol martien. Les champs électriques derrière les arcs électriques entendus sur Mars sont a priori suffisamment forts pour faire léviter la poussière.

En absorbant et en réfléchissant la lumière solaire, la poussière martienne contrôle la température de l’air et intensifie la circulation atmosphérique (les vents). Et parce que les vents contrôlent en retour le soulèvement de la poussière, la boucle de rétroactions poussière-vent-poussière est à l’origine des tempêtes globales qui recouvrent intégralement la planète de poussière tous les 5 ou 6 ans. Vu l’importance de la poussière dans le climat martien, et alors que les meilleurs modèles ne savent pas encore prédire correctement son soulèvement, les forces électrostatiques ne pourront plus être ignorées dans le cycle global de la poussière sur Mars.

Expliquer la disparition du méthane

L’autre sujet qui attire les regards des scientifiques concerne le très controversé méthane martien. La communauté débat depuis plus de vingt ans à son sujet en raison de ses implications potentielles, à savoir une activité géophysique ou biologique éventuelle sur Mars, deux hypothèses fascinantes.

Au-delà du caractère énigmatique de ses détections sporadiques, sa disparition – des centaines de fois plus rapide que ce que prédisent les modèles de chimie atmosphérique les plus sophistiqués – a longtemps laissé les experts circonspects. L’un des mécanismes de destruction du méthane les plus prometteurs, proposé il y a une vingtaine d’années, fait précisément intervenir l’action de champs électriques intenses sur la chimie atmosphérique. En accélérant ions et électrons, ces champs permettent de casser les molécules de méthane, mais surtout celles de la vapeur d’eau, produisant ainsi de puissantes espèces réactives capables de détruire le méthane bien plus efficacement encore.

Qui plus est, la présence d’arcs électriques à l’échelle planétaire pourrait s’avérer déterminante dans la préservation de la matière organique. Des expériences de laboratoire ont montré la destruction brutale de biomarqueurs causée par le recyclage d’espèces chlorées induite par l’activité électrostatique de la poussière.

On le voit, la portée de ces nouveaux sons martiens dépasse largement le seul cadre de la communication grand public. Ils redessinent plusieurs pans de notre compréhension de Mars et ouvrent un nouveau champ d’investigations, qui nécessitera un nombre accru d’observations.

Peut-être lors de futures missions ? L’ESA avait déjà tenté l’expérience – sans succès – avec l’atterrisseur Schiaparelli, qui devait réaliser les premières mesures des champs électriques martiens avant de s’écraser à la surface de la planète. L’exploration future, humaine ou non, se devra de mieux caractériser ces champs pour mieux cerner leurs implications. D’ici là, Perseverance restera l’unique témoin in situ de ce phénomène qui est sans doute loin de nous avoir tout révélé.

The Conversation

Franck Montmessin a reçu des financements de l’ANR et du CNES.

Baptiste Chide ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Des éclairs détectés sur Mars pour la toute première fois – https://theconversation.com/des-eclairs-detectes-sur-mars-pour-la-toute-premiere-fois-272864

Les crocodiles, des reptiles loquaces et à l’écoute du monde

Source: The Conversation – in French – By Nicolas Mathevon, Professeur (Neurosciences & bioacoustique – Université de Saint-Etienne, Ecole Pratique des Hautes Etudes – PSL & Institut universitaire de France), Université Jean Monnet, Saint-Étienne

S’ils sont discrets, les crocodiles sont aussi bavards entre eux, et ce, avant même l’éclosion de l’œuf. Nicolas Mathevon/Université Jean-Monnet, Fourni par l’auteur

On l’imagine chasseur solitaire et discret, constamment à l’affût d’une proie. Pourtant, l’armure d’écailles du crocodile dissimule une vie sociale complexe. Tendez l’oreille : le seigneur des fleuves a beaucoup à dire.


Lorsque l’on se représente un crocodile, on pense à un prédateur silencieux, un tronc d’arbre flottant au milieu du fleuve, attendant patiemment qu’une proie s’approche pour faire brusquement claquer ses mâchoires. Cette image, bien que partiellement vraie – il est sagement déconseillé de nager au milieu de crocodiles –, occulte une réalité biologique fascinante : les crocodiliens (crocodiles, alligators, caïmans et gavials) sont les reptiles les plus vocaux et les plus sociaux de la planète.

Ces animaux possèdent un système de communication acoustique sophistiqué et une ouïe d’une finesse redoutable, peut-être hérités de leurs ancêtres communs avec les oiseaux et les dinosaures. Depuis près de trois décennies, notre équipe de recherche en bioacoustique s’attelle à décoder ce qu’ils disent et à comprendre comment ils perçoivent leur environnement sonore. Voici ce que nos études révèlent du monde sonore des crocodiliens.

La première conversation : parler depuis l’œuf

L’histoire acoustique d’un crocodile commence avant sa naissance. Contrairement à la majorité des reptiles qui pondent leurs œufs et les abandonnent, les mères ou les pères crocodiliens montent la garde près du nid. Mais comment savoir quand les petits sont prêts à sortir, enfouis sous des dizaines de centimètres de sable ou de végétation ? Nos recherches ont démontré que les embryons de crocodiles ne sont pas passifs. Lorsqu’ils sont prêts à sortir de l’œuf, après trois mois d’incubation, ils commencent à émettre des vocalisations particulières, appelées cris d’éclosion.

Les cris d’éclosion des petits crocodiles encore dans l’œuf.
Nicolas Mathevon/Université Jean-Monnet, Fourni par l’auteur91,5 ko (download)

Ces sons, audibles à travers la coquille et à l’extérieur du nid, remplissent une double fonction. D’une part, ils s’adressent à la fratrie. Lors d’expériences consistant à émettre des sons depuis un haut-parleur près d’œufs de crocodiles du Nil prêts à éclore, nous avons observé que l’audition de ces cris incite les autres embryons à vocaliser à leur tour et à briser leur coquille. Ce mécanisme permet de synchroniser l’éclosion : toute la nichée va sortir ensemble. Pour des proies aussi vulnérables que des nouveau-nés de quelques dizaines de grammes, c’est une belle stratégie de survie face aux prédateurs.

D’autre part, ces cris sont un signal impérieux pour la mère ou le père. Une femelle crocodile qui monte la garde depuis trois mois réagit immédiatement à l’audition de ces cris d’éclosion : elle se met à creuser le nid avec ses pattes. Sans ce comportement parental en réponse à leur signal sonore, les petits resteraient prisonniers sous terre.

Cependant, la mère ne réagit pas au premier petit bruit venu. Nos expériences sur le crocodile du Nil ont montré que la femelle réagit à des cris isolés par des mouvements de tête, enfouissant son museau dans le sol comme pour en sentir les vibrations, mais elle ne commence à creuser activement que si les cris forment une séquence continue et rythmée. Ceci évite à la femelle d’ouvrir le nid trop tôt pour un seul petit précocement bavard, ce qui mettrait en danger le reste de la couvée.

Le langage des jeunes crocos

Une fois sortis de l’œuf et délicatement transportés à l’eau dans la gueule de leurs parents, les jeunes crocodiliens restent groupés en crèches sous la protection de l’adulte pendant des semaines, voire des mois. Durant cette période, la communication acoustique entre parent et jeunes est vitale.

Le répertoire vocal des juvéniles est structuré autour de deux types de signaux principaux : les cris de contact et les cris de détresse. Le cri de contact est utilisé pour maintenir la cohésion du groupe de jeunes. C’est un son d’intensité assez faible et dont la fréquence varie peu. Le cri de détresse, lui, est émis lorsqu’un jeune est saisi par un prédateur. Il est plus fort et sa fréquence est plus modulée. Il présente souvent une structure acoustique plus chaotique, ce qui le rend un peu rugueux à l’oreille.

La tête d’un jeune crocodile qui dépasse de l’eau
Les jeunes crocodiles s’expriment, soit pour signaler un danger, soit pour maintenir la cohésion du groupe.
Nicolas Mathevon/Université Jean-Monnet, Fourni par l’auteur

La mère sait faire la différence : un cri de contact suscite une simple attention, tandis qu’un cri de détresse déclenche une réaction agressive de défense immédiate. Mais un parent reconnaît-il la voix de ses petits ? Visiblement pas : nos analyses acoustiques des crocodiles du Nil indiquent qu’il n’y a pas de signature vocale chez les nouveau-nés qui permettrait aux parents de les identifier individuellement. En revanche, nous avons découvert que plus le crocodile est petit, plus le cri est aigu. Lors d’expériences réalisées dans la nature, les mères crocodiles du Nil ont réagi plus intensément aux cris les plus aigus. C’est logique : les plus petits sont les plus vulnérables aux prédateurs et nécessitent une protection accrue.

La tête d’un crocodile adulte dépasse de l’eau. Autour d’elle, de très jeunes crocodiles se confondent avec des plantes aquatiques
Les parents, ici une femelle, surveillent leurs jeunes au sein de crèches et restent attentifs à leurs vocalisations.
Nicolas Mathevon/Université Jean-Monnet, Fourni par l’auteur

Une ouïe entre l’eau et l’air

Le crocodile est un animal amphibie, vivant à l’interface entre l’air et l’eau, mondes aux propriétés acoustiques radicalement différentes. Mais son audition est d’abord aérienne. Lorsque le crocodile flotte, immobile, ce qui est sa position favorite pour attendre une proie, ses oreilles se trouvent juste au-dessus de la ligne de flottaison. Si l’animal plonge, une paupière vient protéger l’oreille, et l’on ne sait pas encore si les crocodiles entendent bien sous l’eau.

La tête d’un caïman yacare qui sort de l’eau
Un yacare à l’affut. Ce caïman, comme les autres crocodiliens, garde ses oreilles juste au-dessus de l’eau lorsqu’il s’immerge.
Nicolas Mathevon/Université Jean-Monnet, Fourni par l’auteur

Comment un animal dont la tête est à moitié immergée fait-il pour localiser une proie, un petit ou un rival ? Chez l’humain ou d’autres mammifères et oiseaux, la localisation repose sur deux indices principaux : le son arrive plus vite à l’oreille tournée vers la source et est également plus fort, puisque la tête fait écran. Dans des expériences, nous avons entraîné des crocodiles à se diriger vers des haut-parleurs pour obtenir une récompense, et les résultats montrent qu’ils utilisent également ces deux sources d’information. Pour les sons graves, ils se fient surtout au temps ; pour les aigus, ils utilisent plutôt la différence d’intensité.

Distinguer dans le bruit

Les crocodiliens vivent souvent dans des environnements bruyants. Pour survivre, ils doivent être capables d’isoler un signal pertinent du bruit de fond, mais aussi d’identifier ce qu’ils entendent. Un bruit dans les roseaux est-il une proie ou un congénère ? Au laboratoire, nous avons découvert quel paramètre acoustique ils utilisent pour faire cette distinction. Ce n’est pas la hauteur du son ni son rythme mais l’enveloppe spectrale, c’est-à-dire le timbre du son. C’est exactement le même paramètre que nous, humains, utilisons pour distinguer les voyelles (« a » ou « o ») ou pour reconnaître la voix de quelqu’un au téléphone. Et la catégorisation des sons opérée par les crocodiles n’est pas totalement figée, elle peut être affinée par l’apprentissage, preuve d’une vraie plasticité cognitive.

En particulier, les crocodiles savent reconnaître et sont particulièrement appâtés par les signaux de détresse d’autres animaux. Quand on diffuse des enregistrements de pleurs de bébés humains, bonobos ou chimpanzés à des crocodiles du Nil, les résultats sont frappants : les crocodiles sont très fortement attirés par ces pleurs. Mais pas n’importe comment.

Les humains jugent la détresse d’un bébé principalement à la hauteur de son cri (plus c’est aigu, plus on pense que le bébé exprime de la douleur). Les crocodiles, eux, se basent sur un critère acoustique plus fiable : le chaos, qui se traduit par la rugosité de la voix qui survient lorsque les cordes vocales sont poussées à leurs limites physiques sous l’effet du stress ou de la douleur.

Les crocodiles se sont donc révélés meilleurs que les humains pour évaluer le niveau de détresse des bébés, en particulier des bonobos. Là où nous surestimons la détresse des bonobos à cause de leurs cris suraigus, les crocodiles ne réagissent intensément qu’aux pleurs contenant beaucoup de chaos acoustique, signe d’une véritable urgence, et donc d’une proie vulnérable.

Entre congénère et proie, que privilégier ?

Si les jeunes crocodiliens sont particulièrement bavards, les adultes ne sont pas en reste. Les mères, et les pères pour les espèces où ils s’occupent de leur progéniture, émettent des grognements qui attirent les jeunes. Femelles et mâles adultes rugissent lors des parades nuptiales et pour défendre leur territoire. Lorsqu’ils se sentent menacés, les adultes peuvent souffler de manière bruyante, ce qui passe l’envie de les approcher. On observe cependant de grandes différences dans l’usage des signaux sonores entre les groupes de crocodiliens : si les alligators et les caïmans sont particulièrement vocaux, les autres crocodiles deviennent plus silencieux à l’âge adulte.

Le rugissement d’un caïman noir adulte.
Nicolas Mathevon/Université Jean Monnet, Fourni par l’auteur30,2 ko (download)

Imaginez un jeune crocodile affamé qui entend un congénère l’appeler, mais qui sent en même temps une odeur de viande. Que fait-il ? Nous avons testé ce conflit sensoriel. Les résultats montrent que l’état de satiété modifie la réponse comportementale. Un crocodile rassasié est très attentif aux sons sociaux : il se dirige vers les cris de contact de ses congénères. Un crocodile affamé privilégie la recherche d’une source de nourriture. Cela suggère une modulation de l’attention : la priorité de l’animal peut basculer selon les besoins physiologiques.

Loin de l’image du monstre primitif, le crocodile est un animal doté d’une vie sensorielle et cognitive riche. Il naît dans un monde sonore, synchronisant son éclosion avec ses frères et sœurs. Il communique avec l’adulte qui s’occupe de lui pour obtenir protection. Il analyse son environnement sonore avec des outils sophistiqués (localisation binaurale, démasquage spatial) dignes des oiseaux ou des mammifères. Il catégorise les sons sur la base de leur timbre pour distinguer les congénères des en-cas. Et il est même capable d’évaluer le niveau de détresse dans la voix d’autres espèces.


Ces études sur les crocodiles ont impliqué de nombreux collaborateurs et collaboratrices, dont Thierry Aubin (CNRS), Nicolas Grimault (CNRS), Nicolas Boyer (Université de Saint-Étienne), Amélie Vergne, Léo Papet, Julie Thévenet et Naïs Caron-Delsbosc. Je remercie les parcs zoologiques La Ferme aux crocodiles (Pierrelatte, France) et Crocoparc (Agadir, Maroc) pour leur soutien.

The Conversation

Nicolas Mathevon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les crocodiles, des reptiles loquaces et à l’écoute du monde – https://theconversation.com/les-crocodiles-des-reptiles-loquaces-et-a-lecoute-du-monde-271640

Géo-ingénierie marine : qui développe ces grands projets, et qu’y a-t-il à y gagner ?

Source: The Conversation – in French – By Manuel Bellanger, Chercheur en économie, Ifremer

L’océan joue un rôle important pour absorber le carbone présent dans l’atmosphère terrestre et le stocker. Des start-ups cherchent à favoriser ce stockage dans le but de limiter les impacts du changement climatique, mais l’efficacité et les risques de ces techniques sont mal connus. ESA, CC BY-SA

Le mot « géo-ingénierie » recouvre un grand nombre de techniques, du « parasol spatial », qui limite l’arrivée de lumière du soleil dans l’atmosphère, à l’ensemencement de l’océan pour lui faire absorber encore plus de carbone qu’il ne le fait naturellement.

Manuel Bellanger étudie à l’Ifremer le développement des techniques de géo-ingénierie marine avec son regard d’économiste. Cet interview, réalisée par Elsa Couderc, cheffe de rubrique Sciences et Technologies, constitue le second volet de « regards croisés » sur la géo-ingénierie climatique. Dans le premier, nous explorons avec Laurent Bopp, climatologue et académicien, les nouveaux risques climatiques que ces techniques pourraient faire émerger.


The Conversation : La géo-ingénierie marine est mal connue en France, pourtant elle se développe à l’étranger. Qui développe ces projets ?

Manuel Bellanger : En ce qui concerne l’océan, le spectre des acteurs et des techniques de géo-ingénierie est très varié.

Les initiatives les plus prudentes sont en général pilotées par des instituts de recherche, par exemple aux États-Unis ou en Allemagne. Leur finalité est plutôt de comprendre si ces interventions sont techniquement possibles : peut-on développer des méthodes pour capturer du CO₂ atmosphérique par l’océan, mesurer la quantité de carbone stockée durablement, vérifier les affirmations des différents acteurs, étudier les impacts écologiques, tenter de définir des bonnes pratiques et des protocoles ? Ces projets de recherche sont typiquement financés par des fonds publics, souvent sans objectif de rentabilité immédiate.

Il existe aussi des collaborations entre institutions académiques et partenaires privés et, enfin, à l’autre bout du spectre, un certain nombre de start-up qui font la promotion du déploiement rapide et massif de ces techniques.

Peut-on espérer gagner de l’argent grâce à la géo-ingénierie marine ?

M. B. : Le modèle économique de ces start-up repose sur la vente de crédits carbone qu’elles espèrent pouvoir mettre sur les marchés volontaires du carbone – c’est-à-dire qu’elles cherchent à vendre des certificats à des acteurs privés qui veulent compenser leurs émissions.

Pour cela, la séquestration doit être certifiée par des standards ou des autorités. Sachant qu’il y a aussi des initiatives privées qui développent des certifications… aujourd’hui, c’est un peu la jungle, les marchés volontaires du carbone. Et l’achat de ces crédits certifiés reste sur la base du volontariat, puisqu’il n’y a généralement pas d’obligation réglementaire pour les entreprises de compenser leurs émissions.

Pouvez-vous nous donner des exemples de telles start-up et l’état de leurs travaux ?

M. B. : Running Tide, aux États-Unis, a tenté de développer des crédits carbone issus de la culture d’algues sur des bouées biodégradables qui devaient couler sous leur propre poids dans les profondeurs abyssales. Mais ils ne sont pas parvenus à produire des quantités significatives d’algues. L’entreprise a finalement eu recours au déversement de milliers de tonnes de copeaux de bois dans les eaux islandaises pour essayer d’honorer les crédits carbone qu’ils avaient vendus. Mais les experts et observateurs ont critiqué le manque de preuves scientifiques montrant que cette approche permettait réellement de séquestrer du CO₂ et l’absence d’évaluation des impacts sur les écosystèmes marins. L’entreprise finalement a cessé ses activités en 2024 pour des raisons économiques.

Une start-up canadienne, Planetary Technology, développe une approche d’augmentation de l’alcalinité océanique visant à accroître l’absorption du CO₂ atmosphérique et son stockage à long terme sous forme dissoute dans l’océan. Pour cela, ils ajoutent à l’eau de mer du minerai alcalin, de l’hydroxyde de magnésium. Ils ont annoncé avoir vendu des crédits carbone, notamment à Shopify et British Airways.

Une autre société, californienne cette fois, Ebb Carbon, cherche également à augmenter l’alcalinité océanique, mais par électrochimie : ils traitent de l’eau de mer pour la séparer en flux alcalins et acides, puis renvoient la solution alcaline dans l’océan. Cette société a annoncé avoir signé un contrat avec Microsoft pour retirer des centaines de milliers de tonnes de CO₂ sur plusieurs années.

L’écosystème commercial fleurit déjà en Amérique du Nord, même si on n’en entend pas forcément parler ici.

Il y a aussi une sorte de fonds, appelé Frontier Climate, qui engage des contrats anticipés pour des tonnes de CO₂ qui seront retirées de l’atmosphère dans le futur : ils achètent par avance des crédits carbone à des sociétés qui sont en phase de développement et qui ne sont pas encore réellement en train de capturer et de séquestrer du carbone. Derrière ce fonds-là, il y a des géants de la tech, comme Google ou Facebook, parmi les membres fondateurs. On peut supposer que c’est une manière pour ces entreprises, qui ont une consommation énergétique assez importante, de s’acheter une vertu climatique. Donc, eux, ils ont déjà annoncé avoir acheté pour 1,75 million de dollars (plus de 1,5 million d’euros) de crédits carbone à des entreprises d’alcalinisation de l’océan.

Et pourtant, vous disiez tout à l’heure qu’on n’est pas encore sûrs de savoir mesurer scientifiquement si l’océan a bien absorbé ces tonnes de carbone.

M. B. : Effectivement, les bases scientifiques de ces techniques-là ne sont vraiment pas solides aujourd’hui. On ne sait pas encore quelles quantités de CO₂ elles vont permettre de capturer et de séquestrer et on ne sait pas non plus quels vont être les impacts sur l’environnement.




À lire aussi :
Géo-ingénierie climatique : de quoi parle-t-on ? Pour quelle efficacité et quels nouveaux risques ?


Et côté scientifique, il n’y a donc pour l’instant pas de consensus sur la capacité des techniques de géo-ingénierie marine à retirer suffisamment de carbone de l’atmosphère pour réellement freiner le changement climatique ?

M. B. : Il y a même pratiquement un consensus scientifique pour dire que, aujourd’hui, on ne peut pas présenter les techniques de géo-ingénierie marine comme des solutions. En fait, tant qu’on n’a pas drastiquement réduit les émissions de gaz à effet de serre, beaucoup considèrent qu’il est complètement futile de vouloir commencer à déployer ces techniques-là.

En effet, aujourd’hui, les ordres de grandeur évoqués (le nombre de tonnes que les entreprises annoncent séquestrer) n’ont rien à voir avec les ordres de grandeur qui permettraient de changer quoi que ce soit au climat. Par exemple, pour la culture de macroalgues, certaines modélisations estiment qu’il faudrait recouvrir 20 % de la surface totale des océans avec des fermes de macroalgues – ce qui est déjà presque absurde en soi – pour capturer (si ça marche) 0,6 gigatonne de CO₂ par an… à comparer aux 40 gigatonnes que l’humanité émet aujourd’hui chaque année. Si ces techniques pouvaient jouer un rôle dans le futur pour compenser les émissions que le Giec désigne comme « résiduelles » et « difficiles à éviter » (de l’ordre de 7 à 9 gigatonnes de CO₂ par an à l’horizon 2050) et atteindre des objectifs de neutralité carbone, les déployer aujourd’hui ne pourrait en aucun cas remplacer des réductions d’émissions rapides et massives.

Alors, qui pousse ces développements technologiques ?

M. B. : Un certain nombre d’initiatives semblent être poussées par ceux qui ont un intérêt au statu quo, peut-être même par certains qui n’auraient pas de réelle volonté de déployer la géo-ingénierie, mais qui ont un intérêt à faire diversion pour retarder l’action qui viserait à diminuer les émissions aujourd’hui.

On pense plutôt aux acteurs des énergies fossiles qu’aux géants de la tech, dans ce cas ?

M. B. : Les acteurs des énergies fossiles ont effectivement cet intérêt à retarder l’action climatique, mais ils sont de fait moins visibles aujourd’hui dans le financement direct des techniques de géo-ingénierie – il semble qu’ils soient plus dans le lobbying et dans les discours qui vont légitimer ce genre de techniques.

De fait, investir dans la géo-ingénierie ne fait-il pas courir le risque de détourner l’attention des citoyens et des gouvernements de l’urgence de réduire nos émissions de gaz à effet de serre ?

M. B. : C’est un risque clairement identifié dans la littérature scientifique, parfois sous le nom d’« aléa moral climatique », parfois d’« effet de dissuasion ». Derrière, il y a l’idée que la promesse de solutions technologiques futures, comme la géo-ingénierie marine, pourrait affaiblir la volonté politique ou sociétale de réduire les émissions dès maintenant. Donc le risque d’être moins exigeants envers nos décideurs politiques pour qu’ils tiennent les engagements climatiques et, in fine, que le décalage entre les objectifs et l’action climatique réelle soit toujours plus grand.

Par ailleurs, on a des ressources financières, ressources en main-d’œuvre, en expertise, qui sont somme toute limitées. Tout ce qui est investi dans la recherche et le développement ou pour l’expérimentation de ces technologies de géo-ingénierie peut se faire au détriment des ressources allouées pour les mesures d’atténuation connues et démontrées : l’efficacité énergétique, les énergies renouvelables, la sobriété. On sait que ces solutions fonctionnent : ce sont elles qu’il faudrait mettre en œuvre le plus rapidement.

La priorité absolue – on n’arrête pas de le répéter –, c’est la diminution rapide des émissions de gaz à effet de serre. Donc la position de la plupart des scientifiques, c’est que ces techniques de géo-ingénierie marine devraient être explorées d’un point de vue de la recherche, par exemple pour évaluer leur efficacité et leurs effets environnementaux, économiques et sociaux, de manière à éclairer les choix politiques et sociétaux à venir. Mais, encore une fois, aujourd’hui la géo-ingénierie marine ne peut pas être présentée comme une solution à court terme.

C’est pour cela que la communauté scientifique appelle à une gouvernance internationale de la géo-ingénierie, avant un déploiement massif de ces techniques. Quelles instances internationales seraient à même de mener une gouvernance sur le sujet ?

M. B. : Il faut en effet que les États s’impliquent fortement dans la gouvernance de la géo-ingénierie, et il faut des traités internationaux. Pour l’instant, c’est assez fragmenté entre différents instruments juridiques, mais il y a ce qu’on appelle le protocole de Londres, adopté en 1996, pour éviter la pollution en mer par dumping (le fait de pouvoir décharger des choses en mer). Ce protocole permet déjà en partie de réguler les usages de géo-ingénierie marine.

Par exemple, la fertilisation des océans par ajout de fer visant à stimuler le phytoplancton qui capture le CO₂ par photosynthèse. Cette technique rentre dans le cadre existant du protocole de Londres, qui interdit la fertilisation de l’océan à des fins commerciales et impose un cadre strict pour la recherche scientifique depuis plus d’une quinzaine d’années. Le protocole pourrait être adapté ou amendé pour réguler d’autres techniques de géo-ingénierie marine, ce qui est plus facile que de créer un nouveau traité international.

Les COP sur le climat sont aussi importantes pour deux raisons : elles rassemblent plus de nations que le protocole de Londres, et elles sont le cadre privilégié pour discuter des marchés carbone et donc pour éviter la prolifération d’initiatives commerciales non contrôlées, pour limiter les risques environnementaux et les dérives du type crédits carbone douteux.

Il y a des précédents avec ce qu’il s’est passé sur les crédits carbone forestiers : une enquête publiée par le Guardian en 2022 a montré que plus de 90 % des projets certifiés par Verra – le principal standard mondial – n’ont pas empêché la déforestation ou ont largement surévalué leurs bénéfices climatiques. Sans encadrement, la géo-ingénierie marine pourrait tout à fait suivre le même chemin.

Enfin, il y a bien sûr des enjeux d’équité, si ceux qui mettent en œuvre une action ne sont pas ceux qui risquent de subir les impacts ! Là aussi, il y a des précédents observés sur des projets forestiers certifiés pour générer des crédits carbone, où les bénéfices économiques sont captés par les investisseurs tandis que les communautés locales subissent des restrictions d’accès aux ressources forestières ou sont exposées à des changements dans leur mode de vie.

Concrètement, quels sont les risques pour les populations qui vivent à proximité de l’océan ou s’en servent de ressource nourricière, par exemple ?

M. B. : Ça dépend vraiment de la technique de géo-ingénierie utilisée et de l’endroit où ça va être déployé. Par exemple, si on imagine un déploiement massif de cultures d’algues, ça pourrait modifier les écosystèmes côtiers, et par ailleurs générer une concurrence pour l’espace avec la pêche ou l’aquaculture traditionnelle.

Sur les littoraux, où les activités maritimes sont souvent très denses, il y a déjà des conflits d’usage, que l’on observe par exemple dans les tensions autour des installations de parcs éoliens en mer.


Propos recueillis par Elsa Couderc.

The Conversation

Manuel Bellanger a reçu des financements dans le cadre du programme ANR n° 21-POCE-0001 PPR Océan & Climat.

ref. Géo-ingénierie marine : qui développe ces grands projets, et qu’y a-t-il à y gagner ? – https://theconversation.com/geo-ingenierie-marine-qui-developpe-ces-grands-projets-et-quy-a-t-il-a-y-gagner-272385

Géo-ingénierie climatique : de quoi parle-t-on ? Pour quelle efficacité et quels nouveaux risques ?

Source: The Conversation – in French – By Laurent Bopp, Directeur de recherche, Centre national de la recherche scientifique (CNRS); École normale supérieure (ENS) – PSL; Académie des sciences

L’idée d’injecter des aérosols dans l’atmosphère pour imiter l’effet des éruptions volcaniques et masquer les rayons du Soleil n’est pas nouvelle, mais elle nous expose au risque de « choc terminal » : un réchauffement brutal si l’injection venait à s’arrêter. Ici, une éruption du volcan Tonga, dans le Pacifique. Goes-West Satellite/NOAA/RAMMB/CIRA, CC BY

La « géo-ingénierie climatique » recouvre un ensemble de techniques qui visent à manipuler le climat à grande échelle afin d’éviter les risques du changement climatique. Ces techniques sont très variées, depuis les parasols spatiaux pour limiter l’arrivée des rayons du soleil dans l’atmosphère jusqu’à la fertilisation des océans pour que le phytoplancton consomme davantage de CO₂, en passant par la restauration et la conservation de zones humides où le carbone est stocké de façon préférentielle.

En octobre 2025, l’Académie des sciences a publié un rapport qui détaille ce que l’on sait et ce que l’on ignore encore sur les éventuels bénéfices de ces techniques et sur les nouveaux risques qu’elles font surgir.

Elsa Couderc, cheffe de rubrique Sciences et Technologies, explore ici avec Laurent Bopp, climatologue et académicien, les nouveaux risques climatiques que ces techniques pourraient faire émerger. Le second volet de ces « regards croisés » est un entretien avec Manuel Bellanger, qui étudie à l’Ifremer le développement des techniques de géo-ingénierie marine avec un regard d’économiste.


The Conversation : Pourquoi l’Académie des sciences s’empare-t-elle aujourd’hui du sujet de la géo-ingénierie climatique, alors qu’on en parle relativement peu en France ?

Laurent Bopp : Le sujet est de plus en plus présent dans la littérature scientifique, dans le débat scientifique et dans le débat politique qui entoure les discussions sur le changement climatique. On ne s’en rend pas bien compte en France, mais aux États-Unis, en Angleterre, en Allemagne, au Canada, le débat est beaucoup plus présent.

Certains climatologues, y compris de renom, se prononcent pour faire beaucoup plus de recherches sur ces technologies, mais aussi parfois pour envisager leur déploiement à grande échelle afin d’éviter un réchauffement trop important. L’argument est simple : un niveau de réchauffement trop élevé génère des risques importants et pourrait conduire au dépassement de certains points de bascule potentiels dans le système climatique, par exemple une fonte irréversible des calottes glaciaires du Groenland et de l’Antarctique, ce qui pourrait entraîner une élévation du niveau de la mer de plusieurs mètres additionnels.

En France, nous avons besoin collectivement de plus d’informations et de plus de débats autour de ces techniques. Nous avons eu le sentiment que certains de nos représentants se sont retrouvés en partie dépourvus dans des arènes de négociations internationales, face à des représentants d’autres gouvernements qui ont un agenda très agressif sur ces technologies. C’est sans doute une des raisons pour lesquelles l’Académie des sciences s’est emparée du sujet.

L’idée des interventions de géo-ingénierie climatique, c’est de réduire les risques liés au changement climatique. Mais ces interventions pourraient-elles induire de nouveaux risques et lesquels ?

L. B. : Un des intérêts de ce rapport, c’est de mettre la lumière sur ces nouveaux risques.

Mais, avant de rentrer dans le détail, il faut, quand nous parlons de géo-ingénierie climatique, distinguer deux grandes catégories de techniques – ces deux catégories sont fondées sur des approches très différentes et présentent des risques, là aussi, très différents.

Pour la première de ces catégories, il s’agit de modifier de façon assez directe le rayonnement solaire. On parle en anglais de Solar Radiation Management ou SRM. Dans ce cas-là, l’action s’apparente plutôt à une sorte de pansement sur la plaie d’une blessure, sans s’attaquer du tout à la cause du changement climatique : l’idée est de refroidir la Terre de façon artificielle, en utilisant par exemple des particules atmosphériques ou des miroirs spatiaux qui limiteraient la pénétration du rayonnement solaire jusqu’à la surface de la Terre. Ce refroidissement pourrait compenser, en partie au moins, le réchauffement lié aux gaz à effet de serre qui continueraient à augmenter dans l’atmosphère.

L’injection d’aérosols dans la haute atmosphère vise à imiter des éruptions volcaniques de très grande taille qui, par le passé, ont pu refroidir la Terre. Une des limites premières de cette approche, c’est que cette façon de refroidir la Terre est très différente de la façon dont elle se réchauffe aujourd’hui à cause des gaz à effet de serre : les échelles de temps et les échelles spatiales associées sont très différentes, et cela engendre un certain nombre de conséquences. Les risques sont à lire en fonction de ces deux échelles.

Les aérosols que l’on pourrait injecter dans la haute atmosphère ont une durée de vie courte. Ils vont disparaître de l’atmosphère assez rapidement, tandis que les gaz à effet de serre qui réchauffent le système Terre, le CO₂ en particulier, sont dans l’atmosphère pour très longtemps.

Cette différence majeure entraîne l’un des risques les plus préoccupants : le risque de « choc terminal ». Concrètement, si l’on décidait d’arrêter brutalement l’injection d’aérosols après s’être engagé dans ce type de stratégie
– et les raisons pourraient être multiples, qu’il s’agisse de problèmes de gouvernance, de financement ou de conflits internationaux – le réchauffement climatique jusque-là partiellement masqué réapparaîtrait d’un seul coup. On subirait alors, en très peu de temps, plusieurs années de réchauffement accumulé. On aurait des taux de réchauffement temporels très très rapides, et donc des conséquences sur la biodiversité ou sur les sociétés humaines difficiles à anticiper.

En d’autres termes, si le réchauffement arrive relativement lentement, la mise en place de mesures d’adaptation est possible ; s’il est très rapide, les conséquences sont potentiellement bien plus dévastatrices.

L’autre risque majeur est lié aux échelles spatiales : refroidir avec des aérosols par exemple, ce n’est pas du tout la même chose que ne pas refroidir en émettant moins de CO₂. Les effets régionaux du refroidissement vont être très différents de ce qu’ils auraient été si on avait réchauffé un peu moins. La localisation des précipitations, l’intensité de la mousson notamment ont des conséquences sur l’agriculture, sur la santé. Sur ces effets régionaux, il y a encore beaucoup d’incertitudes aujourd’hui, c’est quelque chose que les modèles décrivent moins bien que les effets temporels dont je parlais tout à l’heure.




À lire aussi :
Parasols géants et blanchiment du ciel : de fausses bonnes idées pour le climat


Face à ce risque majeur, l’Académie recommande d’arrêter le déploiement des techniques de modification du rayonnement solaire, et même les recherches sur cette technique de géo-ingénierie…

L. B. : Effectivement, notre rapport recommande de ne pas utiliser ces techniques, et nous allons même jusqu’à suggérer un traité international qui interdirait leur déploiement.

Nous pensons aussi qu’il ne faut pas financer, de façon importante, de la recherche qui soit spécifiquement fléchée sur ces techniques de modification du rayonnement solaire, pour éviter de légitimer ces approches trop dangereuses.

Bien sûr, nous avons besoin de bien plus de recherche sur le climat et sur les processus climatiques importants, donc sur les processus qui lient, par exemple, les aérosols dans la haute atmosphère avec la modification du rayonnement, mais nous pensons vraiment qu’il faut éviter les projets fondamentalement pensés pour pousser l’avènement de ces technologies. Les risques associés sont trop importants.

La géo-ingénierie climatique inclut une deuxième approche, celle qui consiste à augmenter l’efficacité des puits de carbone naturels, par exemple les forêts, les tourbières ou les océans qui absorbent naturellement du carbone. En quoi est-ce fondamentalement différent de la modification du rayonnement solaire ?

L. B. : Il ne s’agit plus de refroidir la Terre pour compenser un réchauffement qui serait lié à l’augmentation des gaz à effet de serre, mais d’éliminer du CO₂ qui est déjà présent dans l’atmosphère. Le terme consacré est celui d’« élimination du dioxyde de carbone », ou Carbon Dioxide Removal (CDR) en anglais.

D’abord, soyons clairs : la priorité des priorités reste de réduire les émissions actuelles de façon drastique. Ces « puits de carbone » additionnels ne doivent intervenir que comme un complément, après la réduction des émissions de façon massive et immédiate.

Pour stabiliser le climat et répondre aux objectifs de l’accord de Paris à 1,5 ou 2 °C de réchauffement par rapport à l’époque préindustrielle, nous avons besoin d’aller collectivement vers des émissions nettes nulles !

Comme il y aura sans doute des secteurs difficiles à décarboner, comme la sidérurgie ou le transport aérien, nous savons qu’il y aura sans doute besoin d’un peu de ces puits de carbone pour compenser ces émissions résiduelles.

On est donc sur une ligne de crête compliquée à tenir : ne pas mettre ces techniques d’élimination du CO₂ en avant, pour ne pas décourager la réduction des émissions – en raison du potentiel de décarbonation limité de ces techniques, nous allons y revenir – et en même temps continuer à soutenir la recherche sur ces technologies parce qu’elles pourraient se révéler utiles, au moins dans une certaine mesure.

En augmentant l’efficacité des puits de carbone naturels, si on reprend l’analogie avec le pansement et la blessure, on ne s’attaque toujours pas à la cause (l’émission de gaz à effet de serre), mais on remonte dans la chaîne de causalité en s’attaquant à quelque chose de plus amont que dans le cas de la modification du rayonnement solaire.

Il existe de nombreux types de méthodes d’élimination du CO₂, à la fois naturelles et technologiques. Présentent-elles toutes le même potentiel et les mêmes risques ?

L. B. : Pour éliminer du CO₂ déjà dans l’atmosphère, il y a une très grande diversité de techniques, en partie parce qu’il existe plusieurs « réservoirs » dans lesquels il serait possible de stocker le CO₂ retiré de l’atmosphère : dans le sous-sol, dans l’océan, dans la biomasse continentale.

Pour simplifier, je dirais qu’il y a une série de techniques qui sont aujourd’hui considérées comme « gagnant-gagnant » : elles permettent de retirer du CO₂ de l’atmosphère et elles ont d’autres bénéfices.

Prenons par exemple la restauration et la conservation des écosystèmes côtiers, comme les mangroves ou les herbiers marins : ces actions permettent un stockage de carbone et, par exemple, de mieux protéger les côtes contre la montée du niveau marin et les épisodes de submersion côtière. D’autres techniques, en foresterie, en agroforesterie ou en stockant le carbone dans les sols, permettent aussi de développer des pratiques agricoles qui sont plus vertueuses.

Malheureusement, comme évoqué dans le rapport, ces approches sont difficiles à mettre à l’échelle, en raison des surfaces souvent limitées et des quantités phénoménales de carbone qu’il faudrait pouvoir stocker dans ces réservoirs naturels pour avoir un effet significatif.

Et puis il y a, à l’autre bout du spectre, des techniques qui sont jugées peu efficaces et dont on sait qu’elles ont sans doute des effets dommageables sur les écosystèmes. Compte tenu des connaissances actuelles, l’Académie des sciences recommande de ne pas poursuivre dans ces directions-là.

L’exemple le mieux documenté est celui de la fertilisation par le fer du plancton marin, car elle a été envisagée il y a déjà longtemps, à la fin des années 1980. L’idée est d’aller en pleine mer, dans des régions où le développement du phytoplancton est limité par la faible abondance d’un nutriment bien particulier : le fer. Dans ces régions, il n’y a pas besoin d’ajouter beaucoup de fer pour fertiliser le plancton, qui va se développer davantage, et pour cela absorber plus de CO₂. Une partie de la matière organique produite coule ensuite vers les profondeurs de l’océan, emportant avec elle le carbone qu’elle contient. Ce carbone est ainsi isolé de l’atmosphère dans l’océan profond, potentiellement pour des centaines d’années.

Plusieurs expériences scientifiques ont été menées en pleine mer dans les années 1990 et 2000. À court terme, elles ont effectivement mis en évidence une augmentation du flux de carbone de l’atmosphère vers l’océan.

Toutefois, des travaux plus récents, notamment fondés sur la modélisation, montrent que cette technique est probablement beaucoup moins efficace qu’on ne l’imaginait initialement. Surtout, en modifiant fortement les écosystèmes marins pour capter du carbone, elle entraîne toute une série d’effets indésirables : l’émission d’autres gaz à effet de serre, une diminution de l’oxygène dans les eaux profondes, ou encore l’épuisement de certains nutriments essentiels, qui ne sont alors plus disponibles pour d’autres écosystèmes.

Ces constats ont conduit la communauté internationale à réagir. En 2008, les États ont amendé le protocole de Londres afin d’y introduire une interdiction de ce type de pratiques en haute mer.

Dans le cas de la fertilisation des océans, les risques sont donc bien documentés – ils ne concernent pas directement le climat mais des dommages collatéraux ?

L. B. : Oui. Malheureusement, on voit en ce moment une résurgence de certains projets poussés par certains chercheurs qui continuent à défendre ce type de techniques, par exemple aux États-Unis. Mais pour nous, il semble clair qu’il ne faut pas recommander ces techniques aux effets collatéraux bien documentés.




À lire aussi :
Géo-ingénierie marine : qui développe ces grands projets, et qu’y a-t-il à y gagner ?


Entre les techniques trop risquées, comme la fertilisation des océans, et les techniques de conservation et de restauration, que j’appelais « gagnant-gagnant » tout à l’heure, il y a d’autres techniques, pour lesquelles on a besoin de davantage de recherche – c’est le cas, par exemple, des techniques d’alcalinisation de l’océan.

Il s’agit d’une technique chimique cette fois : on augmente le pouvoir tampon de l’océan en ajoutant du matériel alcalin. Un des points positifs, c’est que cette technique consiste en l’accélération d’un phénomène naturel qui est l’altération des roches sur les continents. Quand les roches s’altèrent, elles apportent de l’alcalinité à l’océan, donc elles augmentent le pouvoir tampon de l’océan qui absorbe plus de CO₂ – c’est un processus très lent, qui a un rôle très important sur les échelles de temps très, très longues et qui régule en partie le cycle du carbone sur les échelles de temps géologiques.

Deuxième avantage : le CO2 ainsi stocké dans l’océan l’est de manière très durable, bien plus que dans des approches reposant sur du carbone organique (comme la fertilisation des océans) où le stockage est beaucoup plus incertain. Troisième point positif, cette augmentation de l’alcalinité permet aussi de réduire partiellement l’acidification des océans.

Mais ces bénéfices s’accompagnent de nombreuses incertitudes et de risques. Ajouter des matériaux alcalins modifie parfois fortement la chimie de l’eau de mer. Quels effets cela pourrait-il avoir sur les écosystèmes marins, le plancton ou les espèces côtières dont dépendent de nombreuses populations humaines ? À ce stade, nous manquons encore de données pour répondre clairement à ces questions.

L’efficacité même de la technique reste également incertaine. Pour qu’elle fonctionne, l’alcalinité ajoutée doit rester dans les couches de surface de l’océan, là où les échanges avec l’atmosphère ont lieu. Si elle est rapidement entraînée vers les profondeurs, son impact sur l’absorption du CO₂ devient très limité.

Enfin, il y a beaucoup de questions sur le coût de ces techniques. En particulier, un certain nombre de start-up et d’entreprises s’orientent vers des méthodes électrochimiques, mais c’est très coûteux d’un point de vue énergétique. Il faut faire le bilan sur l’ensemble du cycle de vie de ces techniques.

En somme, on a une gamme de techniques, parfois appelées abusivement « solutions » : certaines que l’on ne recommande pas aujourd’hui parce que les risques sont énormes ; d’autres qu’il faut prioriser et recommander, mais qui ont une efficacité somme toute limitée. Et puis entre les deux, des méthodes sur lesquelles il faut continuer à travailler.

À l’échelle internationale, où et quand se discutent les nouveaux risques des techniques de géo-ingénierie climatique ?

L. B. : La question des puits de carbone est déjà largement débattue dans le cadre des COP Climat, notamment parce que les gouvernements peuvent les intégrer dans leurs objectifs de réduction des émissions. C’est le cas, par exemple, des stratégies d’afforestation (boisement) et de reforestation. En revanche, il reste encore beaucoup de travail à faire sur les modalités concrètes de mise en œuvre de certaines techniques d’élimination du CO₂ que nous avons évoquées. En particulier, les questions de mesure et de vérification du CO₂ réellement retiré de l’atmosphère sont complexes et loin d’être résolues. Le Giec a d’ailleurs été mandaté par les gouvernements pour produire un rapport méthodologique spécifiquement consacré à ces enjeux.

En ce qui concerne la modification du rayonnement solaire, mon inquiétude est nettement plus forte. Certains pays affichent désormais ouvertement leur intérêt pour un déploiement potentiel de ces techniques.

Dans le prochain rapport du Giec, la géo-ingénierie occupera une place plus importante que dans les précédents. J’espère que cela permettra de documenter de façon précise et convaincante les risques potentiels associés à ces approches.


Propos recueillis par Elsa Couderc.

The Conversation

Bopp Laurent a reçu des financements du CNRS, de l’Agence Nationale de la Recherche, de la Fondation pour la Recherche sur la Biodiversité, du Programme Horizon Europe de la Commission Européenne, et de la Fondation Schmidt Sciences.

ref. Géo-ingénierie climatique : de quoi parle-t-on ? Pour quelle efficacité et quels nouveaux risques ? – https://theconversation.com/geo-ingenierie-climatique-de-quoi-parle-t-on-pour-quelle-efficacite-et-quels-nouveaux-risques-272387

Adaptation climatique : pourquoi les indicateurs de Belém comptent pour l’Afrique

Source: The Conversation – in French – By Olasunkanmi Habeeb Okunola, Senior Research Associate, United Nations University – Institute for Environment and Human Security (UNU-EHS), United Nations University

Lors du sommet mondial sur le climat de 2025, la COP30, qui s’est tenu à Belém, au Brésil, une décision a eu des conséquences majeures pour l’Afrique. Les pays se sont mis d’accord sur un nouvel ensemble d’indicateurs pour mesurer les progrès.

Les « indicateurs d’adaptation de Belém » ont été élaborés au cours d’un processus de deux ans mené par les Nations unies.

Bien que le nom puisse sembler technique, l’idée est simple. Pour la première fois, les pays disposent désormais d’un moyen commun de déterminer si le monde s’adapte réellement mieux aux effets du changement climatique. L’adaptation au climat consiste à prendre des mesures pour se préparer et faire face aux effets du changement climatique. Ces effets comprennent les inondations, les sécheresses, les vagues de chaleur, l’érosion côtière, les pertes de récoltes et les déplacements de populations liés au climat.




Read more:
Adaptation au changement climatique en Afrique pendant 10 000 ans : une étude offre des enseignements pour notre époque


Les indicateurs de Belém

Alors, que sont exactement les indicateurs de Belém et comment fonctionnent-ils ?

Il s’agit d’un nouvel ensemble de 60 mesures simples qui aident les pays à suivre leur niveau d’adaptation au changement climatique. Ils examinent les éléments qui affectent la vie quotidienne des populations. Il s’agit notamment de la sécurité de l’approvisionnement en eau, des systèmes alimentaires, de la santé, du logement, des systèmes d’alerte précoce, des écosystèmes et des économies locales. Au lieu de se concentrer uniquement sur les politiques écrites sur papier, les indicateurs examinent si les communautés deviennent réellement plus sûres et mieux à même de faire face aux inondations, aux sécheresses, aux vagues de chaleur et aux autres menaces climatiques.

Les indicateurs sont regroupés en thèmes clés, tels que :

  • réduire les risques climatiques : systèmes d’alerte précoce, préparation aux catastrophes

  • renforcer la résilience : systèmes de santé, sécurité alimentaire et hydrique

  • protéger les écosystèmes : forêts, zones humides et zones côtières

  • soutenir les personnes vulnérables : genre, handicap, groupes autochtones

  • suivre les finances et les ressources : comment les fonds destinés à l’adaptation sont acheminés vers les communautés.

Ensemble, ces 60 mesures offrent aux pays un moyen commun de comprendre et de suivre les progrès réalisés et les domaines dans lesquels un soutien est nécessaire de toute urgence.

Pendant des années, l’adaptation a été abordée en termes généraux, souvent sans mesures claires des progrès réalisés. Les indicateurs de Belém visent à changer cela en fournissant un langage commun pour décrire ce qu’implique la résilience et si les populations, en particulier les plus vulnérables, deviennent plus sûres.

En tant que spécialiste de la réduction des risques de catastrophe et de l’adaptation au changement climatique, j’ai examiné les nouveaux indicateurs de Belém et leur pertinence pour l’Afrique. Ils représentent une étape importante à l’échelle mondiale, mais leur succès dépendra d’un financement solide, d’une conception inclusive et d’une mise en œuvre localement ancrée Avec la COP32 qui se tiendra à Addis-Abeba, l’Afrique peut contribuer à transformer ces indicateurs d’ambition en impact réel.




Read more:
Climat : les pays africains se préparent à donner un coup d’accélérateur


Pourquoi est-ce important pour l’Afrique ?

L’Afrique subit certaines des conséquences climatiques les plus graves au monde. Dans l’ouest et le centre de l’Afrique, les inondations ont déplacé des centaines de milliers de personnes. Parallèlement, une chaleur record dans tout le Sahel met à rude épreuve les systèmes de santé, de production alimentaire et de systèmes d’énergie.

Dans le même temps, les communautés africaines trouvent leurs propres solutions, qu’il s’agisse de systèmes d’alerte précoce locaux, de projets basés sur la nature, de groupes d’épargne communautaires ou de pratiques agricoles innovantes.

Mais jusqu’à présent, il n’existait aucun moyen global de reconnaître ces efforts, de suivre les progrès ou d’identifier les endroits où l’aide est la plus nécessaire. Les indicateurs de Belém commencent à combler cette lacune.

Pour l’Afrique, c’est important. Trop souvent, les moyennes nationales masquent de fortes inégalités. Elles cachent des écarts entre les zones rurales et urbaines, entre les familles riches et pauvres, et entre les groupes exposés à des menaces climatiques très différentes. Mettre l’accent sur l’équité permet d’éviter que les personnes les plus exposées ne soient ignorées.




Read more:
Changement climatique en Afrique : un rapport prévoit une baisse de 30 % des revenus agricoles et 50 millions d’Africains privés d’eau


Mais les indicateurs ne sont pas parfaits

Si l’adoption des indicateurs d’adaptation de Belém constitue une avancée majeure, ils ne sont toutefois pas, à mon avis, l’outil abouti dont le monde a besoin.

De nombreux négociateurs, observateurs et experts techniques ont noté que plusieurs éléments ont été édulcorés lors des dernières phases de négociation, rendant certains indicateurs plus généraux ou moins précis que prévu initialement. D’autres nécessitent des informations que de nombreux pays africains ne sont pas encore en mesure de collecter régulièrement, faute de systèmes ou de ressources.

Les pays manquent souvent de données fiables sur les dommages annuels causés par les effets du changement climatique, tels que les inondations ou les sécheresses. Ils ne disposent pas toujours d’évaluations locales permettant d’identifier les communautés les plus exposées et les raisons de cette exposition. En outre, ils ont du mal à vérifier si les fonds alloués à l’adaptation parviennent réellement aux personnes qui en ont besoin.

Ces défis ne remettent pas en cause la valeur du cadre. Ils mettent plutôt en évidence une réalité pratique : s’accorder sur des indicateurs mondiaux n’est qu’une première étape. Pour les rendre significatifs, mesurables et équitables, en particulier pour les pays confrontés aux risques climatiques les plus élevés, il faudra les affiner davantage. C’est pourquoi la prochaine phase de travail est d’une grande importance.




Read more:
Le changement climatique aggrave le fardeau de la dette africaine : de nouveaux contrats de dette pourraient aider


Deux ans pour agir : de Belém à Addis-Abeba

Afin de renforcer les indicateurs, les pays se sont mis d’accord sur ce qu’on appelle la «Vision Belém-Addis», un processus de deux ans visant à affiner le cadre et à le rendre plus pratique. Le moment est symbolique : la COP32, en 2027, se tiendra à Addis-Abeba, en Éthiopie. Le monde s’attend à ce que les indicateurs soient plus clairs, plus faciles à utiliser et mieux adaptés aux différentes régions d’ici là.

Ce parcours de deux ans, de Belém à Addis, offre une opportunité unique à l’Afrique. La COP32 sera le premier véritable test pour déterminer si ces indicateurs peuvent aider les pays à évaluer et à communiquer les progrès réalisés en matière d’adaptation.

L’Afrique peut montrer la voie, et non se contenter de suivre

La contribution de l’Afrique sera essentielle pour deux raisons.

Premièrement, les défis climatiques du continent sont divers et évoluent rapidement. Les solutions qui fonctionnent dans un domaine peuvent ne pas fonctionner dans un autre. Cette diversité fait de l’Afrique le meilleur terrain d’essai pour les indicateurs mondiaux qui visent à refléter la complexité du monde réel.

Deuxièmement, l’Afrique est déjà une source d’innovation. La préparation communautaire aux catastrophes, les systèmes de connaissances autochtones, les services d’information climatique locaux et les stratégies de gestion de la mobilité climatique offrent des enseignements dont le monde peut tirer parti. Ces expériences devraient être intégrées dans le cadre des indicateurs, plutôt que d’être considérées comme des éléments secondaires.

Mais pour que l’Afrique puisse jouer ce rôle, elle aura besoin d’aide.

Une étape importante, mais le travail reste à faire

Les indicateurs d’adaptation de Belém apportent au monde ce qui lui manquait depuis longtemps : une approche commune, compréhensible et ciblée pour discuter de l’adaptation, axée sur ce qui importe le plus, à savoir la sécurité et le bien-être des populations. Mais ils ne sont pas une solution définitive. Ils sont un point de départ.

Avec la COP32 qui se tiendra à Addis-Abeba, l’Afrique a une occasion rare d’influer sur la prochaine génération d’outils d’adaptation mondiaux et de s’assurer qu’ils fonctionnent pour ceux qui vivent en première ligne du changement climatique.

Si le voyage de Belém à Addis est utilisé à bon escient, le monde sera mieux outillé pour construire des sociétés résilientes. Sinon, un temps précieux aura été perdu dans une décennie où chaque année compte.

The Conversation

Olasunkanmi Habeeb Okunola est chercheur principal à l’Institut pour l’environnement et la sécurité humaine (UNU-EHS) de l’Université des Nations Unies. Il a reçu de nombreuses bourses de recherche axées sur l’adaptation au changement climatique et la réduction des risques de catastrophe.

ref. Adaptation climatique : pourquoi les indicateurs de Belém comptent pour l’Afrique – https://theconversation.com/adaptation-climatique-pourquoi-les-indicateurs-de-belem-comptent-pour-lafrique-273635

Un nuevo informe de Naciones Unidas alerta de que hemos entrado en “bancarrota hídrica”

Source: The Conversation – (in Spanish) – By Kaveh Madani, Director of the Institute for Water, Environment and Health, United Nations University

El mundo está utilizando tanta agua dulce, en un contexto marcado por el cambio climático, que ha caído en bancarrota hídrica, y muchas regiones ya no pueden recuperarse de las frecuentes escaseces de agua.

Alrededor de 4 000 millones de personas, casi la mitad de la población mundial, viven con una grave escasez de agua durante al menos un mes al año, sin acceso a agua suficiente para satisfacer todas sus necesidades. Y muchas más están viendo las consecuencias del déficit de agua: embalses secos, ciudades que se hunden, malas cosechas, racionamiento de agua, incendios forestales y tormentas de polvo.

Las señales de la crisis hídrica están por todas partes, desde Teherán, donde las sequías y el uso insostenible del agua han agotado los embalses de los que depende la capital iraní, lo que ha avivado las tensiones políticas, hasta Estados Unidos, donde la demanda de agua ha superado el suministro del río Colorado, una fuente crucial de agua potable y riego para siete estados.

Una mujer llena recipientes con agua de un pozo. Detrás de ella, en un paisaje árido, se ven vacas.
Las sequías han dificultado la búsqueda de agua para el ganado y han provocado una malnutrición generalizada en algunas zonas de Etiopía en los últimos años. En 2022, UNICEF estimó que hasta 600 000 niños necesitarían tratamiento por malnutrición grave.
Demissew Bizuwerk/UNICEF Etiopía, CC BY

La bancarrota hídrica no es solo una metáfora del déficit de agua. Es una condición crónica que se desarrolla cuando un lugar utiliza más agua de la que la naturaleza puede reemplazar de forma fiable, y cuando el daño a los activos naturales que almacenan y filtran esa agua, como los acuíferos y los humedales, se vuelve difícil de revertir.

Un nuevo estudio que he dirigido desde el Instituto de la Universidad de las Naciones Unidas para el Agua, el Medio Ambiente y la Salud concluye que el mundo ha superado ya las crisis hídricas temporales. Muchos sistemas hídricos naturales ya no pueden volver a sus condiciones históricas. Estos sistemas se encuentran en un estado de colapso: la quiebra hídrica.

Consecuencias del colapso hídrico

En la quiebra financiera, las primeras señales de alerta suelen parecer manejables: retrasos en los pagos, préstamos y venta de bienes que se esperaban conservar. Luego, la espiral se acelera.

La quiebra hídrica tiene etapas similares.

Al principio, extraemos un poco más de agua subterránea durante los años secos. Utilizamos bombas más grandes y pozos más profundos. Transferimos agua de una cuenca a otra. Drenamos humedales y enderezamos ríos para hacer espacio para granjas y ciudades.




Leer más:
Las imágenes de satélite muestran que la sobreexplotación del acuífero está secando Doñana


Entonces aparecen los costes ocultos. Los lagos se reducen año tras año. Los pozos necesitan ser más profundos. Los ríos que antes fluían durante todo el año se vuelven estacionales. El agua salada se filtra en los acuíferos cercanos a la costa. El propio suelo comienza a hundirse.

Así se redujo el mar de Aral entre 2000 y 2011. El lago de agua salada era antes más ovalado y cubría las zonas de color claro hasta la década de 1980, pero el uso excesivo para la agricultura de varios países lo redujo.
NASA

Este último, el hundimiento, suele sorprender a la gente. Pero es un síntoma de la escasez de agua. Cuando se extrae agua subterránea en exceso, la estructura subterránea, que retiene el agua casi como una esponja, puede colapsar. En Ciudad de México, el terreno se hunde unos 25 centímetros al año. Una vez que los poros se compactan, no se pueden rellenar fácilmente.

El informe Global Water Bankruptcy, publicado el 20 de enero de 2026, documenta lo extendido que se está volviendo este fenómeno. La extracción de agua subterránea ha contribuido a un importante hundimiento del terreno en más de 6 millones de kilómetros cuadrados, incluidas zonas urbanas donde viven cerca de 2 000 millones de personas. Yakarta, Bangkok y Ciudad Ho Chi Minh son algunos de los ejemplos más conocidos en Asia.

Un gran sumidero cerca de campos agrícolas.
Un sumidero en el corazón agrícola de Turquía muestra cómo el paisaje puede colapsar cuando se extrae más agua subterránea de la que la naturaleza puede reponer.
Ekrem07/Wikimedia Commons, CC BY

La agricultura es el mayor consumidor de agua del mundo, responsable de aproximadamente el 70 % de las extracciones de agua dulce a nivel mundial. Cuando una región se queda sin agua, la agricultura se vuelve más difícil y más cara. Los agricultores pierden sus puestos de trabajo, aumentan las tensiones y la seguridad nacional puede verse amenazada.




Leer más:
Tres cambios cruciales en el sistema alimentario para no devorar el planeta


Alrededor de 3 000 millones de personas y más de la mitad de la producción mundial de alimentos se concentran en zonas donde el almacenamiento de agua ya está disminuyendo o es inestable. Más de 1,7 millones de kilómetros cuadrados de tierras de cultivo irrigadas sufren un estrés hídrico alto o muy alto. Esto amenaza la estabilidad del suministro de alimentos en todo el mundo.

Hileras de docenas de almendros muertos yacen en un campo abierto junto al equipo utilizado para retirarlos.
En California, una grave sequía y la escasez de agua obligaron a algunos agricultores en 2021 a retirar los cultivos que requieren mucho riego, incluidos los almendros.
Robyn Beck/AFP via Getty Images

Las sequías también están aumentando en duración, frecuencia e intensidad a medida que aumentan las temperaturas globales. Más de 1 800 millones de personas, casi uno de cada cuatro seres humanos, se enfrentaron a condiciones de sequía en distintos momentos entre 2022 y 2023.

Estas cifras se traducen en problemas reales: aumento de los precios de los alimentos, escasez de energía hidroeléctrica, riesgos para la salud, desempleo, presiones migratorias, disturbios y conflictos.

¿Cómo hemos llegado a esta situación?

Cada año, la naturaleza proporciona a cada región una cantidad de agua, en forma de lluvia y nieve. Piense en ello como una cuenta corriente. Esa es la cantidad de agua que recibimos cada año para gastar y compartir con la naturaleza.

Cuando la demanda aumenta, podemos recurrir a nuestra cuenta de ahorros. Extraemos más agua subterránea de la que se repone. Robamos la parte de agua que necesita la naturaleza y, en el proceso, drenamos los humedales. Esto puede funcionar durante un tiempo, al igual que la deuda puede financiar un estilo de vida derrochador durante un tiempo.

Las marcas equivalentes a las de una bañera muestran lo mucho que ha bajado el nivel del agua en un embalse
Las orillas expuesta en la presa de Latyan (cerca de Teherán, Irán) muestra unos niveles de agua significativamente bajos el 10 de noviembre de 2025. El embalse, que suministra parte del agua potable de la capital, ha experimentado un fuerte descenso debido a la prolongada sequía y al aumento de la demanda en la región.
Bahram/Middle East Images/AFP via Getty Images

Esas fuentes de agua a largo plazo están desapareciendo ahora. El mundo ha perdido más de 4,1 millones de kilómetros cuadrados de humedales naturales en cinco décadas. Los humedales no solo retienen el agua. También la limpian, amortiguan las inundaciones y sustentan la flora y la fauna.

La calidad de agua también está disminuyendo. La contaminación, la intrusión de agua salada y la salinización del suelo pueden hacer que el agua esté demasiado sucia y salada para su uso, lo que contribuye a la escasez de agua.

Un mapa muestra que la mayor parte de África, el sur de Asia y gran parte del oeste de los Estados Unidos tienen altos niveles de riesgo relacionados con el agua.
Las puntuaciones generales de riesgo hídrico reflejan el valor agregado de la cantidad de agua, la calidad del agua y los riesgos normativos y de reputación para el suministro de agua. Los valores más altos indican mayores riesgos relacionados con el agua.
Instituto de la Universidad de las Naciones Unidas para el Agua, el Medio Ambiente y la Salud, basado en Aqueduct 4.0, CC BY

El cambio climático está agravando la situación al reducir las precipitaciones en muchas zonas del mundo. El calentamiento aumenta la demanda de agua de los cultivos y la necesidad de electricidad para bombear más agua. También derrite los glaciares que almacenan agua dulce.

A pesar de estos problemas, los países siguen aumentando la extracción de agua para apoyar la expansión de las ciudades, las tierras de cultivo, las industrias y ahora los centros de datos.

No todas las cuencas hidrográficas y naciones están en bancarrota hídrica, pero las cuencas están interconectadas a través del comercio, la migración, el clima y otros elementos clave de la naturaleza. El colapso hídrico en una zona ejercerá más presión sobre otras y puede aumentar las tensiones locales e internacionales.

¿Qué se puede hacer?

La quiebra financiera termina transformando el gasto. La quiebra hídrica necesita el mismo enfoque.

  • Detener la hemorragia: el primer paso es admitir que el balance está roto. Eso significa establecer límites de uso del agua que reflejen la cantidad de agua realmente disponible, en lugar de limitarse a perforar más profundamente y trasladar la carga al futuro.

  • Proteger el capital natural, no solo el agua: proteger los humedales, restaurar los ríos, recuperar la salud del suelo y gestionar la recarga de las aguas subterráneas no son solo algo deseable. Son esenciales para mantener un suministro de agua saludable, al igual que un clima estable.

Una mujer empuja una carretilla con un recipiente lleno de agua dulce. El océano se ve detrás de ella.
En pequeños Estados insulares como Maldivas, el aumento del nivel del mar amenaza el suministro de agua cuando el agua salada penetra en los acuíferos subterráneos y arruina los pozos.
PNUD Maldivas, 2021, CC BY
  • Usar menos, pero hacerlo de forma justa: gestionar la demanda de agua se ha convertido en algo inevitable en muchos lugares, pero los planes de quiebra hídrica que recortan el suministro a los pobres mientras protegen a los poderosos fracasarán. Entre los enfoques serios se incluyen las protecciones sociales, el apoyo a los agricultores para que realicen la transición a cultivos y sistemas que requieran menos agua y la inversión en eficiencia hídrica.

  • Medir lo que importa: muchos países siguen gestionando el agua con información parcial. La teledetección por satélite puede supervisar los suministros y las tendencias del agua y proporcionar alertas tempranas sobre el agotamiento de las aguas subterráneas, el hundimiento del terreno, la pérdida de humedales, el retroceso de los glaciares y el deterioro de la calidad del agua.

  • Planificar para menos agua: la parte más difícil de solucionar la quiebra es psicológica. Nos obliga a abandonar las antiguas referencias. El colapso hídrico requiere rediseñar las ciudades, los sistemas alimentarios y las economías para vivir dentro de nuevos límites antes de que esos límites se estrechen aún más.

Con el agua, al igual que con las finanzas, la bancarrota puede ser un punto de inflexión. La humanidad puede seguir gastando como si la naturaleza ofreciera crédito ilimitado, o puede aprender a vivir dentro de sus medios hidrológicos.

The Conversation

Kaveh Madani no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Un nuevo informe de Naciones Unidas alerta de que hemos entrado en “bancarrota hídrica” – https://theconversation.com/un-nuevo-informe-de-naciones-unidas-alerta-de-que-hemos-entrado-en-bancarrota-hidrica-273850

Experimentos Pitesti y Milgram: ideología y obediencia absoluta para desatar la maldad humana

Source: The Conversation – (in Spanish) – By Francisco López Cantos, Ciencias de la Comunicación, experto en comunicación pública de la ciencia., Universitat Jaume I

Jack_the_sparow/Shutterstock

El siglo XX fue un espejo terrible al que seguimos asomados para entender algunas formas de dominio total basadas en la ideología y el poder del relato. Destacan episodios escalofriantes de ingeniería social, que tuvieron como finalidad lograr que los individuos siguieran ciegamente mecanismos de obediencia absoluta.

En algunos casos, el objetivo fue la reeducación de disidentes a través de la violencia y la coerción. Otras veces se persiguió poner a prueba la capacidad del ser humano de infligir dolor a sus semejantes mediante un reflejo condicionado, que activa mecanismos de obediencia y sumisión.

Dos hitos de manipulación ideológica

El experimento Pitesti se implementó en una cárcel de Rumanía durante el régimen comunista entre 1949 y 1951. Una década más tarde, en 1961, el experimento Milgram recreó una experiencia de modelado social en un entorno de laboratorio en la Universidad de Yale (EE.UU.).

El experimento Milgram tuvo como finalidad analizar el uso y conformación del poder y la asignación de roles carcelario/preso o dominante/dominado, en un entorno controlado y supervisado por investigadores. Lo acabaron interrumpiendo dada la barbarie de violencia en que se había sumido el entorno carcelario simulado que sirvió para el experimento.

Los experimentos Pitesti y Milgram se desarrollaron en el contexto de irreconciliable confrontación ideológica y crecientes tensiones geopolíticas posteriores a la II Guerra Mundial, en lo que se ha venido denominando Guerra Fría.

Pitesti, una cárcel para “reeducar”

Hacia 1949 se empezó a trasladar a la cárcel de Pitesti, ciudad cercana a Bucarest y capital de la región histórica de Valaquia, a algunos de los presos que se consideraba contrarios a la doctrina del régimen.

Entre ellos se encontraba un grupo de fervientes creyentes que seguían manteniendo su fe cristiana y que, a pesar de todos los recursos que el aparato del Estado había movilizado para erradicar las creencias religiosas y construir una sociedad comunista y laica, seguían sin renunciar a su religión.

El objetivo del experimento Pitesti consistía en reeducar a los prisioneros, alterando su personalidad para obtener de ellos una obediencia absoluta. Existen diferentes estimaciones del número de presos que sufrieron torturas, con cifras que van de los 700 a los 5 000 reclusos.

En paralelo, se establecieron algunas negociaciones con la Iglesia, ya que resultaba más sencillo y práctico mantener a los poderes religiosos contenidos y controlados para utilizar su capacidad de influencia en la población.

El régimen, que por entonces lideraba Gheorghe Gheorghiu-Dej, a quien sucedería Nicolae Ceaușescu tras su muerte en 1965, lo había intentado todo. Adoctrinaban a la población con la censura y la prensa, empleaban la represión y el terror y tenían al poder eclesiástico domesticado. Pero no conseguían convertir a los irreductibles. Y a algunos de ellos los llevaban a Pitesti, a ver si se enderezaban en la cárcel y asumían la doctrina “correcta”.

Personas normales convertidas en torturadores

En Pitesti se utilizaron los métodos de reeducación popular más extremos, tras fracasar otros esfuerzos previos por controlar y adoctrinar a la población mediante el discurso propio del aparato del estado y su ideología.

Para reeducarles en la “virtud”, en este caso del comunismo, les hacían comer y cagar en el mismo recipiente, pisotear y escupir los crucifijos y recibían violentas palizas. Pobres personas en manos de unos transmisores del régimen que, como ocurría en el Holocausto, sentían que solo cumplían ordenes y estaban haciendo lo “correcto”. Incluso algunos eran creativos e imaginaban formas de tortura nuevas. Lo importante era cumplir con los preceptos que marcaba la ideología.

El terror se prolongó hasta 1951. El 12 de julio de ese año, el médico Ion Simionescu, de 67 años, sometido al proceso de reeducación, se arrojó contra el alambre de espino para que los guardias lo mataran. Su muerte se hizo pública y las autoridades iniciaron una investigación. Esta se saldó con la ejecución de algunos implicados y una cortina de humo por parte de la justicia comunista.

Cómo imponer un ideal de sociedad

Pitesti no era un laboratorio de investigación, ni siquiera fue un experimento en sentido estricto, aunque así se ha conocido. Más bien era parte de un proyecto institucional de reeducación moral de las masas. Representaba al régimen comunista y al ideal de sociedad que se pretendía.

Una sociedad en la que los diferentes roles estaban perfectamente establecidos entre quienes ostentaban el poder y el resto. Aquellos que no los asumieran, ya sabían el destino que les esperaba. La cárcel era el lugar asignado a las personas “desviadas” y difíciles de convertir a la ideología del régimen. Todo ello como forma de reeducación, si habían tenido la suerte de no ser aniquilados físicamente antes.

El resultado de tales intentos de ocupar el espacio público, y las mentes de la ciudadanía, utilizando el discurso o la violencia no fue el esperado. Bien al contrario, tras el asesinato de Ceaușescu se produjo una eclosión religiosa inmediata y masiva. A día de hoy, en Rumanía, el 85 % de la población se declara cristiana ortodoxa y practicante, sin distinciones significativas entre franjas de edad.

Milgram y la sumisión social

A diferencia de lo sucedido en Pitesti, el experimento Milgram estaba diseñado para analizar el ejercicio del poder y la sumisión e intentar explicar, desde la psicología social, el Holocausto. Por ello se simuló en unas condiciones de laboratorio, sin que existiera un poder omnisciente como el que sí se daba en Rumanía.

Stanley Milgram, un psicólogo estadounidense, estableció un mecanismo para medir el grado de obediencia a la autoridad. Este se basaba en una experiencia mediante la cual unos voluntarios, reclutados a cambio del pago de cuatro dólares, seguían órdenes que provocaban graves daños a otros mediante descargas eléctricas.

En realidad, las supuestas descargas eléctricas eran simuladas, al igual que el sufrimiento de las víctimas. Pero los verdugos voluntarios desconocían este hecho.

El experimento de Stanley Milgram mostró con crudeza la vigencia de las reflexiones de Hannah Arendt en torno a la banalidad del mal y la irracional condición humana. También pretendía revelar los peligros que supone el uso de la violencia física o simbólica cuando se utiliza para la conformación de discursos políticos extremistas.

De aquellos barros, estos lodos.

En aquellas agitadas décadas posteriores a la segunda guerra mundial, germen de los profundos cambios sociales que llegan hasta la actualidad, se desarrollaron los experimentos Pitesti y Milgram. También se produjeron significativas confrontaciones académicas estrechamente ligadas a las diferentes perspectivas ideológicas propias de los bloques enfrentados. Muestra de ello son los históricos debates entre Noam Chomsky y Michel Focault en torno a la validez de la ciencia frente al poder del discurso. O el que sostuvieron Jean-Paul Sartre y Marcel Camus en relación a la justificación de los medios para la consecución de los fines ideológicos.

Estos debates, y aquellos “experimentos”, nos acercan lecciones de la historia en torno a los nocivos efectos derivados de la simplificación y confrontación ideológica y la ingenua confianza en la eficacia y los efectos de la comunicación y el poder del relato para promover el cambio social.

El lado perverso del relato

Se ha creído ingenuamente que el poder del relato puede servir para implementar masivamente una determinada transformación social, sea de la ideología que sea. Cuando esto sucede, los resultados son impredecibles a corto y medio plazo. Oscilan entre sus efectos narcotizantes y las devastadoras consecuencias gobbelianas de su extensión y adopción irracional. En cualquier caso, sus frutos no son otros que el incremento de la polarización y la confrontación pública.

El exceso del relato y la comunicación siempre es bienvenido como práctica extensiva de carácter cultural, como ficción en sí misma que explora los límites y características de la propia condición humana y la sociedad de cada época. Pero no debería ser una práctica común en el ámbito de la comunicación pública, tal como estamos viendo en estos tiempos en que todo el mundo parece haber asumido que el éxito político y social consiste en “ganar el relato”.

Hay que tener cuidado con los experimentos sociales y la confianza en las bondades de la comunicación para imponer una particular visión ideológica. Resulta bastante sencillo convertir un inocuo club de fans de tal o cual saga literia o cinematográfica en un bastante peligroso club de fanáticos de la ideología de turno que promueve tal relato, o de la opuesta.

Y en las democracias europeas, de larga tradición académica pero cada vez más amenazadas por los extremismos ideológicos, parece que las Humanidades todavía tienen algo que decir frente el progresivo deterioro de la política y el conocimiento. Un deterioro resultado de la extrema simplificación y mitificación del relato académico en torno al poder y bondades de la comunicación.

The Conversation

Francisco López Cantos no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Experimentos Pitesti y Milgram: ideología y obediencia absoluta para desatar la maldad humana – https://theconversation.com/experimentos-pitesti-y-milgram-ideologia-y-obediencia-absoluta-para-desatar-la-maldad-humana-244703

Café y tostadas con mermelada, un perfecto desayuno poliploide

Source: The Conversation – (in Spanish) – By Carmen Benítez Benítez, Profesora Ayudante Doctor, Universidad de Sevilla

Muchos de los alimentos en nuestra mesa existen gracias a antiguas mutaciones genéticas en el reino vegetal. The Design Lady / Unsplash. , CC BY-SA

¿Imagina un mundo sin pan tostado ni aroma de café recién hecho por la mañana? Ese desayuno cotidiano solo es posible gracias a una larga historia de mutaciones genéticas acumuladas durante millones de años.

Las mutaciones son cambios en la información (secuencia de nucleótidos) o en la estructura del material genético que, aunque a menudo se asocian con enfermedades o defectos, constituyen, en realidad, la fuente principal de variación sobre la que actúa la evolución. Gracias a ellas, la vida en nuestro planeta ha podido transformarse y diversificarse.

La evolución en la despensa

No todas las mutaciones son pequeñas modificaciones en el ADN. A veces, los cambios ocurren a gran escala y afectan a regiones de gran tamaño o a cromosomas enteros (paquetes de material genético). Estos cambios, conocidos como mutaciones cromosomáticas, han tenido un papel fundamental en la historia evolutiva de las plantas y, en consecuencia, en la enorme diversidad de alimentos que hoy forman parte de nuestra dieta diaria.

En términos simples, estas mutaciones pueden afectar a la composición o el número de los cromosomas, con pérdidas, reordenamientos o intercambios de sus fragmentos.

En algunos casos, pueden multiplicar conjuntos completos de cromosomas, que contienen la información necesaria para el desarrollo de un individuo. La mutación cromosómica que aumenta el nivel de ploidía –número de juegos completos de cromosomas en una célula– se conoce como poliploidía.

Se trata de un proceso común en plantas que ha sido clave durante la evolución de muchos de sus principales linajes (entre ellos, las angiospermas o plantas con flores y frutos). En concreto, es responsable de la aparición de nuevas especies y de la gran variedad de cultivos que hoy sustentan nuestra alimentación.

El efecto gigas

La poliploidía es la condición en la que un organismo posee más de dos juegos completos de cromosomas en sus células. Mientras los seres humanos somos diploides (2x) (con dos copias homólogas de cada cromosoma), muchas plantas son tetraploides (4x), hexaploides (6x) o, incluso, presentan niveles de ploidía todavía mayores.

Este fenómeno puede surgir por errores durante la meiosis –división celular en los organismos de reproducción sexual que reduce la cantidad de cromosomas en los gametos– o por hibridaciones entre diferentes especies. Lejos de ser un problema, la poliploidía suele desencadenar ventajas evolutivas, como plantas más grandes, que llegan antes a la edad adulta o una mejor adaptación a condiciones ambientales cambiantes.

El aumento del tamaño celular y del vigor asociado a esta condición se conoce como el “efecto gigas”. Gracias a él, las plantas poliploides suelen desarrollar hojas más grandes, flores más vistosas y frutos más carnosos, características que las han convertido en aliadas clave para la mejora de la agricultura.

Asimismo, el hecho de tener juegos de cromosomas “de repuesto” se traduce en que las mutaciones genéticas perjudiciales pueden no afectarles tan negativamente como a especies diploides. Ello les ha dotado de una mayor tolerancia al estrés ambiental y colonizar exitosamente entornos hostiles, como hábitats de latitudes y altitudes elevadas.

En nuestro desayuno

Triticum vulgare.
Amédée Masclef en el _Atlas des plantes de France_ (1891).

Muchos de los cultivos más importantes del mundo deben su éxito a antiguos eventos cromosomáticos que los hicieron más resistentes, productivos y sabrosos. El estudio del ADN de plantas ha revelado que casi todas las especies actuales han experimentado, al menos, una duplicación completa de su material genético a lo largo de su historia evolutiva.

El trigo (Triticum aestivum), por ejemplo, es un hexaploide (6x) surgido de la hibridación entre especies de gramíneas distintas. Esta compleja combinación genética le dio granos más grandes y una notable capacidad para adaptarse a diferentes tipos de climas.

Algo similar ocurre con la fresa (Fragaria × ananassa), un octoploide (8x) nacido del cruce entre especies americanas y europeas. Su elevado número de cromosomas, unido al proceso de domesticación y selección humana, ha contribuido a que desarrolle frutos más grandes, jugosos y dulces.

Tampoco podemos olvidar al café arábico (Coffea arabica), un tetraploide (4x) necesario para muchos cada mañana, resultado de un antiguo cruce entre dos especies africanas.

Así que cuando desayunamos tostada de pan de trigo con mermelada de fresa y una taza de café, estamos disfrutando de una auténtica degustación de poliploides.

En nuestro día a día

Asimismo, una de las bebidas más antiguas y apreciadas por la humanidad, la cerveza, está relacionada con la poliploidía. Su ingrediente principal, la cebada (Hordeum vulgare), presenta formas diploides (2x) y tetraploides (4x) que han sido seleccionadas por sus propiedades y su resistencia a condiciones ambientales diversas.

Además, la levadura de la cerveza (Saccharomyces cerevisiae), responsable de la fermentación, puede presentar distintos niveles de ploidía, lo que influye en los aromas y matices de la bebida.

Otras plantas comestibles comunes también tienen un origen poliploide bien documentado, como el plátano y la banana (Musa sp., 3x), la patata (Solanum tuberosum, 4x) o la caña de azúcar (Saccharum officinarum, 8x).

Fruto maduro del algodón.
Michael Bass-Deschenes / Wikimedia Commons., CC BY

La poliploidía, además, se encuentra en otras plantas ampliamente usadas por los humanos con propósitos no alimenticios, como el tabaco (Nicotiana tabacum, 4x) o el algodón (Gossypium sp., 4x).

Mutaciones artificiales

Pero la poliploidía no es solo un fenómeno del pasado. Hoy en día, siguen ocurriendo mutaciones cromosomáticas, tanto de forma natural como inducidas por la acción humana.

Los programas de mejora vegetal la aprovechan para crear cultivos más productivos, resistentes a plagas o adaptados al cambio climático, pues permite combinar en el híbrido características beneficiosas de ambos progenitores.

Un buen ejemplo es el nabicol o colinabo (Brassica napobrassica), un híbrido natural originado en el siglo XVII entre la col (Brassica oleracea) y el nabo (Brassica rapa) y seleccionado para su cultivo por el ser humano. Este cruce combina el material genético de ambas especies, que da lugar a una planta con raíces carnosas, hojas nutritivas y una gran tolerancia al frío.

Como vemos, la poliploidía ha dotado a muchas plantas de características que han resultado ser muy beneficiosas desde el punto de vista de su aprovechamiento agrícola. En consecuencia, buena parte de los alimentos que consumimos a diario son el resultado directo de estos “errores afortunados” de la naturaleza.

The Conversation

Marcial Escudero recibe fondos de la Agencia Estatal de la Investigación (DiversiChrom PID2021-122715NB-I00).

Alegría Montero Ramírez, Ana Valdés Florido, Carmen Benítez Benítez, Inés Gómez Ramos, Joan Cuscó Borràs, Letícia Rodrigues Novaes, Rogelio Sánchez Villegas y Santiago Martín-Bravo no reciben salarios, ni ejercen labores de consultoría, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del puesto académico citado.

ref. Café y tostadas con mermelada, un perfecto desayuno poliploide – https://theconversation.com/cafe-y-tostadas-con-mermelada-un-perfecto-desayuno-poliploide-272082

Cuando la realidad también descarrila: comprender el ‘shock’ y el duelo tras un accidente grave

Source: The Conversation – (in Spanish) – By Teresa Bobes Bascarán, Profesora asociada en Ciencias de la Salud, Universidad de Oviedo · Psicóloga clínica, SESPA · Investigadora en salud mental (CIBERSAM, ISPA, INEUROPA), Universidad de Oviedo

shisu_ka/Shutterstock, CC BY

Hay sucesos que no sólo interrumpen un trayecto, sino que alteran el mapa interno con el que nos movemos por el mundo. Lo que hasta ese momento era rutina, subir a un tren, confiar en un horario, asumir la seguridad como algo dado, se quiebra de forma abrupta. En cuestión de segundos, lo cotidiano se vuelve amenazante y lo previsible, frágil.

Tras una tragedia colectiva como la ocurrida el pasado domingo con el descarrilamiento y choque de dos trenes en la provincia de Córdoba –por el momento hay 41 fallecidos–, no se detiene únicamente un servicio o una agenda. Se resiente algo más profundo: la percepción de seguridad, la relación con el tiempo y la confianza básica en que el mundo funciona como esperamos. Por eso, el impacto no se limita a quienes estuvieron directamente implicados. Se extiende, de forma silenciosa, a muchas otras personas.

En este contexto, una de las preguntas más frecuentes es si las reacciones emocionales que aparecen como el aturdimiento, el miedo o la sensación de irrealidad son normales. Desde la psicología, la respuesta es clara y basada en la evidencia: sí, lo son.

Una respuesta esperable

El shock psicológico es una reacción automática del organismo ante una amenaza extrema. Desde el punto de vista neurobiológico, se produce una activación intensa de los sistemas de alarma del cerebro, especialmente los relacionados con la respuesta al estrés, lo que puede afectar temporalmente a funciones como la atención, la memoria o la regulación emocional.

En las primeras horas o días tras un accidente grave es frecuente experimentar sensación de irrealidad, dificultades para concentrarse, recuerdos fragmentados, emociones embotadas o muy intensas, alteraciones del sueño o síntomas físicos como temblor y agotamiento. Estas manifestaciones forman parte de lo que se conoce como respuesta aguda al estrés, recogida en los principales manuales diagnósticos y descrita ampliamente en la literatura científica.

La evidencia empírica muestra que entre el 70 y el 80 % de las personas expuestas a una catástrofe presentan este tipo de reacciones iniciales, que en la mayoría de los casos disminuyen de forma progresiva sin necesidad de intervención especializada.

Por qué algunas tragedias impactan más que otras

No todas las tragedias colectivas generan el mismo impacto psicológico. En accidentes de gran magnitud como el que acabamos de vivir en España confluyen varios factores que intensifican la conmoción social:

  • Ruptura de una sensación de seguridad muy asentada. El transporte ferroviario de alta velocidad se percibe como un entorno controlado y seguro. Cuando falla un sistema asociado a la rutina diaria, se resiente la confianza básica en lo previsible.

  • Alta identificación social. Viajar en tren es una experiencia común. Esto favorece la identificación masiva con las víctimas y activa pensamientos del tipo “podría haber sido yo”, que aumentan la intensidad emocional.

  • Carácter súbito e inesperado. Los sucesos repentinos, sin tiempo de anticipación, generan mayor sensación de indefensión y dificultan la integración psicológica inicial.

  • Magnitud humana y exposición continuada. El número de víctimas, la gravedad de los heridos y la repetición de imágenes incrementan la carga emocional, incluso en personas no directamente afectadas.

  • Activación de la memoria colectiva. La investigación sobre el descarrilamiento del tren en Santiago de Compostela en 2013 muestra cómo las tragedias ferroviarias no solo generan impacto inmediato, sino que reactivan duelos previos y emociones latentes a nivel social, amplificando el malestar colectivo.

El impacto indirecto también cuenta

Las investigaciones en trauma psicológico describen el llamado impacto vicario o indirecto. Personas que no han estado presentes pueden experimentar ansiedad, hipervigilancia, miedo persistente o alteraciones del sueño tras una tragedia de gran repercusión.

Se estima que entre un 10 y un 20 % de la población expuesta indirectamente puede presentar malestar clínicamente significativo durante semanas, sin que ello implique un trastorno mental, sino una respuesta humana ante la percepción de amenaza.

El duelo no es un proceso lineal

Para quienes han perdido a un ser querido, el duelo no sigue una secuencia ordenada ni unos plazos fijos. En los primeros momentos suele predominar el aturdimiento; más adelante pueden aparecer tristeza intensa, rabia, culpa o preguntas sin respuesta.

La evidencia indica que alrededor del 10-15 % de las personas en duelo pueden desarrollar complicaciones si concurren factores de riesgo previos o si no cuentan con apoyos adecuados. Por ello, el acompañamiento temprano y respetuoso es un elemento clave de prevención.

La importancia de la intervención comunitaria

La psicología subraya el valor de las intervenciones comunitarias tempranas. Crear espacios de escucha y atención, por ejemplo, en estaciones de tren u otros lugares de tránsito, permite reducir el aislamiento, normalizar reacciones y favorecer la regulación emocional.

Hablar con otros viajeros, compartir experiencias o simplemente estar acompañado actúa como factor protector. Estas intervenciones, basadas en los principios de los primeros auxilios psicológicos, han demostrado ser eficaces para disminuir el malestar y prevenir problemas posteriores.

Cuándo buscar ayuda profesional

En la mayoría de los casos, el malestar disminuye con el paso de las semanas. Sin embargo, si los síntomas persisten, se intensifican o interfieren de forma significativa en la vida cotidiana, la atención psicológica especializada es una herramienta eficaz y necesaria.

Cuando ocurre una tragedia de este tipo, es tentador buscar explicaciones rápidas o exigir una recuperación inmediata. Sin embargo, los procesos psicológicos no siguen la lógica de la urgencia ni de los plazos administrativos. El shock, el duelo y el miedo necesitan tiempo, acompañamiento y contextos seguros para poder elaborarse.

La evidencia científica muestra que la mayoría de las personas logrará integrar lo vivido con el paso de las semanas o los meses. Pero también señala algo igualmente importante: que el apoyo social y comunitario temprano marca una diferencia significativa. Espacios de escucha, presencia sin juicio y recursos accesibles ayudan a que el impacto no se transforme en aislamiento o cronificación del sufrimiento.

Pedir ayuda profesional cuando el malestar persiste no es un signo de debilidad, sino una forma de cuidado y de prevención. Porque, tras una experiencia que sacude los cimientos de la normalidad, cuidar la salud mental no es un añadido: es una necesidad.

Cuando la realidad se descarrila, acompañar y dejarse acompañar es una forma de volver a poner las vías.

The Conversation

Teresa Bobes Bascarán no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Cuando la realidad también descarrila: comprender el ‘shock’ y el duelo tras un accidente grave – https://theconversation.com/cuando-la-realidad-tambien-descarrila-comprender-el-shock-y-el-duelo-tras-un-accidente-grave-273871