Géo-ingénierie climatique : de quoi parle-t-on ? Pour quelle efficacité et quels nouveaux risques ?

Source: The Conversation – in French – By Laurent Bopp, Directeur de recherche, Centre national de la recherche scientifique (CNRS); École normale supérieure (ENS) – PSL; Académie des sciences

L’idée d’injecter des aérosols dans l’atmosphère pour imiter l’effet des éruptions volcaniques et masquer les rayons du Soleil n’est pas nouvelle, mais elle nous expose au risque de « choc terminal » : un réchauffement brutal si l’injection venait à s’arrêter. Ici, une éruption du volcan Tonga, dans le Pacifique. Goes-West Satellite/NOAA/RAMMB/CIRA, CC BY

La « géo-ingénierie climatique » recouvre un ensemble de techniques qui visent à manipuler le climat à grande échelle afin d’éviter les risques du changement climatique. Ces techniques sont très variées, depuis les parasols spatiaux pour limiter l’arrivée des rayons du soleil dans l’atmosphère jusqu’à la fertilisation des océans pour que le phytoplancton consomme davantage de CO₂, en passant par la restauration et la conservation de zones humides où le carbone est stocké de façon préférentielle.

En octobre 2025, l’Académie des sciences a publié un rapport qui détaille ce que l’on sait et ce que l’on ignore encore sur les éventuels bénéfices de ces techniques et sur les nouveaux risques qu’elles font surgir.

Elsa Couderc, cheffe de rubrique Sciences et Technologies, explore ici avec Laurent Bopp, climatologue et académicien, les nouveaux risques climatiques que ces techniques pourraient faire émerger. Le second volet de ces « regards croisés » est un entretien avec Manuel Bellanger, qui étudie à l’Ifremer le développement des techniques de géo-ingénierie marine avec un regard d’économiste.


The Conversation : Pourquoi l’Académie des sciences s’empare-t-elle aujourd’hui du sujet de la géo-ingénierie climatique, alors qu’on en parle relativement peu en France ?

Laurent Bopp : Le sujet est de plus en plus présent dans la littérature scientifique, dans le débat scientifique et dans le débat politique qui entoure les discussions sur le changement climatique. On ne s’en rend pas bien compte en France, mais aux États-Unis, en Angleterre, en Allemagne, au Canada, le débat est beaucoup plus présent.

Certains climatologues, y compris de renom, se prononcent pour faire beaucoup plus de recherches sur ces technologies, mais aussi parfois pour envisager leur déploiement à grande échelle afin d’éviter un réchauffement trop important. L’argument est simple : un niveau de réchauffement trop élevé génère des risques importants et pourrait conduire au dépassement de certains points de bascule potentiels dans le système climatique, par exemple une fonte irréversible des calottes glaciaires du Groenland et de l’Antarctique, ce qui pourrait entraîner une élévation du niveau de la mer de plusieurs mètres additionnels.

En France, nous avons besoin collectivement de plus d’informations et de plus de débats autour de ces techniques. Nous avons eu le sentiment que certains de nos représentants se sont retrouvés en partie dépourvus dans des arènes de négociations internationales, face à des représentants d’autres gouvernements qui ont un agenda très agressif sur ces technologies. C’est sans doute une des raisons pour lesquelles l’Académie des sciences s’est emparée du sujet.

L’idée des interventions de géo-ingénierie climatique, c’est de réduire les risques liés au changement climatique. Mais ces interventions pourraient-elles induire de nouveaux risques et lesquels ?

L. B. : Un des intérêts de ce rapport, c’est de mettre la lumière sur ces nouveaux risques.

Mais, avant de rentrer dans le détail, il faut, quand nous parlons de géo-ingénierie climatique, distinguer deux grandes catégories de techniques – ces deux catégories sont fondées sur des approches très différentes et présentent des risques, là aussi, très différents.

Pour la première de ces catégories, il s’agit de modifier de façon assez directe le rayonnement solaire. On parle en anglais de Solar Radiation Management ou SRM. Dans ce cas-là, l’action s’apparente plutôt à une sorte de pansement sur la plaie d’une blessure, sans s’attaquer du tout à la cause du changement climatique : l’idée est de refroidir la Terre de façon artificielle, en utilisant par exemple des particules atmosphériques ou des miroirs spatiaux qui limiteraient la pénétration du rayonnement solaire jusqu’à la surface de la Terre. Ce refroidissement pourrait compenser, en partie au moins, le réchauffement lié aux gaz à effet de serre qui continueraient à augmenter dans l’atmosphère.

L’injection d’aérosols dans la haute atmosphère vise à imiter des éruptions volcaniques de très grande taille qui, par le passé, ont pu refroidir la Terre. Une des limites premières de cette approche, c’est que cette façon de refroidir la Terre est très différente de la façon dont elle se réchauffe aujourd’hui à cause des gaz à effet de serre : les échelles de temps et les échelles spatiales associées sont très différentes, et cela engendre un certain nombre de conséquences. Les risques sont à lire en fonction de ces deux échelles.

Les aérosols que l’on pourrait injecter dans la haute atmosphère ont une durée de vie courte. Ils vont disparaître de l’atmosphère assez rapidement, tandis que les gaz à effet de serre qui réchauffent le système Terre, le CO₂ en particulier, sont dans l’atmosphère pour très longtemps.

Cette différence majeure entraîne l’un des risques les plus préoccupants : le risque de « choc terminal ». Concrètement, si l’on décidait d’arrêter brutalement l’injection d’aérosols après s’être engagé dans ce type de stratégie
– et les raisons pourraient être multiples, qu’il s’agisse de problèmes de gouvernance, de financement ou de conflits internationaux – le réchauffement climatique jusque-là partiellement masqué réapparaîtrait d’un seul coup. On subirait alors, en très peu de temps, plusieurs années de réchauffement accumulé. On aurait des taux de réchauffement temporels très très rapides, et donc des conséquences sur la biodiversité ou sur les sociétés humaines difficiles à anticiper.

En d’autres termes, si le réchauffement arrive relativement lentement, la mise en place de mesures d’adaptation est possible ; s’il est très rapide, les conséquences sont potentiellement bien plus dévastatrices.

L’autre risque majeur est lié aux échelles spatiales : refroidir avec des aérosols par exemple, ce n’est pas du tout la même chose que ne pas refroidir en émettant moins de CO₂. Les effets régionaux du refroidissement vont être très différents de ce qu’ils auraient été si on avait réchauffé un peu moins. La localisation des précipitations, l’intensité de la mousson notamment ont des conséquences sur l’agriculture, sur la santé. Sur ces effets régionaux, il y a encore beaucoup d’incertitudes aujourd’hui, c’est quelque chose que les modèles décrivent moins bien que les effets temporels dont je parlais tout à l’heure.




À lire aussi :
Parasols géants et blanchiment du ciel : de fausses bonnes idées pour le climat


Face à ce risque majeur, l’Académie recommande d’arrêter le déploiement des techniques de modification du rayonnement solaire, et même les recherches sur cette technique de géo-ingénierie…

L. B. : Effectivement, notre rapport recommande de ne pas utiliser ces techniques, et nous allons même jusqu’à suggérer un traité international qui interdirait leur déploiement.

Nous pensons aussi qu’il ne faut pas financer, de façon importante, de la recherche qui soit spécifiquement fléchée sur ces techniques de modification du rayonnement solaire, pour éviter de légitimer ces approches trop dangereuses.

Bien sûr, nous avons besoin de bien plus de recherche sur le climat et sur les processus climatiques importants, donc sur les processus qui lient, par exemple, les aérosols dans la haute atmosphère avec la modification du rayonnement, mais nous pensons vraiment qu’il faut éviter les projets fondamentalement pensés pour pousser l’avènement de ces technologies. Les risques associés sont trop importants.

La géo-ingénierie climatique inclut une deuxième approche, celle qui consiste à augmenter l’efficacité des puits de carbone naturels, par exemple les forêts, les tourbières ou les océans qui absorbent naturellement du carbone. En quoi est-ce fondamentalement différent de la modification du rayonnement solaire ?

L. B. : Il ne s’agit plus de refroidir la Terre pour compenser un réchauffement qui serait lié à l’augmentation des gaz à effet de serre, mais d’éliminer du CO₂ qui est déjà présent dans l’atmosphère. Le terme consacré est celui d’« élimination du dioxyde de carbone », ou Carbon Dioxide Removal (CDR) en anglais.

D’abord, soyons clairs : la priorité des priorités reste de réduire les émissions actuelles de façon drastique. Ces « puits de carbone » additionnels ne doivent intervenir que comme un complément, après la réduction des émissions de façon massive et immédiate.

Pour stabiliser le climat et répondre aux objectifs de l’accord de Paris à 1,5 ou 2 °C de réchauffement par rapport à l’époque préindustrielle, nous avons besoin d’aller collectivement vers des émissions nettes nulles !

Comme il y aura sans doute des secteurs difficiles à décarboner, comme la sidérurgie ou le transport aérien, nous savons qu’il y aura sans doute besoin d’un peu de ces puits de carbone pour compenser ces émissions résiduelles.

On est donc sur une ligne de crête compliquée à tenir : ne pas mettre ces techniques d’élimination du CO₂ en avant, pour ne pas décourager la réduction des émissions – en raison du potentiel de décarbonation limité de ces techniques, nous allons y revenir – et en même temps continuer à soutenir la recherche sur ces technologies parce qu’elles pourraient se révéler utiles, au moins dans une certaine mesure.

En augmentant l’efficacité des puits de carbone naturels, si on reprend l’analogie avec le pansement et la blessure, on ne s’attaque toujours pas à la cause (l’émission de gaz à effet de serre), mais on remonte dans la chaîne de causalité en s’attaquant à quelque chose de plus amont que dans le cas de la modification du rayonnement solaire.

Il existe de nombreux types de méthodes d’élimination du CO₂, à la fois naturelles et technologiques. Présentent-elles toutes le même potentiel et les mêmes risques ?

L. B. : Pour éliminer du CO₂ déjà dans l’atmosphère, il y a une très grande diversité de techniques, en partie parce qu’il existe plusieurs « réservoirs » dans lesquels il serait possible de stocker le CO₂ retiré de l’atmosphère : dans le sous-sol, dans l’océan, dans la biomasse continentale.

Pour simplifier, je dirais qu’il y a une série de techniques qui sont aujourd’hui considérées comme « gagnant-gagnant » : elles permettent de retirer du CO₂ de l’atmosphère et elles ont d’autres bénéfices.

Prenons par exemple la restauration et la conservation des écosystèmes côtiers, comme les mangroves ou les herbiers marins : ces actions permettent un stockage de carbone et, par exemple, de mieux protéger les côtes contre la montée du niveau marin et les épisodes de submersion côtière. D’autres techniques, en foresterie, en agroforesterie ou en stockant le carbone dans les sols, permettent aussi de développer des pratiques agricoles qui sont plus vertueuses.

Malheureusement, comme évoqué dans le rapport, ces approches sont difficiles à mettre à l’échelle, en raison des surfaces souvent limitées et des quantités phénoménales de carbone qu’il faudrait pouvoir stocker dans ces réservoirs naturels pour avoir un effet significatif.

Et puis il y a, à l’autre bout du spectre, des techniques qui sont jugées peu efficaces et dont on sait qu’elles ont sans doute des effets dommageables sur les écosystèmes. Compte tenu des connaissances actuelles, l’Académie des sciences recommande de ne pas poursuivre dans ces directions-là.

L’exemple le mieux documenté est celui de la fertilisation par le fer du plancton marin, car elle a été envisagée il y a déjà longtemps, à la fin des années 1980. L’idée est d’aller en pleine mer, dans des régions où le développement du phytoplancton est limité par la faible abondance d’un nutriment bien particulier : le fer. Dans ces régions, il n’y a pas besoin d’ajouter beaucoup de fer pour fertiliser le plancton, qui va se développer davantage, et pour cela absorber plus de CO₂. Une partie de la matière organique produite coule ensuite vers les profondeurs de l’océan, emportant avec elle le carbone qu’elle contient. Ce carbone est ainsi isolé de l’atmosphère dans l’océan profond, potentiellement pour des centaines d’années.

Plusieurs expériences scientifiques ont été menées en pleine mer dans les années 1990 et 2000. À court terme, elles ont effectivement mis en évidence une augmentation du flux de carbone de l’atmosphère vers l’océan.

Toutefois, des travaux plus récents, notamment fondés sur la modélisation, montrent que cette technique est probablement beaucoup moins efficace qu’on ne l’imaginait initialement. Surtout, en modifiant fortement les écosystèmes marins pour capter du carbone, elle entraîne toute une série d’effets indésirables : l’émission d’autres gaz à effet de serre, une diminution de l’oxygène dans les eaux profondes, ou encore l’épuisement de certains nutriments essentiels, qui ne sont alors plus disponibles pour d’autres écosystèmes.

Ces constats ont conduit la communauté internationale à réagir. En 2008, les États ont amendé le protocole de Londres afin d’y introduire une interdiction de ce type de pratiques en haute mer.

Dans le cas de la fertilisation des océans, les risques sont donc bien documentés – ils ne concernent pas directement le climat mais des dommages collatéraux ?

L. B. : Oui. Malheureusement, on voit en ce moment une résurgence de certains projets poussés par certains chercheurs qui continuent à défendre ce type de techniques, par exemple aux États-Unis. Mais pour nous, il semble clair qu’il ne faut pas recommander ces techniques aux effets collatéraux bien documentés.




À lire aussi :
Géo-ingénierie marine : qui développe ces grands projets, et qu’y a-t-il à y gagner ?


Entre les techniques trop risquées, comme la fertilisation des océans, et les techniques de conservation et de restauration, que j’appelais « gagnant-gagnant » tout à l’heure, il y a d’autres techniques, pour lesquelles on a besoin de davantage de recherche – c’est le cas, par exemple, des techniques d’alcalinisation de l’océan.

Il s’agit d’une technique chimique cette fois : on augmente le pouvoir tampon de l’océan en ajoutant du matériel alcalin. Un des points positifs, c’est que cette technique consiste en l’accélération d’un phénomène naturel qui est l’altération des roches sur les continents. Quand les roches s’altèrent, elles apportent de l’alcalinité à l’océan, donc elles augmentent le pouvoir tampon de l’océan qui absorbe plus de CO₂ – c’est un processus très lent, qui a un rôle très important sur les échelles de temps très, très longues et qui régule en partie le cycle du carbone sur les échelles de temps géologiques.

Deuxième avantage : le CO2 ainsi stocké dans l’océan l’est de manière très durable, bien plus que dans des approches reposant sur du carbone organique (comme la fertilisation des océans) où le stockage est beaucoup plus incertain. Troisième point positif, cette augmentation de l’alcalinité permet aussi de réduire partiellement l’acidification des océans.

Mais ces bénéfices s’accompagnent de nombreuses incertitudes et de risques. Ajouter des matériaux alcalins modifie parfois fortement la chimie de l’eau de mer. Quels effets cela pourrait-il avoir sur les écosystèmes marins, le plancton ou les espèces côtières dont dépendent de nombreuses populations humaines ? À ce stade, nous manquons encore de données pour répondre clairement à ces questions.

L’efficacité même de la technique reste également incertaine. Pour qu’elle fonctionne, l’alcalinité ajoutée doit rester dans les couches de surface de l’océan, là où les échanges avec l’atmosphère ont lieu. Si elle est rapidement entraînée vers les profondeurs, son impact sur l’absorption du CO₂ devient très limité.

Enfin, il y a beaucoup de questions sur le coût de ces techniques. En particulier, un certain nombre de start-up et d’entreprises s’orientent vers des méthodes électrochimiques, mais c’est très coûteux d’un point de vue énergétique. Il faut faire le bilan sur l’ensemble du cycle de vie de ces techniques.

En somme, on a une gamme de techniques, parfois appelées abusivement « solutions » : certaines que l’on ne recommande pas aujourd’hui parce que les risques sont énormes ; d’autres qu’il faut prioriser et recommander, mais qui ont une efficacité somme toute limitée. Et puis entre les deux, des méthodes sur lesquelles il faut continuer à travailler.

À l’échelle internationale, où et quand se discutent les nouveaux risques des techniques de géo-ingénierie climatique ?

L. B. : La question des puits de carbone est déjà largement débattue dans le cadre des COP Climat, notamment parce que les gouvernements peuvent les intégrer dans leurs objectifs de réduction des émissions. C’est le cas, par exemple, des stratégies d’afforestation (boisement) et de reforestation. En revanche, il reste encore beaucoup de travail à faire sur les modalités concrètes de mise en œuvre de certaines techniques d’élimination du CO₂ que nous avons évoquées. En particulier, les questions de mesure et de vérification du CO₂ réellement retiré de l’atmosphère sont complexes et loin d’être résolues. Le Giec a d’ailleurs été mandaté par les gouvernements pour produire un rapport méthodologique spécifiquement consacré à ces enjeux.

En ce qui concerne la modification du rayonnement solaire, mon inquiétude est nettement plus forte. Certains pays affichent désormais ouvertement leur intérêt pour un déploiement potentiel de ces techniques.

Dans le prochain rapport du Giec, la géo-ingénierie occupera une place plus importante que dans les précédents. J’espère que cela permettra de documenter de façon précise et convaincante les risques potentiels associés à ces approches.


Propos recueillis par Elsa Couderc.

The Conversation

Bopp Laurent a reçu des financements du CNRS, de l’Agence Nationale de la Recherche, de la Fondation pour la Recherche sur la Biodiversité, du Programme Horizon Europe de la Commission Européenne, et de la Fondation Schmidt Sciences.

ref. Géo-ingénierie climatique : de quoi parle-t-on ? Pour quelle efficacité et quels nouveaux risques ? – https://theconversation.com/geo-ingenierie-climatique-de-quoi-parle-t-on-pour-quelle-efficacite-et-quels-nouveaux-risques-272387

Adaptation climatique : pourquoi les indicateurs de Belém comptent pour l’Afrique

Source: The Conversation – in French – By Olasunkanmi Habeeb Okunola, Senior Research Associate, United Nations University – Institute for Environment and Human Security (UNU-EHS), United Nations University

Lors du sommet mondial sur le climat de 2025, la COP30, qui s’est tenu à Belém, au Brésil, une décision a eu des conséquences majeures pour l’Afrique. Les pays se sont mis d’accord sur un nouvel ensemble d’indicateurs pour mesurer les progrès.

Les « indicateurs d’adaptation de Belém » ont été élaborés au cours d’un processus de deux ans mené par les Nations unies.

Bien que le nom puisse sembler technique, l’idée est simple. Pour la première fois, les pays disposent désormais d’un moyen commun de déterminer si le monde s’adapte réellement mieux aux effets du changement climatique. L’adaptation au climat consiste à prendre des mesures pour se préparer et faire face aux effets du changement climatique. Ces effets comprennent les inondations, les sécheresses, les vagues de chaleur, l’érosion côtière, les pertes de récoltes et les déplacements de populations liés au climat.




Read more:
Adaptation au changement climatique en Afrique pendant 10 000 ans : une étude offre des enseignements pour notre époque


Les indicateurs de Belém

Alors, que sont exactement les indicateurs de Belém et comment fonctionnent-ils ?

Il s’agit d’un nouvel ensemble de 60 mesures simples qui aident les pays à suivre leur niveau d’adaptation au changement climatique. Ils examinent les éléments qui affectent la vie quotidienne des populations. Il s’agit notamment de la sécurité de l’approvisionnement en eau, des systèmes alimentaires, de la santé, du logement, des systèmes d’alerte précoce, des écosystèmes et des économies locales. Au lieu de se concentrer uniquement sur les politiques écrites sur papier, les indicateurs examinent si les communautés deviennent réellement plus sûres et mieux à même de faire face aux inondations, aux sécheresses, aux vagues de chaleur et aux autres menaces climatiques.

Les indicateurs sont regroupés en thèmes clés, tels que :

  • réduire les risques climatiques : systèmes d’alerte précoce, préparation aux catastrophes

  • renforcer la résilience : systèmes de santé, sécurité alimentaire et hydrique

  • protéger les écosystèmes : forêts, zones humides et zones côtières

  • soutenir les personnes vulnérables : genre, handicap, groupes autochtones

  • suivre les finances et les ressources : comment les fonds destinés à l’adaptation sont acheminés vers les communautés.

Ensemble, ces 60 mesures offrent aux pays un moyen commun de comprendre et de suivre les progrès réalisés et les domaines dans lesquels un soutien est nécessaire de toute urgence.

Pendant des années, l’adaptation a été abordée en termes généraux, souvent sans mesures claires des progrès réalisés. Les indicateurs de Belém visent à changer cela en fournissant un langage commun pour décrire ce qu’implique la résilience et si les populations, en particulier les plus vulnérables, deviennent plus sûres.

En tant que spécialiste de la réduction des risques de catastrophe et de l’adaptation au changement climatique, j’ai examiné les nouveaux indicateurs de Belém et leur pertinence pour l’Afrique. Ils représentent une étape importante à l’échelle mondiale, mais leur succès dépendra d’un financement solide, d’une conception inclusive et d’une mise en œuvre localement ancrée Avec la COP32 qui se tiendra à Addis-Abeba, l’Afrique peut contribuer à transformer ces indicateurs d’ambition en impact réel.




Read more:
Climat : les pays africains se préparent à donner un coup d’accélérateur


Pourquoi est-ce important pour l’Afrique ?

L’Afrique subit certaines des conséquences climatiques les plus graves au monde. Dans l’ouest et le centre de l’Afrique, les inondations ont déplacé des centaines de milliers de personnes. Parallèlement, une chaleur record dans tout le Sahel met à rude épreuve les systèmes de santé, de production alimentaire et de systèmes d’énergie.

Dans le même temps, les communautés africaines trouvent leurs propres solutions, qu’il s’agisse de systèmes d’alerte précoce locaux, de projets basés sur la nature, de groupes d’épargne communautaires ou de pratiques agricoles innovantes.

Mais jusqu’à présent, il n’existait aucun moyen global de reconnaître ces efforts, de suivre les progrès ou d’identifier les endroits où l’aide est la plus nécessaire. Les indicateurs de Belém commencent à combler cette lacune.

Pour l’Afrique, c’est important. Trop souvent, les moyennes nationales masquent de fortes inégalités. Elles cachent des écarts entre les zones rurales et urbaines, entre les familles riches et pauvres, et entre les groupes exposés à des menaces climatiques très différentes. Mettre l’accent sur l’équité permet d’éviter que les personnes les plus exposées ne soient ignorées.




Read more:
Changement climatique en Afrique : un rapport prévoit une baisse de 30 % des revenus agricoles et 50 millions d’Africains privés d’eau


Mais les indicateurs ne sont pas parfaits

Si l’adoption des indicateurs d’adaptation de Belém constitue une avancée majeure, ils ne sont toutefois pas, à mon avis, l’outil abouti dont le monde a besoin.

De nombreux négociateurs, observateurs et experts techniques ont noté que plusieurs éléments ont été édulcorés lors des dernières phases de négociation, rendant certains indicateurs plus généraux ou moins précis que prévu initialement. D’autres nécessitent des informations que de nombreux pays africains ne sont pas encore en mesure de collecter régulièrement, faute de systèmes ou de ressources.

Les pays manquent souvent de données fiables sur les dommages annuels causés par les effets du changement climatique, tels que les inondations ou les sécheresses. Ils ne disposent pas toujours d’évaluations locales permettant d’identifier les communautés les plus exposées et les raisons de cette exposition. En outre, ils ont du mal à vérifier si les fonds alloués à l’adaptation parviennent réellement aux personnes qui en ont besoin.

Ces défis ne remettent pas en cause la valeur du cadre. Ils mettent plutôt en évidence une réalité pratique : s’accorder sur des indicateurs mondiaux n’est qu’une première étape. Pour les rendre significatifs, mesurables et équitables, en particulier pour les pays confrontés aux risques climatiques les plus élevés, il faudra les affiner davantage. C’est pourquoi la prochaine phase de travail est d’une grande importance.




Read more:
Le changement climatique aggrave le fardeau de la dette africaine : de nouveaux contrats de dette pourraient aider


Deux ans pour agir : de Belém à Addis-Abeba

Afin de renforcer les indicateurs, les pays se sont mis d’accord sur ce qu’on appelle la «Vision Belém-Addis», un processus de deux ans visant à affiner le cadre et à le rendre plus pratique. Le moment est symbolique : la COP32, en 2027, se tiendra à Addis-Abeba, en Éthiopie. Le monde s’attend à ce que les indicateurs soient plus clairs, plus faciles à utiliser et mieux adaptés aux différentes régions d’ici là.

Ce parcours de deux ans, de Belém à Addis, offre une opportunité unique à l’Afrique. La COP32 sera le premier véritable test pour déterminer si ces indicateurs peuvent aider les pays à évaluer et à communiquer les progrès réalisés en matière d’adaptation.

L’Afrique peut montrer la voie, et non se contenter de suivre

La contribution de l’Afrique sera essentielle pour deux raisons.

Premièrement, les défis climatiques du continent sont divers et évoluent rapidement. Les solutions qui fonctionnent dans un domaine peuvent ne pas fonctionner dans un autre. Cette diversité fait de l’Afrique le meilleur terrain d’essai pour les indicateurs mondiaux qui visent à refléter la complexité du monde réel.

Deuxièmement, l’Afrique est déjà une source d’innovation. La préparation communautaire aux catastrophes, les systèmes de connaissances autochtones, les services d’information climatique locaux et les stratégies de gestion de la mobilité climatique offrent des enseignements dont le monde peut tirer parti. Ces expériences devraient être intégrées dans le cadre des indicateurs, plutôt que d’être considérées comme des éléments secondaires.

Mais pour que l’Afrique puisse jouer ce rôle, elle aura besoin d’aide.

Une étape importante, mais le travail reste à faire

Les indicateurs d’adaptation de Belém apportent au monde ce qui lui manquait depuis longtemps : une approche commune, compréhensible et ciblée pour discuter de l’adaptation, axée sur ce qui importe le plus, à savoir la sécurité et le bien-être des populations. Mais ils ne sont pas une solution définitive. Ils sont un point de départ.

Avec la COP32 qui se tiendra à Addis-Abeba, l’Afrique a une occasion rare d’influer sur la prochaine génération d’outils d’adaptation mondiaux et de s’assurer qu’ils fonctionnent pour ceux qui vivent en première ligne du changement climatique.

Si le voyage de Belém à Addis est utilisé à bon escient, le monde sera mieux outillé pour construire des sociétés résilientes. Sinon, un temps précieux aura été perdu dans une décennie où chaque année compte.

The Conversation

Olasunkanmi Habeeb Okunola est chercheur principal à l’Institut pour l’environnement et la sécurité humaine (UNU-EHS) de l’Université des Nations Unies. Il a reçu de nombreuses bourses de recherche axées sur l’adaptation au changement climatique et la réduction des risques de catastrophe.

ref. Adaptation climatique : pourquoi les indicateurs de Belém comptent pour l’Afrique – https://theconversation.com/adaptation-climatique-pourquoi-les-indicateurs-de-belem-comptent-pour-lafrique-273635

Un nuevo informe de Naciones Unidas alerta de que hemos entrado en “bancarrota hídrica”

Source: The Conversation – (in Spanish) – By Kaveh Madani, Director of the Institute for Water, Environment and Health, United Nations University

El mundo está utilizando tanta agua dulce, en un contexto marcado por el cambio climático, que ha caído en bancarrota hídrica, y muchas regiones ya no pueden recuperarse de las frecuentes escaseces de agua.

Alrededor de 4 000 millones de personas, casi la mitad de la población mundial, viven con una grave escasez de agua durante al menos un mes al año, sin acceso a agua suficiente para satisfacer todas sus necesidades. Y muchas más están viendo las consecuencias del déficit de agua: embalses secos, ciudades que se hunden, malas cosechas, racionamiento de agua, incendios forestales y tormentas de polvo.

Las señales de la crisis hídrica están por todas partes, desde Teherán, donde las sequías y el uso insostenible del agua han agotado los embalses de los que depende la capital iraní, lo que ha avivado las tensiones políticas, hasta Estados Unidos, donde la demanda de agua ha superado el suministro del río Colorado, una fuente crucial de agua potable y riego para siete estados.

Una mujer llena recipientes con agua de un pozo. Detrás de ella, en un paisaje árido, se ven vacas.
Las sequías han dificultado la búsqueda de agua para el ganado y han provocado una malnutrición generalizada en algunas zonas de Etiopía en los últimos años. En 2022, UNICEF estimó que hasta 600 000 niños necesitarían tratamiento por malnutrición grave.
Demissew Bizuwerk/UNICEF Etiopía, CC BY

La bancarrota hídrica no es solo una metáfora del déficit de agua. Es una condición crónica que se desarrolla cuando un lugar utiliza más agua de la que la naturaleza puede reemplazar de forma fiable, y cuando el daño a los activos naturales que almacenan y filtran esa agua, como los acuíferos y los humedales, se vuelve difícil de revertir.

Un nuevo estudio que he dirigido desde el Instituto de la Universidad de las Naciones Unidas para el Agua, el Medio Ambiente y la Salud concluye que el mundo ha superado ya las crisis hídricas temporales. Muchos sistemas hídricos naturales ya no pueden volver a sus condiciones históricas. Estos sistemas se encuentran en un estado de colapso: la quiebra hídrica.

Consecuencias del colapso hídrico

En la quiebra financiera, las primeras señales de alerta suelen parecer manejables: retrasos en los pagos, préstamos y venta de bienes que se esperaban conservar. Luego, la espiral se acelera.

La quiebra hídrica tiene etapas similares.

Al principio, extraemos un poco más de agua subterránea durante los años secos. Utilizamos bombas más grandes y pozos más profundos. Transferimos agua de una cuenca a otra. Drenamos humedales y enderezamos ríos para hacer espacio para granjas y ciudades.




Leer más:
Las imágenes de satélite muestran que la sobreexplotación del acuífero está secando Doñana


Entonces aparecen los costes ocultos. Los lagos se reducen año tras año. Los pozos necesitan ser más profundos. Los ríos que antes fluían durante todo el año se vuelven estacionales. El agua salada se filtra en los acuíferos cercanos a la costa. El propio suelo comienza a hundirse.

Así se redujo el mar de Aral entre 2000 y 2011. El lago de agua salada era antes más ovalado y cubría las zonas de color claro hasta la década de 1980, pero el uso excesivo para la agricultura de varios países lo redujo.
NASA

Este último, el hundimiento, suele sorprender a la gente. Pero es un síntoma de la escasez de agua. Cuando se extrae agua subterránea en exceso, la estructura subterránea, que retiene el agua casi como una esponja, puede colapsar. En Ciudad de México, el terreno se hunde unos 25 centímetros al año. Una vez que los poros se compactan, no se pueden rellenar fácilmente.

El informe Global Water Bankruptcy, publicado el 20 de enero de 2026, documenta lo extendido que se está volviendo este fenómeno. La extracción de agua subterránea ha contribuido a un importante hundimiento del terreno en más de 6 millones de kilómetros cuadrados, incluidas zonas urbanas donde viven cerca de 2 000 millones de personas. Yakarta, Bangkok y Ciudad Ho Chi Minh son algunos de los ejemplos más conocidos en Asia.

Un gran sumidero cerca de campos agrícolas.
Un sumidero en el corazón agrícola de Turquía muestra cómo el paisaje puede colapsar cuando se extrae más agua subterránea de la que la naturaleza puede reponer.
Ekrem07/Wikimedia Commons, CC BY

La agricultura es el mayor consumidor de agua del mundo, responsable de aproximadamente el 70 % de las extracciones de agua dulce a nivel mundial. Cuando una región se queda sin agua, la agricultura se vuelve más difícil y más cara. Los agricultores pierden sus puestos de trabajo, aumentan las tensiones y la seguridad nacional puede verse amenazada.




Leer más:
Tres cambios cruciales en el sistema alimentario para no devorar el planeta


Alrededor de 3 000 millones de personas y más de la mitad de la producción mundial de alimentos se concentran en zonas donde el almacenamiento de agua ya está disminuyendo o es inestable. Más de 1,7 millones de kilómetros cuadrados de tierras de cultivo irrigadas sufren un estrés hídrico alto o muy alto. Esto amenaza la estabilidad del suministro de alimentos en todo el mundo.

Hileras de docenas de almendros muertos yacen en un campo abierto junto al equipo utilizado para retirarlos.
En California, una grave sequía y la escasez de agua obligaron a algunos agricultores en 2021 a retirar los cultivos que requieren mucho riego, incluidos los almendros.
Robyn Beck/AFP via Getty Images

Las sequías también están aumentando en duración, frecuencia e intensidad a medida que aumentan las temperaturas globales. Más de 1 800 millones de personas, casi uno de cada cuatro seres humanos, se enfrentaron a condiciones de sequía en distintos momentos entre 2022 y 2023.

Estas cifras se traducen en problemas reales: aumento de los precios de los alimentos, escasez de energía hidroeléctrica, riesgos para la salud, desempleo, presiones migratorias, disturbios y conflictos.

¿Cómo hemos llegado a esta situación?

Cada año, la naturaleza proporciona a cada región una cantidad de agua, en forma de lluvia y nieve. Piense en ello como una cuenta corriente. Esa es la cantidad de agua que recibimos cada año para gastar y compartir con la naturaleza.

Cuando la demanda aumenta, podemos recurrir a nuestra cuenta de ahorros. Extraemos más agua subterránea de la que se repone. Robamos la parte de agua que necesita la naturaleza y, en el proceso, drenamos los humedales. Esto puede funcionar durante un tiempo, al igual que la deuda puede financiar un estilo de vida derrochador durante un tiempo.

Las marcas equivalentes a las de una bañera muestran lo mucho que ha bajado el nivel del agua en un embalse
Las orillas expuesta en la presa de Latyan (cerca de Teherán, Irán) muestra unos niveles de agua significativamente bajos el 10 de noviembre de 2025. El embalse, que suministra parte del agua potable de la capital, ha experimentado un fuerte descenso debido a la prolongada sequía y al aumento de la demanda en la región.
Bahram/Middle East Images/AFP via Getty Images

Esas fuentes de agua a largo plazo están desapareciendo ahora. El mundo ha perdido más de 4,1 millones de kilómetros cuadrados de humedales naturales en cinco décadas. Los humedales no solo retienen el agua. También la limpian, amortiguan las inundaciones y sustentan la flora y la fauna.

La calidad de agua también está disminuyendo. La contaminación, la intrusión de agua salada y la salinización del suelo pueden hacer que el agua esté demasiado sucia y salada para su uso, lo que contribuye a la escasez de agua.

Un mapa muestra que la mayor parte de África, el sur de Asia y gran parte del oeste de los Estados Unidos tienen altos niveles de riesgo relacionados con el agua.
Las puntuaciones generales de riesgo hídrico reflejan el valor agregado de la cantidad de agua, la calidad del agua y los riesgos normativos y de reputación para el suministro de agua. Los valores más altos indican mayores riesgos relacionados con el agua.
Instituto de la Universidad de las Naciones Unidas para el Agua, el Medio Ambiente y la Salud, basado en Aqueduct 4.0, CC BY

El cambio climático está agravando la situación al reducir las precipitaciones en muchas zonas del mundo. El calentamiento aumenta la demanda de agua de los cultivos y la necesidad de electricidad para bombear más agua. También derrite los glaciares que almacenan agua dulce.

A pesar de estos problemas, los países siguen aumentando la extracción de agua para apoyar la expansión de las ciudades, las tierras de cultivo, las industrias y ahora los centros de datos.

No todas las cuencas hidrográficas y naciones están en bancarrota hídrica, pero las cuencas están interconectadas a través del comercio, la migración, el clima y otros elementos clave de la naturaleza. El colapso hídrico en una zona ejercerá más presión sobre otras y puede aumentar las tensiones locales e internacionales.

¿Qué se puede hacer?

La quiebra financiera termina transformando el gasto. La quiebra hídrica necesita el mismo enfoque.

  • Detener la hemorragia: el primer paso es admitir que el balance está roto. Eso significa establecer límites de uso del agua que reflejen la cantidad de agua realmente disponible, en lugar de limitarse a perforar más profundamente y trasladar la carga al futuro.

  • Proteger el capital natural, no solo el agua: proteger los humedales, restaurar los ríos, recuperar la salud del suelo y gestionar la recarga de las aguas subterráneas no son solo algo deseable. Son esenciales para mantener un suministro de agua saludable, al igual que un clima estable.

Una mujer empuja una carretilla con un recipiente lleno de agua dulce. El océano se ve detrás de ella.
En pequeños Estados insulares como Maldivas, el aumento del nivel del mar amenaza el suministro de agua cuando el agua salada penetra en los acuíferos subterráneos y arruina los pozos.
PNUD Maldivas, 2021, CC BY
  • Usar menos, pero hacerlo de forma justa: gestionar la demanda de agua se ha convertido en algo inevitable en muchos lugares, pero los planes de quiebra hídrica que recortan el suministro a los pobres mientras protegen a los poderosos fracasarán. Entre los enfoques serios se incluyen las protecciones sociales, el apoyo a los agricultores para que realicen la transición a cultivos y sistemas que requieran menos agua y la inversión en eficiencia hídrica.

  • Medir lo que importa: muchos países siguen gestionando el agua con información parcial. La teledetección por satélite puede supervisar los suministros y las tendencias del agua y proporcionar alertas tempranas sobre el agotamiento de las aguas subterráneas, el hundimiento del terreno, la pérdida de humedales, el retroceso de los glaciares y el deterioro de la calidad del agua.

  • Planificar para menos agua: la parte más difícil de solucionar la quiebra es psicológica. Nos obliga a abandonar las antiguas referencias. El colapso hídrico requiere rediseñar las ciudades, los sistemas alimentarios y las economías para vivir dentro de nuevos límites antes de que esos límites se estrechen aún más.

Con el agua, al igual que con las finanzas, la bancarrota puede ser un punto de inflexión. La humanidad puede seguir gastando como si la naturaleza ofreciera crédito ilimitado, o puede aprender a vivir dentro de sus medios hidrológicos.

The Conversation

Kaveh Madani no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Un nuevo informe de Naciones Unidas alerta de que hemos entrado en “bancarrota hídrica” – https://theconversation.com/un-nuevo-informe-de-naciones-unidas-alerta-de-que-hemos-entrado-en-bancarrota-hidrica-273850

Experimentos Pitesti y Milgram: ideología y obediencia absoluta para desatar la maldad humana

Source: The Conversation – (in Spanish) – By Francisco López Cantos, Ciencias de la Comunicación, experto en comunicación pública de la ciencia., Universitat Jaume I

Jack_the_sparow/Shutterstock

El siglo XX fue un espejo terrible al que seguimos asomados para entender algunas formas de dominio total basadas en la ideología y el poder del relato. Destacan episodios escalofriantes de ingeniería social, que tuvieron como finalidad lograr que los individuos siguieran ciegamente mecanismos de obediencia absoluta.

En algunos casos, el objetivo fue la reeducación de disidentes a través de la violencia y la coerción. Otras veces se persiguió poner a prueba la capacidad del ser humano de infligir dolor a sus semejantes mediante un reflejo condicionado, que activa mecanismos de obediencia y sumisión.

Dos hitos de manipulación ideológica

El experimento Pitesti se implementó en una cárcel de Rumanía durante el régimen comunista entre 1949 y 1951. Una década más tarde, en 1961, el experimento Milgram recreó una experiencia de modelado social en un entorno de laboratorio en la Universidad de Yale (EE.UU.).

El experimento Milgram tuvo como finalidad analizar el uso y conformación del poder y la asignación de roles carcelario/preso o dominante/dominado, en un entorno controlado y supervisado por investigadores. Lo acabaron interrumpiendo dada la barbarie de violencia en que se había sumido el entorno carcelario simulado que sirvió para el experimento.

Los experimentos Pitesti y Milgram se desarrollaron en el contexto de irreconciliable confrontación ideológica y crecientes tensiones geopolíticas posteriores a la II Guerra Mundial, en lo que se ha venido denominando Guerra Fría.

Pitesti, una cárcel para “reeducar”

Hacia 1949 se empezó a trasladar a la cárcel de Pitesti, ciudad cercana a Bucarest y capital de la región histórica de Valaquia, a algunos de los presos que se consideraba contrarios a la doctrina del régimen.

Entre ellos se encontraba un grupo de fervientes creyentes que seguían manteniendo su fe cristiana y que, a pesar de todos los recursos que el aparato del Estado había movilizado para erradicar las creencias religiosas y construir una sociedad comunista y laica, seguían sin renunciar a su religión.

El objetivo del experimento Pitesti consistía en reeducar a los prisioneros, alterando su personalidad para obtener de ellos una obediencia absoluta. Existen diferentes estimaciones del número de presos que sufrieron torturas, con cifras que van de los 700 a los 5 000 reclusos.

En paralelo, se establecieron algunas negociaciones con la Iglesia, ya que resultaba más sencillo y práctico mantener a los poderes religiosos contenidos y controlados para utilizar su capacidad de influencia en la población.

El régimen, que por entonces lideraba Gheorghe Gheorghiu-Dej, a quien sucedería Nicolae Ceaușescu tras su muerte en 1965, lo había intentado todo. Adoctrinaban a la población con la censura y la prensa, empleaban la represión y el terror y tenían al poder eclesiástico domesticado. Pero no conseguían convertir a los irreductibles. Y a algunos de ellos los llevaban a Pitesti, a ver si se enderezaban en la cárcel y asumían la doctrina “correcta”.

Personas normales convertidas en torturadores

En Pitesti se utilizaron los métodos de reeducación popular más extremos, tras fracasar otros esfuerzos previos por controlar y adoctrinar a la población mediante el discurso propio del aparato del estado y su ideología.

Para reeducarles en la “virtud”, en este caso del comunismo, les hacían comer y cagar en el mismo recipiente, pisotear y escupir los crucifijos y recibían violentas palizas. Pobres personas en manos de unos transmisores del régimen que, como ocurría en el Holocausto, sentían que solo cumplían ordenes y estaban haciendo lo “correcto”. Incluso algunos eran creativos e imaginaban formas de tortura nuevas. Lo importante era cumplir con los preceptos que marcaba la ideología.

El terror se prolongó hasta 1951. El 12 de julio de ese año, el médico Ion Simionescu, de 67 años, sometido al proceso de reeducación, se arrojó contra el alambre de espino para que los guardias lo mataran. Su muerte se hizo pública y las autoridades iniciaron una investigación. Esta se saldó con la ejecución de algunos implicados y una cortina de humo por parte de la justicia comunista.

Cómo imponer un ideal de sociedad

Pitesti no era un laboratorio de investigación, ni siquiera fue un experimento en sentido estricto, aunque así se ha conocido. Más bien era parte de un proyecto institucional de reeducación moral de las masas. Representaba al régimen comunista y al ideal de sociedad que se pretendía.

Una sociedad en la que los diferentes roles estaban perfectamente establecidos entre quienes ostentaban el poder y el resto. Aquellos que no los asumieran, ya sabían el destino que les esperaba. La cárcel era el lugar asignado a las personas “desviadas” y difíciles de convertir a la ideología del régimen. Todo ello como forma de reeducación, si habían tenido la suerte de no ser aniquilados físicamente antes.

El resultado de tales intentos de ocupar el espacio público, y las mentes de la ciudadanía, utilizando el discurso o la violencia no fue el esperado. Bien al contrario, tras el asesinato de Ceaușescu se produjo una eclosión religiosa inmediata y masiva. A día de hoy, en Rumanía, el 85 % de la población se declara cristiana ortodoxa y practicante, sin distinciones significativas entre franjas de edad.

Milgram y la sumisión social

A diferencia de lo sucedido en Pitesti, el experimento Milgram estaba diseñado para analizar el ejercicio del poder y la sumisión e intentar explicar, desde la psicología social, el Holocausto. Por ello se simuló en unas condiciones de laboratorio, sin que existiera un poder omnisciente como el que sí se daba en Rumanía.

Stanley Milgram, un psicólogo estadounidense, estableció un mecanismo para medir el grado de obediencia a la autoridad. Este se basaba en una experiencia mediante la cual unos voluntarios, reclutados a cambio del pago de cuatro dólares, seguían órdenes que provocaban graves daños a otros mediante descargas eléctricas.

En realidad, las supuestas descargas eléctricas eran simuladas, al igual que el sufrimiento de las víctimas. Pero los verdugos voluntarios desconocían este hecho.

El experimento de Stanley Milgram mostró con crudeza la vigencia de las reflexiones de Hannah Arendt en torno a la banalidad del mal y la irracional condición humana. También pretendía revelar los peligros que supone el uso de la violencia física o simbólica cuando se utiliza para la conformación de discursos políticos extremistas.

De aquellos barros, estos lodos.

En aquellas agitadas décadas posteriores a la segunda guerra mundial, germen de los profundos cambios sociales que llegan hasta la actualidad, se desarrollaron los experimentos Pitesti y Milgram. También se produjeron significativas confrontaciones académicas estrechamente ligadas a las diferentes perspectivas ideológicas propias de los bloques enfrentados. Muestra de ello son los históricos debates entre Noam Chomsky y Michel Focault en torno a la validez de la ciencia frente al poder del discurso. O el que sostuvieron Jean-Paul Sartre y Marcel Camus en relación a la justificación de los medios para la consecución de los fines ideológicos.

Estos debates, y aquellos “experimentos”, nos acercan lecciones de la historia en torno a los nocivos efectos derivados de la simplificación y confrontación ideológica y la ingenua confianza en la eficacia y los efectos de la comunicación y el poder del relato para promover el cambio social.

El lado perverso del relato

Se ha creído ingenuamente que el poder del relato puede servir para implementar masivamente una determinada transformación social, sea de la ideología que sea. Cuando esto sucede, los resultados son impredecibles a corto y medio plazo. Oscilan entre sus efectos narcotizantes y las devastadoras consecuencias gobbelianas de su extensión y adopción irracional. En cualquier caso, sus frutos no son otros que el incremento de la polarización y la confrontación pública.

El exceso del relato y la comunicación siempre es bienvenido como práctica extensiva de carácter cultural, como ficción en sí misma que explora los límites y características de la propia condición humana y la sociedad de cada época. Pero no debería ser una práctica común en el ámbito de la comunicación pública, tal como estamos viendo en estos tiempos en que todo el mundo parece haber asumido que el éxito político y social consiste en “ganar el relato”.

Hay que tener cuidado con los experimentos sociales y la confianza en las bondades de la comunicación para imponer una particular visión ideológica. Resulta bastante sencillo convertir un inocuo club de fans de tal o cual saga literia o cinematográfica en un bastante peligroso club de fanáticos de la ideología de turno que promueve tal relato, o de la opuesta.

Y en las democracias europeas, de larga tradición académica pero cada vez más amenazadas por los extremismos ideológicos, parece que las Humanidades todavía tienen algo que decir frente el progresivo deterioro de la política y el conocimiento. Un deterioro resultado de la extrema simplificación y mitificación del relato académico en torno al poder y bondades de la comunicación.

The Conversation

Francisco López Cantos no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Experimentos Pitesti y Milgram: ideología y obediencia absoluta para desatar la maldad humana – https://theconversation.com/experimentos-pitesti-y-milgram-ideologia-y-obediencia-absoluta-para-desatar-la-maldad-humana-244703

Los trabajadores son los guardianes del conocimiento de las organizaciones

Source: The Conversation – (in Spanish) – By Elene Igoa Iraola, Profesora e Investigadora Universitaria, Facultad de Ciencias de la Salud, Universidad de Deusto

New Africa/Shutterstock

Las cifras hablan por sí solas: se prevé que, en los próximos años, se jubilarán 5,3 millones de trabajadores españoles, mientras que sólo 1,8 millones de jóvenes se incorporarán al mercado laboral.

En las próximas décadas esta descompensación va a generar dificultades a las empresas a la hora de contratar personal, y, además, existe el riesgo de fuga de conocimientos. Esta situación no solo pone de relieve la pérdida de personal cualificado sino que va más allá y recalca la necesidad de preservar la memoria colectiva de las organizaciones.

La memoria colectiva organizacional

Para que una organización sea competitiva en el tiempo es necesario que tenga bien identificados los conocimientos críticos que hacen que su producto o servicio destaque dentro del mercado. En muchas ocasiones, lo que marca la diferencia es el conocimiento tácito que existe en la organización acerca de cómo se realiza una tarea en concreto.

Este conocimiento no está escrito en manuales sino que se transmite entre trabajadores. Se centra en la forma de trabajo y está conformado por el cúmulo de experiencias, prácticas informales, redes de relaciones y valores a la hora de trabajar. Así, la memoria colectiva se construye a lo largo del tiempo, no pertenece a una sola persona y vive en la interacción entre los miembros de la organización. En cómo se hacen las cosas, cómo se toman las decisiones, qué se valora, qué se evita y qué historias se cuentan dentro de la empresa.

Para poder mantener la memoria colectiva organizacional es necesario reconocer que los trabajadores son portadores de conocimiento estratégico y que su experiencia constituye una ventaja competitiva para la organización.

Las organizaciones que entienden esto desarrollan planes de retención del conocimiento, identificando los conocimientos críticos para garantizar que estos no se pierdan cuando alguien se va de la empresa o se jubila. Estas estrategias ponen en valor las aportaciones de los trabajadores porque miran más allá de las tareas que realizan para centrarse en los aportes intangibles de los empleados: sus vivencias, habilidades blandas y aprendizajes informales.

Estrategias para preservar el conocimiento organizacional

Las empresas que prevén la problemática de la pérdida de talento no improvisan, diseñan programas para transferir conocimiento y fortalecer la colaboración intergeneracional. Algunas iniciativas clave incluyen:

  • Plataformas colaborativas: estas herramientas tecnológicas facilitan el intercambio de información, ideas y experiencias entre los empleados. Permiten documentar aprendizajes, compartir buenas prácticas y fomentar el trabajo en red, de modo que el conocimiento no queda aislado en una sola persona o departamento sino que se pone al servicio de toda la organización.

  • Mapas de conocimiento: son una herramienta visual que permite identificar qué conocimientos son críticos para la organización y en qué personas o equipos reside ese saber. Permite detectar brechas, planificar la transferencia de conocimiento y priorizar acciones.

  • Mentoring: emparejar empleados veteranos con profesionales jóvenes favorece el intercambio de conocimiento. Este proceso bidireccional fortalece el aprendizaje y el vínculo intergeneraciones.

  • Procesos de relevo generacional: su planificación garantiza la continuidad del conocimiento, los valores y las competencias clave dentro de la empresa pese a la jubilación de los empleados. Incluyen fases de transferencia, acompañamiento y adaptación.

  • Comunidades de práctica: grupos formados por profesionales que comparten un mismo interés, reto o área de especialización, y que se reúnen de forma periódica para intercambiar soluciones, aprendizajes y buenas prácticas.

Cuidar la memoria y el conocimiento

La implementación de estas estrategias ayuda a una mejor adaptación a las dificultades, especialmente en tiempos de incertidumbre. Las empresas que son capaces de identificar y gestionar su conocimiento crítico hacen del aprendizaje continuo su seña de identidad y son capaces de reinventarse.

El futuro pertenece a las empresas que cuidan la memoria, el conocimiento y a los empleados de la organización porque entienden que su mayor activo no está en sus productos ni en sus servicios, sino en las personas que hacen realidad su propósito organizacional.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. Los trabajadores son los guardianes del conocimiento de las organizaciones – https://theconversation.com/los-trabajadores-son-los-guardianes-del-conocimiento-de-las-organizaciones-270655

Cuando la realidad también descarrila: comprender el ‘shock’ y el duelo tras un accidente grave

Source: The Conversation – (in Spanish) – By Teresa Bobes Bascarán, Profesora asociada en Ciencias de la Salud, Universidad de Oviedo · Psicóloga clínica, SESPA · Investigadora en salud mental (CIBERSAM, ISPA, INEUROPA), Universidad de Oviedo

shisu_ka/Shutterstock, CC BY

Hay sucesos que no sólo interrumpen un trayecto, sino que alteran el mapa interno con el que nos movemos por el mundo. Lo que hasta ese momento era rutina, subir a un tren, confiar en un horario, asumir la seguridad como algo dado, se quiebra de forma abrupta. En cuestión de segundos, lo cotidiano se vuelve amenazante y lo previsible, frágil.

Tras una tragedia colectiva como la ocurrida el pasado domingo con el descarrilamiento y choque de dos trenes en la provincia de Córdoba –por el momento hay 41 fallecidos–, no se detiene únicamente un servicio o una agenda. Se resiente algo más profundo: la percepción de seguridad, la relación con el tiempo y la confianza básica en que el mundo funciona como esperamos. Por eso, el impacto no se limita a quienes estuvieron directamente implicados. Se extiende, de forma silenciosa, a muchas otras personas.

En este contexto, una de las preguntas más frecuentes es si las reacciones emocionales que aparecen como el aturdimiento, el miedo o la sensación de irrealidad son normales. Desde la psicología, la respuesta es clara y basada en la evidencia: sí, lo son.

Una respuesta esperable

El shock psicológico es una reacción automática del organismo ante una amenaza extrema. Desde el punto de vista neurobiológico, se produce una activación intensa de los sistemas de alarma del cerebro, especialmente los relacionados con la respuesta al estrés, lo que puede afectar temporalmente a funciones como la atención, la memoria o la regulación emocional.

En las primeras horas o días tras un accidente grave es frecuente experimentar sensación de irrealidad, dificultades para concentrarse, recuerdos fragmentados, emociones embotadas o muy intensas, alteraciones del sueño o síntomas físicos como temblor y agotamiento. Estas manifestaciones forman parte de lo que se conoce como respuesta aguda al estrés, recogida en los principales manuales diagnósticos y descrita ampliamente en la literatura científica.

La evidencia empírica muestra que entre el 70 y el 80 % de las personas expuestas a una catástrofe presentan este tipo de reacciones iniciales, que en la mayoría de los casos disminuyen de forma progresiva sin necesidad de intervención especializada.

Por qué algunas tragedias impactan más que otras

No todas las tragedias colectivas generan el mismo impacto psicológico. En accidentes de gran magnitud como el que acabamos de vivir en España confluyen varios factores que intensifican la conmoción social:

  • Ruptura de una sensación de seguridad muy asentada. El transporte ferroviario de alta velocidad se percibe como un entorno controlado y seguro. Cuando falla un sistema asociado a la rutina diaria, se resiente la confianza básica en lo previsible.

  • Alta identificación social. Viajar en tren es una experiencia común. Esto favorece la identificación masiva con las víctimas y activa pensamientos del tipo “podría haber sido yo”, que aumentan la intensidad emocional.

  • Carácter súbito e inesperado. Los sucesos repentinos, sin tiempo de anticipación, generan mayor sensación de indefensión y dificultan la integración psicológica inicial.

  • Magnitud humana y exposición continuada. El número de víctimas, la gravedad de los heridos y la repetición de imágenes incrementan la carga emocional, incluso en personas no directamente afectadas.

  • Activación de la memoria colectiva. La investigación sobre el descarrilamiento del tren en Santiago de Compostela en 2013 muestra cómo las tragedias ferroviarias no solo generan impacto inmediato, sino que reactivan duelos previos y emociones latentes a nivel social, amplificando el malestar colectivo.

El impacto indirecto también cuenta

Las investigaciones en trauma psicológico describen el llamado impacto vicario o indirecto. Personas que no han estado presentes pueden experimentar ansiedad, hipervigilancia, miedo persistente o alteraciones del sueño tras una tragedia de gran repercusión.

Se estima que entre un 10 y un 20 % de la población expuesta indirectamente puede presentar malestar clínicamente significativo durante semanas, sin que ello implique un trastorno mental, sino una respuesta humana ante la percepción de amenaza.

El duelo no es un proceso lineal

Para quienes han perdido a un ser querido, el duelo no sigue una secuencia ordenada ni unos plazos fijos. En los primeros momentos suele predominar el aturdimiento; más adelante pueden aparecer tristeza intensa, rabia, culpa o preguntas sin respuesta.

La evidencia indica que alrededor del 10-15 % de las personas en duelo pueden desarrollar complicaciones si concurren factores de riesgo previos o si no cuentan con apoyos adecuados. Por ello, el acompañamiento temprano y respetuoso es un elemento clave de prevención.

La importancia de la intervención comunitaria

La psicología subraya el valor de las intervenciones comunitarias tempranas. Crear espacios de escucha y atención, por ejemplo, en estaciones de tren u otros lugares de tránsito, permite reducir el aislamiento, normalizar reacciones y favorecer la regulación emocional.

Hablar con otros viajeros, compartir experiencias o simplemente estar acompañado actúa como factor protector. Estas intervenciones, basadas en los principios de los primeros auxilios psicológicos, han demostrado ser eficaces para disminuir el malestar y prevenir problemas posteriores.

Cuándo buscar ayuda profesional

En la mayoría de los casos, el malestar disminuye con el paso de las semanas. Sin embargo, si los síntomas persisten, se intensifican o interfieren de forma significativa en la vida cotidiana, la atención psicológica especializada es una herramienta eficaz y necesaria.

Cuando ocurre una tragedia de este tipo, es tentador buscar explicaciones rápidas o exigir una recuperación inmediata. Sin embargo, los procesos psicológicos no siguen la lógica de la urgencia ni de los plazos administrativos. El shock, el duelo y el miedo necesitan tiempo, acompañamiento y contextos seguros para poder elaborarse.

La evidencia científica muestra que la mayoría de las personas logrará integrar lo vivido con el paso de las semanas o los meses. Pero también señala algo igualmente importante: que el apoyo social y comunitario temprano marca una diferencia significativa. Espacios de escucha, presencia sin juicio y recursos accesibles ayudan a que el impacto no se transforme en aislamiento o cronificación del sufrimiento.

Pedir ayuda profesional cuando el malestar persiste no es un signo de debilidad, sino una forma de cuidado y de prevención. Porque, tras una experiencia que sacude los cimientos de la normalidad, cuidar la salud mental no es un añadido: es una necesidad.

Cuando la realidad se descarrila, acompañar y dejarse acompañar es una forma de volver a poner las vías.

The Conversation

Teresa Bobes Bascarán no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Cuando la realidad también descarrila: comprender el ‘shock’ y el duelo tras un accidente grave – https://theconversation.com/cuando-la-realidad-tambien-descarrila-comprender-el-shock-y-el-duelo-tras-un-accidente-grave-273871

Café y tostadas con mermelada, un perfecto desayuno poliploide

Source: The Conversation – (in Spanish) – By Carmen Benítez Benítez, Profesora Ayudante Doctor, Universidad de Sevilla

Muchos de los alimentos en nuestra mesa existen gracias a antiguas mutaciones genéticas en el reino vegetal. The Design Lady / Unsplash. , CC BY-SA

¿Imagina un mundo sin pan tostado ni aroma de café recién hecho por la mañana? Ese desayuno cotidiano solo es posible gracias a una larga historia de mutaciones genéticas acumuladas durante millones de años.

Las mutaciones son cambios en la información (secuencia de nucleótidos) o en la estructura del material genético que, aunque a menudo se asocian con enfermedades o defectos, constituyen, en realidad, la fuente principal de variación sobre la que actúa la evolución. Gracias a ellas, la vida en nuestro planeta ha podido transformarse y diversificarse.

La evolución en la despensa

No todas las mutaciones son pequeñas modificaciones en el ADN. A veces, los cambios ocurren a gran escala y afectan a regiones de gran tamaño o a cromosomas enteros (paquetes de material genético). Estos cambios, conocidos como mutaciones cromosomáticas, han tenido un papel fundamental en la historia evolutiva de las plantas y, en consecuencia, en la enorme diversidad de alimentos que hoy forman parte de nuestra dieta diaria.

En términos simples, estas mutaciones pueden afectar a la composición o el número de los cromosomas, con pérdidas, reordenamientos o intercambios de sus fragmentos.

En algunos casos, pueden multiplicar conjuntos completos de cromosomas, que contienen la información necesaria para el desarrollo de un individuo. La mutación cromosómica que aumenta el nivel de ploidía –número de juegos completos de cromosomas en una célula– se conoce como poliploidía.

Se trata de un proceso común en plantas que ha sido clave durante la evolución de muchos de sus principales linajes (entre ellos, las angiospermas o plantas con flores y frutos). En concreto, es responsable de la aparición de nuevas especies y de la gran variedad de cultivos que hoy sustentan nuestra alimentación.

El efecto gigas

La poliploidía es la condición en la que un organismo posee más de dos juegos completos de cromosomas en sus células. Mientras los seres humanos somos diploides (2x) (con dos copias homólogas de cada cromosoma), muchas plantas son tetraploides (4x), hexaploides (6x) o, incluso, presentan niveles de ploidía todavía mayores.

Este fenómeno puede surgir por errores durante la meiosis –división celular en los organismos de reproducción sexual que reduce la cantidad de cromosomas en los gametos– o por hibridaciones entre diferentes especies. Lejos de ser un problema, la poliploidía suele desencadenar ventajas evolutivas, como plantas más grandes, que llegan antes a la edad adulta o una mejor adaptación a condiciones ambientales cambiantes.

El aumento del tamaño celular y del vigor asociado a esta condición se conoce como el “efecto gigas”. Gracias a él, las plantas poliploides suelen desarrollar hojas más grandes, flores más vistosas y frutos más carnosos, características que las han convertido en aliadas clave para la mejora de la agricultura.

Asimismo, el hecho de tener juegos de cromosomas “de repuesto” se traduce en que las mutaciones genéticas perjudiciales pueden no afectarles tan negativamente como a especies diploides. Ello les ha dotado de una mayor tolerancia al estrés ambiental y colonizar exitosamente entornos hostiles, como hábitats de latitudes y altitudes elevadas.

En nuestro desayuno

Triticum vulgare.
Amédée Masclef en el _Atlas des plantes de France_ (1891).

Muchos de los cultivos más importantes del mundo deben su éxito a antiguos eventos cromosomáticos que los hicieron más resistentes, productivos y sabrosos. El estudio del ADN de plantas ha revelado que casi todas las especies actuales han experimentado, al menos, una duplicación completa de su material genético a lo largo de su historia evolutiva.

El trigo (Triticum aestivum), por ejemplo, es un hexaploide (6x) surgido de la hibridación entre especies de gramíneas distintas. Esta compleja combinación genética le dio granos más grandes y una notable capacidad para adaptarse a diferentes tipos de climas.

Algo similar ocurre con la fresa (Fragaria × ananassa), un octoploide (8x) nacido del cruce entre especies americanas y europeas. Su elevado número de cromosomas, unido al proceso de domesticación y selección humana, ha contribuido a que desarrolle frutos más grandes, jugosos y dulces.

Tampoco podemos olvidar al café arábico (Coffea arabica), un tetraploide (4x) necesario para muchos cada mañana, resultado de un antiguo cruce entre dos especies africanas.

Así que cuando desayunamos tostada de pan de trigo con mermelada de fresa y una taza de café, estamos disfrutando de una auténtica degustación de poliploides.

En nuestro día a día

Asimismo, una de las bebidas más antiguas y apreciadas por la humanidad, la cerveza, está relacionada con la poliploidía. Su ingrediente principal, la cebada (Hordeum vulgare), presenta formas diploides (2x) y tetraploides (4x) que han sido seleccionadas por sus propiedades y su resistencia a condiciones ambientales diversas.

Además, la levadura de la cerveza (Saccharomyces cerevisiae), responsable de la fermentación, puede presentar distintos niveles de ploidía, lo que influye en los aromas y matices de la bebida.

Otras plantas comestibles comunes también tienen un origen poliploide bien documentado, como el plátano y la banana (Musa sp., 3x), la patata (Solanum tuberosum, 4x) o la caña de azúcar (Saccharum officinarum, 8x).

Fruto maduro del algodón.
Michael Bass-Deschenes / Wikimedia Commons., CC BY

La poliploidía, además, se encuentra en otras plantas ampliamente usadas por los humanos con propósitos no alimenticios, como el tabaco (Nicotiana tabacum, 4x) o el algodón (Gossypium sp., 4x).

Mutaciones artificiales

Pero la poliploidía no es solo un fenómeno del pasado. Hoy en día, siguen ocurriendo mutaciones cromosomáticas, tanto de forma natural como inducidas por la acción humana.

Los programas de mejora vegetal la aprovechan para crear cultivos más productivos, resistentes a plagas o adaptados al cambio climático, pues permite combinar en el híbrido características beneficiosas de ambos progenitores.

Un buen ejemplo es el nabicol o colinabo (Brassica napobrassica), un híbrido natural originado en el siglo XVII entre la col (Brassica oleracea) y el nabo (Brassica rapa) y seleccionado para su cultivo por el ser humano. Este cruce combina el material genético de ambas especies, que da lugar a una planta con raíces carnosas, hojas nutritivas y una gran tolerancia al frío.

Como vemos, la poliploidía ha dotado a muchas plantas de características que han resultado ser muy beneficiosas desde el punto de vista de su aprovechamiento agrícola. En consecuencia, buena parte de los alimentos que consumimos a diario son el resultado directo de estos “errores afortunados” de la naturaleza.

The Conversation

Marcial Escudero recibe fondos de la Agencia Estatal de la Investigación (DiversiChrom PID2021-122715NB-I00).

Alegría Montero Ramírez, Ana Valdés Florido, Carmen Benítez Benítez, Inés Gómez Ramos, Joan Cuscó Borràs, Letícia Rodrigues Novaes, Rogelio Sánchez Villegas y Santiago Martín-Bravo no reciben salarios, ni ejercen labores de consultoría, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del puesto académico citado.

ref. Café y tostadas con mermelada, un perfecto desayuno poliploide – https://theconversation.com/cafe-y-tostadas-con-mermelada-un-perfecto-desayuno-poliploide-272082

Usar ‘walkie-talkies’ durante años tampoco aumenta el riesgo de cáncer

Source: The Conversation – (in Spanish) – By Alberto Nájera López, Profesor de Radiología y Medicina Física en la Facultad de Medicina de Albacete. Coordinador de la Unidad de Cultura Científica y de la Innovación (UCLMdivulga), Universidad de Castilla-La Mancha

Jota Buyinch Photo/Shutterstock

Las ondas electromagnéticas que emite cualquier dispositivo inalámbrico llevan años alimentando miedos por sus posibles efectos sobre la salud. Seguro que ha oído alguna vez que es mejor no dormir con el móvil en la mesilla, pero no son los únicos aparatos que emiten radiaciones. Las emisoras de servicios de emergencia como la policía y los bomberos también lo hacen. Son walkie-talkies que muchos agentes llevan en el chaleco durante horas. Como era de esperar, también han generado inquietud por el miedo a las radiaciones. ¿Acaso podrían aumentar el riesgo de cáncer?

En Europa los cuerpos de emergencias utilizan el sistema de comunicaciones TETRA (del inglés, Trans European Trunked Radio). Es una versión muy mejorada y profesional de los walkie-talkies de toda la vida. No está pensado para el gran público, como la telefonía móvil, sino para situaciones críticas. Esas en las que la fiabilidad, la robustez y la cobertura pueden ser cuestión de vida o muerte.

Cuando un agente habla, el dispositivo emite campos electromagnéticos de radiofrecuencia. Son los mismos que generan los móviles y el wifi, aunque a frecuencias más bajas (para cubrir grandes áreas con menos antenas). Además, lo hacen a ráfagas muy breves –en lugar de en conexiones continuas– y solo cuando el agente pulsa para hablar –no continuamente–. Esto hace que el patrón de exposición sea muy diferente al de otros dispositivos inalámbricos. Por lo tanto, la forma en la que se estudia también es diferente.

Esto plantea dudas lógicas. Si un policía usa este equipo a diario durante años, ¿podría aumentar su probabilidad de desarrollar cáncer, especialmente en zonas cercanas como la cabeza y el cuello? Si lo usa más minutos, ¿aumenta el riesgo?

Para responder estas preguntas hace falta un estudio grande, bien diseñado y basado en datos de uso reales. Fue lo que se hizo en un trabajo reciente que analizó a casi 50 000 policías británicos que habían utilizado las radios durante más de una década.

Un estudio con 50.000 agentes durante once años

Entre 2004 y 2015, investigadores del Imperial College London (Reino Unido) reclutaron a 53 245 participantes de cuerpos policiales del país. Estos fueron tomados de la cohorte Airwave, creada para analizar la salud de las fuerzas policiales británicas. La mayoría eran hombres, adultos y estaban en activo cuando se incorporaron al estudio.

Los investigadores combinaron cuestionarios sobre salud, hábitos y tipo de trabajo con registros del Ministerio del Interior del uso de la emisora de radio. Esto permitió determinar cuántos minutos al mes hablaba cada persona por su radio y durante cuántos años la había utilizado. Es decir, no dependían solo de la memoria de los participantes: recopilaron datos objetivos.

Esta información se cruzó con los registros nacionales de cáncer y mortalidad, en un seguimiento de unos 11 años. En ese tiempo se diagnosticaron 1 502 cánceres. De estos, 146 afectaban a la cabeza, el cuello o el sistema nervioso central, las zonas que más preocupaban. En el análisis final se incluyeron 48 547 participantes sin diagnóstico previo de cáncer. Dos tercios de ellos eran usuarios habituales de radio.

Ni más cáncer ni más riesgo

Los investigadores compararon grupos de personas similares –en edad, sexo, consumo de tabaco, alcohol, peso, educación, rango profesional– pero con diferente exposición a las radios.

Así encontraron que quienes usaban la radio no presentaron un riesgo mayor de cáncer que quienes no lo hacían. El riesgo relativo para cualquier cáncer no mostró diferencias relevantes. Lo mismo ocurrió al analizar por separado los cánceres de cabeza y cuello y los tumores cerebrales y meníngeos.

Tampoco apareció un patrón preocupante al estudiar la intensidad de uso. Doblar los minutos mensuales de conversación no se asoció a un aumento significativo del riesgo. Incluso entre los agentes con mayor exposición, que hablaban diez veces más de lo normal, no se detectó incremento.

Por si quedaba alguna duda, repitieron el análisis solo con policías operativos. El objetivo era excluir al personal administrativo, que usaba la radio poco o nada y podía diluir las diferencias. El resultado no cambió. Además, el estudio evaluó el uso del móvil personal. Si existiera algún efecto combinado entre móvil y radio, podría reflejarse ahí. Tampoco encontraron señales de un mayor riesgo.

Tranquilizador a pesar de la incertidumbre

En ciencia no existe el riesgo cero. Este estudio, como cualquiera, tiene márgenes de incertidumbre. Los tumores cerebrales y de determinadas zonas de la cabeza son poco frecuentes incluso en cohortes enormes. Esto deja cierto margen estadístico para la incertidumbre.

Aun así, los autores son claros. No han encontrado ninguna señal de que las radios TETRA aumenten el riesgo de cáncer. Los datos no permiten descartar del todo un hipotético efecto muy pequeño, pero sí los riesgos grandes o moderados. Si existieran, habrían aparecido con claridad en un seguimiento tan prolongado y con una exposición tan bien medida.

Quienes hacemos ciencia somos muy tiquismiquis: si no estamos seguros al cien por cien preferimos ser prudentes. Pero cuando varios análisis independientes coinciden, el mensaje a transmitir a la sociedad debe ser claro y contundente.

No existe una epidemia silenciosa entre profesionales

Para los policías el mensaje es tranquilizador: usar radios TETRA no se asocia a un mayor riesgo de cáncer. No aparece rastro alguno de una epidemia silenciosa entre los cuerpos de seguridad.

Para el resto, este estudio se suma a una lista creciente de evidencias que apuntan en la misma dirección. A los niveles habituales de exposición las radiofrecuencias de móviles, wifi, antenas y equipos profesionales no representan un riesgo relevante para la salud.

Esto no significa que haya que dejar de investigar. La tecnología evoluciona, las pautas de uso cambian y la vigilancia científica debe continuar. Sí ayuda a colocar el debate en un punto más razonable y menos dominado por el miedo y la desinformación.

Y no olvidemos que, lejos de causar un daño sobre la salud, estas radiaciones de las emisoras TETRA y los móviles, permiten salvar vidas.

The Conversation

Alberto Nájera López es Director Científico del Comité Científico Asesor en Radiofrecuencias y Salud (CCARS)

Jesús González Rubio forma parte, como vocal, del Comité Científico Asesor en Radiofrecuencias y Salud (CCARS)

ref. Usar ‘walkie-talkies’ durante años tampoco aumenta el riesgo de cáncer – https://theconversation.com/usar-walkie-talkies-durante-anos-tampoco-aumenta-el-riesgo-de-cancer-271815

Tratado de Alta Mar: una noticia esperanzadora para la salud de los océanos

Source: The Conversation – (in Spanish) – By Raúl Villa Caro, Profesor de Ingeniería Naval y Oceánica, Universidade da Coruña

Prashanth Bala/Shutterstock

Más del 60% del océano corresponde a aguas de alta mar: aquellas que se encuentran fuera de las zonas jurisdiccionales de los países ribereños. El resto, las jurisdiccionales, que ocupan un tercio de los océanos, llevan bastante tiempo reguladas. Pero el ordenamiento de aquellas más alejadas de la costa se lleva discutiendo desde hace dos décadas y solo recientemente se ha firmado un Tratado de Alta Mar.

El Convenio del Derecho del Mar, firmado en Montego Bay (Jamaica) el 10 de diciembre de 1982, regula las aguas jurisdiccionales. Pero el nuevo Tratado de Alta Mar solo se aplica a partir de las zonas económicas exclusivas de los Estados. Es decir, en las aguas alejadas más de 200 millas de los territorios soberanos.

El tratado BBNJ (según sus siglas anglosajonas) es el tercer acuerdo de aplicación de la Convención de las Naciones Unidas sobre el Derecho del Mar. El pacto incluye la protección de la biodiversidad y el uso sostenible de los recursos marinos.

Ratificación y entrada en vigor

Fruto de las reuniones mantenidas previamente, el 17 de enero de 2026 entró en vigor el nuevo acuerdo, denominado Tratado sobre la Conservación y el Uso Sostenible de la Diversidad Biológica Marina fuera de las Jurisdicciones Nacionales.

Más conocido como el Tratado de Alta Mar, ha obtenido la ratificación 81 países. En febrero de 2025, España se convirtió en el primer país europeo en depositar su ratificación ante la sede de la Organización de las Naciones Unidas en Nueva York. Marruecos y Sierra Leona se unieron recientemente (septiembre 2025) al total de Estados que lo han firmado. Se convirtieron en los países 60 y 61 en respaldar el tratado, permitiendo que entrara en vigor lo firmado en junio del año 2023.

El objetivo principal del acuerdo (dotado de 76 artículos repartidos en 12 partes) se centra en mejorar la coordinación entre los países y establecer un enfoque integral destinado a la conservación y el uso sostenible de la biodiversidad en las aguas afectadas.

Por lo tanto, se busca garantizar el uso de los recursos del océano en alta mar a un ritmo y de una manera adecuados. Es decir, que su aprovechamiento no provoque una reducción (en el presente y a largo plazo) de las especies animales y vegetales. Adicionalmente, el reparto de los beneficios obtenidos del uso de los recursos genéticos marinos debe ser llevado a cabo de una manera equitativa. Y ello creando áreas protegidas y fortaleciendo la cooperación científica.




Leer más:
Por qué necesitamos más y mejores áreas marinas protegidas antes de 2030


Preocupación en el sector pesquero

En referencia a la pesca, el artículo 10 del tratado refleja de manera clara lo que pretende en este aspecto. El acuerdo no busca invadir las competencias de otros organismos internacionales en referencia al reparto de los cupos de pesca. Se enfoca principalmente en el cambio climático, la acidificación de los mares, la contaminación y la explotación tecnológica.

No obstante, debido al fin ambientalista del pacto, es normal que se cree un posible foco de incertidumbre sobre sus posibles implicaciones para la pesca. Ello puede traer la consiguiente desconfianza por parte de los afectados.

El tratado permite el establecimiento de áreas marinas protegidas en alta mar. Asimismo, pretende que estén conectadas formando una red, una meta importante para poder alcanzar la protección del 30 % de los océanos (objetivo “30×30”) antes del año 2030. Actualmente, solo el 0,9 % de las aguas de alta mar está totalmente protegida.




Leer más:
Proteger el 30 % de los océanos no es suficiente


Dos barcos pesqueros fondeados en la costa, con la orilla al fondo
Barcos pesqueros en Viveiro (Lugo).
Raúl Villa Caro, CC BY-SA

Implicaciones jurídicas

Desde una óptica estrictamente jurídica, las normas del Tratado de Alta Mar no van en contra del Convenio del Derecho del Mar de las Naciones Unidas, sino que lo complementan en las áreas fuera de las aguas jurisdiccionales de los países. Así, se presentan como las primeras normas que tendrán efectividad en alta mar.

Adicionalmente, el tratado crea un nuevo órgano para conservar y gestionar la biodiversidad: la Conferencia de las Partes, que será el foro especializado para ejecutarlo.

Este tratado, como cualquier otro instrumento de derecho internacional, contiene una lista de principios. Estos deben tenerse en cuenta para su aplicación. Entre ellos destacan los de “quien contamina, paga” y “distribución justa y equitativa de los beneficios”, es decir, se obliga a quien contamina a asumir la responsabilidad y se garantiza una distribución equitativa de los beneficios derivados de los recursos marinos.

81 países lo incorporarán a su legislación

Tras su reciente entrada en vigor, el tratado pasa a ser jurídicamente vinculante. Afectará a los más de 80 países que lo han ratificado hasta ahora. Esto significa que aceptan incorporarlo a su legislación nacional.

El éxito del acuerdo dependerá de su traducción en medidas operativas y de los países implicados. Todos los Estados de la Unión Europea lo han firmado y ratificado. También lo han hecho otros países de América Latina, África y pequeños Estados vulnerables a la degradación oceánica, como las islas Seychelles y Palaos. Incluso China se ha sumado al pacto.

Pero existen países que, a pesar de firmarlo, aún no lo han ratificado, como Estados Unidos, Reino Unido y Rusia. Esto genera un escenario de adhesión desigual que condiciona el alcance real del tratado. En cualquier caso, la eficacia en su aplicación dependerá de la capacidad de los órganos institucionales ya existentes. Además, la puerta sigue abierta para que más Estados lo ratifiquen.

The Conversation

Raúl Villa Caro no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Tratado de Alta Mar: una noticia esperanzadora para la salud de los océanos – https://theconversation.com/tratado-de-alta-mar-una-noticia-esperanzadora-para-la-salud-de-los-oceanos-273834

Valentino entendió que la elegancia también cotizaba en bolsa

Source: The Conversation – (in Spanish) – By Pedro Mir, Profesor de la Facultad de Económicas y Director Académico de ISEM Fashion Business School, Universidad de Navarra, Universidad de Navarra

Valentino en una imagen promocional de _Valentino: el último emperador_, con modelos vistiendo diseños ‘rojo Valentino’. Valentino Movie

Roma despedirá el viernes 23 de enero a Valentino Garavani, el diseñador italiano que convirtió un matiz rojo en símbolo universal del glamour y transformó la alta costura en un negocio multimillonario. Su empresa sobrevivió cuatro cambios de dueño y sigue funcionando 17 años después del retiro de quien le dio su nombre.

Fallecido a los 93 años, en su residencia romana, Valentino deja un legado que va mucho más allá de las pasarelas. En 1959 fundó su casa de moda, cuando la industria italiana competía por dejar atrás la etiqueta de simple manufacturera de París. Y consiguió convertirla en una máquina de generar prestigio y beneficios que culminó con su adquisición, por parte del grupo italiano HdP, por 300 millones de dólares en 1998, una cifra que triplicaba sus ventas directas de entonces.

La operación con HdP marcó un hito en la profesionalización de las casas de moda familiares. Valentino y su socio Giancarlo Giammetti –quien tras conocer al diseñador, en 1960, abandonó su carrera en el mundo de la arquitectura para gestionar el negocio– demostraron que una marca podía cotizar por su valor simbólico, no solo por sus cuentas de resultados.

Cuatro años después, HdP vendió la empresa al grupo Marzotto por apenas 210 millones de euros, lo que dejó en evidencia los riesgos de comprar glamour sin infraestructura. En 2012, el fondo catarí Mayhoola pagó 700 millones de dólares por ella, consolidando su posición en el mercado del lujo global.

Exclusiva y popular

Pero la genialidad de Valentino no residió en las hojas de balance sino en haber entendido, antes que nadie, que la alta costura podía ser simultáneamente exclusiva y mediática.

Mientras sus competidores protegían celosamente sus talleres, él invitó a la prensa a documentar cada puntada, cada prueba, cada capricho. El documental de 2008 Valentino: el último emperador mostró sin filtros el ego, las manías y el perfeccionismo de un creador que exigía 30 pruebas para un solo vestido.

La construcción de su marca descansó sobre tres pilares que cualquier escuela de negocios reconocería hoy como fundamentales.

Una mujer con un vestido negro con pequeñas líneas blancas sujeta una estatuilla.
Julia Roberts recogió su Óscar a la mejor actriz por Erin Brokovich con un icónico vestido de Valentino.
Featureflash Photo Agency/Shutterstock

En primer lugar, la diferenciación extrema mediante el “rojo Valentino”, un tono con matices naranjas que supuestamente descubrió durante una visita a la ópera en Barcelona. En segundo lugar, su asociación con una clientela prescriptora, desde Jackie Kennedy –quien eligió vestir de Valentino para su boda con Aristóteles Onassis, en 1968– hasta Julia Roberts recogiendo su Óscar. Y en tercer lugar, la expansión estratégica desde la alta costura al prêt-à-porter, los accesorios y las licencias, sin diluir el prestigio de la marca madre.

A estos tres pilares se sumaba un cuarto, quizás el más determinante desde una perspectiva de marketing: Valentino se convirtió en la personificación de su propia marca. Este mecanismo –denominado founder-brand identity, es decir, “identidad del fundador de la firma”– se da cuando el creador deja de ser simplemente el diseñador para convertirse en el activo intangible más valioso de la empresa.

Su imagen impecablemente cuidada, su presencia mediática constante y su estilo de vida ostensiblemente refinado no eran vanidad sino estrategia: cada aparición pública reforzaba los valores de marca. No era Valentino quien vestía de Valentino: era Valentino quien era Valentino.

Este fenómeno tiene precedentes selectos en la industria: Coco Chanel encarnó la liberación femenina que vendían sus diseños, Giorgio Armani proyectó la sobriedad elegante de sus trajes y Ralph Lauren ha construido un universo aspiracional americano del que él mismo es protagonista. Pero pocos ejecutaron esta fusión con tanta coherencia durante seis décadas.

Un zapato de éxito

Paradójicamente, fue después de su retiro cuando la marca alcanzó uno de sus mayores éxitos comerciales en calzado. En 2010 lanzaron el Rockstud, un stiletto decorado con tachuelas piramidales inspiradas en el bugnato, un detalle arquitectónico romano que adornaba los palacios de la ciudad eterna.

Fotografía de unos pies con unos zapatos.
Fotografía de los ‘Rockstud’.
KKCreative/Shutterstock

El zapato no solo se convirtió en objeto de culto –ganó el premio del Council of Fashion Designers of America–, sino que demostró que Valentino había construido una plataforma de marca lo suficientemente sólida como para generar iconos sin su presencia física. Desde su debut, la línea Rockstud impulsó el crecimiento de ventas de la casa en un 36 %, con los accesorios representando la mitad del volumen de negocio. La colección se expandió a bolsos, bailarinas, sandalias e incluso líneas para mascotas, consolidando un código visual propio que compite en reconocimiento inmediato con cualquier monograma del lujo.

Con precios desde 720 euros, los Rockstud hicieron que Valentino fuese (un poco) más accesible sin traicionar su esencia: seguían siendo aspiracionales, impecablemente ejecutados y portadores de una narrativa de prestigio.

Una mujer rubia alta y un hombre de traje muy bronceado.
Gwyneth Paltrow y Valentino Garavani en el estreno del documental Valentino: el último emperador en Los Ángeles, en 2009.
s_bukley/Shutterstock

Su método de trabajo anticipó lo que décadas después se llamaría marketing de influencers. No esperaba a que las actrices llamaran: las vestía gratis para los Óscar, generaba imágenes icónicas y convertía cada alfombra roja en un escaparate valorado en millones. Jessica Lange, Julia Roberts, Anne Hathaway o Jennifer López entendieron que llevar un Valentino no era solo lucir un vestido. Era apropiarse de una narrativa de elegancia atemporal.

Un estilo de vida

El aspecto más fascinante de su trayectoria empresarial fue cómo monetizó su estilo de vida. Moviéndose entre residencias en Roma, Capri, Gstaad, Londres y Nueva York, con un yate de 46 metros y una colección de arte que incluía Picassos y Mirós, Valentino no solo vendía ropa: vendía aspiración. Sus clientes no compraban prendas sino el acceso simbólico a ese universo de belleza implacable.

La marca ha tenido directores creativos dispares y Alessandro Michele, fichado en 2024, es el encargado ahora de reinventarla. Todos trabajan bajo la tutela financiera de Mayhoola (70 %) y Kering (30 %). Este último grupo ejercerá el control total en 2028 o 2029, según opciones contractuales.

La lección de Valentino para la industria de la moda no fue solo estética sino estratégica: demostró que el lujo funciona como negocio cuando se construye sobre códigos visuales reconocibles, cuando se alimenta con disciplina narrativa y cuando se gestiona la escasez como recurso de posicionamiento. El “rojo Valentino” no era un color, era una patente emocional.

Sus últimos años los dedicó a la Fundación Valentino Garavani y Giancarlo Giammetti. En 2023 inauguró PM23, un espacio cultural en la Piazza Mignanelli de Roma donde se exhibe su archivo. Fue su forma de controlar el relato póstumo: convertir sus creaciones en patrimonio antes de que otros decidieran qué hacer con ellas.

El viernes 23 de enero desfilarán por su funeral en la Basílica de Santa Maria degli Angeli e dei Martiri la aristocracia europea, la industria de la moda y las clientas que durante décadas confiaron en él para los momentos que requerían no solo belleza sino autoridad estética. Porque Valentino no solo hizo que las mujeres lucieran elegantes: construyó un sistema para que esa belleza cotizara en bolsa.

The Conversation

Pedro Mir no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Valentino entendió que la elegancia también cotizaba en bolsa – https://theconversation.com/valentino-entendio-que-la-elegancia-tambien-cotizaba-en-bolsa-273922