China’s five green economy challenges in 2026

Source: The Conversation – UK – By Chee Meng Tan, Assistant Professor of Business Economics, University of Nottingham

As China heads into the new year it will start rolling out its 15th five‑year plan, this one is for 2026-2030.

Beijing is doubling down on greening its economy, and aims to hit two major climate goals: “carbon peaking”, where carbon dioxide emissions have reached a ceiling by 2030, and “carbon neutrality”, where net carbon dioxide emissions have been driven down to zero by 2060.

Yet, China’s green push sits uneasily with its energy realities: coal still provides about 51% of its electricity as of mid‑2025, underpinning China’s difficulty in greening its energy system swiftly. Here are five major challenges that will shape China’s green transition as it moves into 2026.

1. Energy transmission and wastage

Imagine standing in western China (for instance in Tibet, Xinjiang and Qinghai), which produces a lot of solar and wind energy. On bright and windy days, these installations generate vast amounts of clean electricity. Yet much of that power goes to waste.

China’s grid can only handle a limited load, and when renewable generation peaks, it risk overloading the power network. So grid operators respond by telling energy producers to dial down output, which is a process called “curtailement”. The result is that electricity from the west often fails to reach eastern economic hubs, such as Beijing, Tianjin, Shandong, Jiangsu, Shanghai, Zhejiang, Fujian and Guangdong, where demand is greatest.

China needs to invest heavily in the ways to transport and store excess energy. The State Grid Corporation of China claims that it will be spending 650 billion yuan (£69 billion) in 2025 to upgrade the power network, and perhaps much more in subsequent years.

The challenge here is sustaining these capital-intensive projects while the broader economy still grapples with the lasting effects of the 2021 property crisis.

China is building massive solar farms, but also coal-fired power stations.

2. Cutting coal without blackouts

Even as China vows to go green and be a world leader in environmental energy, it continues to expand its coal capacity, and has added enough new coal-fired power stations in 2024 to power the UK twice over per annum. This apparent contradiction stems from concerns over energy security.

Beijing is determined to avoid a repeat of the blackouts and power shortages of 2020–2022. Coal provides dependable, round‑the‑clock power that renewables cannot yet fully replace. Yet the steady expansion of coal capacity undercuts China’s climate pledges and highlights ongoing tensions between China’s president, Xi Jinping’s, dual carbon goals and the country’s pressing energy demands, which raises questions about how far political ambition can stretch against economic reality.

3. Taming overcapacity without hurting growth

China’s vast manufacturing strength, which was once an asset, is now posing a problem. The rapid expansion of solar, wind, and electric vehicle industries has created overcapacity across the clean‑tech sector. Factories are producing more panels, turbines, and batteries than the domestic market can absorb. This has created a cut-throat price war, where companies sell at below cost price, which erodes company profits.

Beijing must find a balance between restraining overproduction without choking growth in green industries. This balancing act is politically sensitive, as local governments depend on these industries to create jobs (7.4 million in 2023), and generate substantial revenue. It was estimated that in 2024 green industries contributed 13.6 trillion yuan to China’s economy or 10% of the country’s GDP.

4. Trade tensions from overcapacity

China’s surplus of clean tech such as cheap solar panels, electric vehicles (EVs), and batteries, have triggered trade tensions abroad. In 2023 and 2024, the European Union investigated allegations of Chinese subsidies being poured into EVs, wind turbines and solar panels. Tariffs of up to 35.3% were placed on Chinese EVs. However, tariffs on Chinese solar panels and wind turbines have not been imposed so far.

But, on January 1 2026 the EU’s Carbon Border Adjustment Mechanism (CBAM) comes into effect. The CBAM is a carbon tax that Europeans will pay if imported goods are made using high carbon emissions. While the tax does not explicitly target EVs and solar panels, it will cover carbon-intensive materials used in their production, such as steel and aluminium, which are made using coal-fired plants.

What this means is Chinese clean tech might lose its competitive edge in the European market as customers are driven away from its products. Industrial players might rely on exports to stay afloat given the highly competitive nature of China’s domestic green market, but the CBAM is likely to undermine China’s green industry.

5. Fulfilling green targets locally

Chinese local governments are formally responsible for putting Beijing’s climate policies into practice, but many are expected to implement these policies largely on their own. While provincial authorities typically have more fiscal resources and technical expertise, city-level governments within each province often don’t have the funds to do so, which makes it difficult to deliver on green initiatives in practice.

At the same time, even when local authority leaders are told to achieve climate‑related targets, their career advancement remains closely linked to conventional economic performance indicators such as GDP growth and investment.

All of this helps explain the continued enthusiasm for new coal‑fired power projects. They are framed not only as a fail‑safe in case renewables and grids cannot meet rising demand, but also as avenues for local employment, fixed‑asset investment and fiscal revenue.

China’s continued greening in 2026 will be challenged by all of these issues.

The Conversation

Chee Meng Tan does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. China’s five green economy challenges in 2026 – https://theconversation.com/chinas-five-green-economy-challenges-in-2026-270866

Les plans des pistes de ski, ou l’art de promettre de la neige toujours fraîche et un ciel toujours bleu

Source: The Conversation – in French – By Alexis Metzger, Géographe de l’environnement, du climat et des risques, INSA Centre Val de Loire

Plan de la station des Portes du Soleil entre France et Suisse, dessiné par Pierre Novat. Pierre Novat

Objets familiers des skieurs, les plans des pistes ne sont pas seulement des outils pratiques : ils sont la promesse d’un paradis bleu et blanc, où la neige est partout et où il fait toujours beau. Mais à mesure que le climat se réchauffe, ces images idéalisées s’éloignent de plus en plus du réel. Elles sont devenues un miroir déformant qui interroge notre rapport aux sports d’hiver.


Maxime Petre, géographe et collectionneur de plans de pistes de ski, a co-écrit cet article et la parution scientifique sur lequel s’appuie celui-ci. Son travail de numérisation des plans de pistes actuels et passés a permis d’illustrer cet article.


Pour le skieur, le plan des pistes est à la fois un outil pratique et une promesse. On va l’étudier depuis la maison – ou l’appartement de location – pour prévoir sa journée à la neige, le déplier sur les pistes avec difficultés à cause des gants. Choisir entre une piste bleue ou rouge, un télésiège ou un téléphérique, autant de choix guidés par ce petit document.

Au-delà de cette fonction repère, le plan des pistes construit aussi un imaginaire : celui d’un hiver immuable, presque utopique, où les flancs des montagnes sont toujours enneigés et le ciel toujours bleu. Pour les plus aisés qui peuvent s’offrir ces loisirs de neige, ces plans perpétuent la magie d’un hiver éternel : toujours le même, d’une blancheur immuable, depuis des décennies.

Ils montrent des images d’une météo idéale, désormais rare dans un contexte de changement climatique et de baisse de l’enneigement, comme nous l’avons récemment exposé dans un article de recherche.

Du plan neige à l’émergence d’un style pictural standardisé

On trouve des plans des pistes dès la création des premières remontées mécaniques. Les premiers plans sont sommaires : il s’agit surtout de photographies annotées avec le tracé des pistes.

Plan de la station d’Auron (Alpes-Maritimes) à la fin des années 1930, après l’inauguration du troisième téléphérique de France.
Numérisation : Maxime Petre, éditions Héliogravure Sadag, Bellegarde, Fourni par l’auteur

En témoigne par exemple le plan de la station d’Auron dans les Alpes-Maritimes, où le ski maralpin a pris naissance avec l’inauguration le 30 janvier 1937 du troisième téléphérique de France après Megève et Chamonix.

Mais c’est avec le Plan Neige de 1964 que la montagne française s’oriente massivement vers le tout-ski. Ses effets sont rapidement sensibles : de cinquante stations en 1960, on passera à deux cents en 1975. Pour ces destinations, les plans des pistes deviennent alors des icônes touristiques.

Comme il était alors la règle implicite pour les stations de dimension internationale, Val d’Isère (Savoie) sollicite dans les années 1950 l’Autrichien Heinrich Berannn qui a déjà œuvré du côté des plus grandes destinations de ski comme Gstaad (Suisse), Cortina d’Ampezzo (Italie) ou Sankt Anton Am Arlberg (Autriche). Ceci dénote une sorte de mimétisme alpin pour ces grandes contrées des sports d’hiver.

D’un rebord de falaise, le skieur plonge littéralement sur le centre bourg de Val d’Isère (Savoie), encore clairsemé, en suivant des pistes rouges imaginaires.
Numérisation : Maxime Petre, Berann, années 1950-1960, Fourni par l’auteur

Formé aux Beaux-Arts à Lyon, Pierre Novat répond à l’appel de Val d’Isère en 1962 et va dessiner, à sa manière, une série de plans qui fera sa célébrité. Une exposition et un livre lui ont récemment été consacrés.

Pierre Novat, photographié par son fils Arthur Novat.
Arthur Novat, CC BY

Les pinceaux de Pierre Novat entrent en action en 1962. Le plan de Heinrich Berann n’est plus à jour : Pierre Novat, Avalin (nom donné aux natifs de Val d’Isère) d’adoption, se charge du nouveau dessin.

C’est le début d’un long parcours professionnel fait de commandes à travers les Alpes françaises. Il va rapidement imposer son style, dont les pistes de Val d’Isère ont été le déclencheur artistique. Un projet de retravail graphique des cartes des pistes, dénommé micmap, vise aujourd’hui à conserver et prolonger l’héritage de Novat.

La vision de Val d’Isère que développe Pierre Novat diffère de celle de son prédécesseur Heinrich Berann.
Numérisation : Maxime Petre, Pierre Novat, années 1960, Fourni par l’auteur



À lire aussi :
Pourra-t-on encore skier en Europe dans un monde à +2 °C ?


Petits arrangements avec la géographie… et la météo

Mais comment représenter en deux dimensions des pentes aux expositions variées, des sommets emblématiques mais dont la visibilité et la proximité sont diverses ? La filouterie est de mise : chaque plan est, en réalité, une projection arrangée.

Pierre Novat le disait lui-même dans une interview en 1992 :

« Le crayonné a pour but de se mettre d’accord avec les gens de la station, voir si ça correspond à l’image qu’ils veulent donner de leur station et aux angles de prises de vues, aux ombres portées. Le plus, enfin le principe le plus important, ce qui m’a permis de me rendre utile aux stations, c’est que l’on triche, on triche pas mal. »

Autrement dit, les courbes sont adoucies et les reliefs moins acérés. Tout l’enjeu est d’inviter à la glisse, tout schuss. Ces paysages dessinés sont devenus les images d’Épinal pour représenter les stations de sports d’hiver.

Les plans déforment ainsi la topographie pour tout montrer de la station et de ses points forts, tout en présentant ses pentes comme accessibles. Mais ils enjolivent également la météo. Ils véhiculent une image normalisée d’un temps froid et ensoleillé (ce qu’on voit sur le plan), effaçant les conditions permettant les chutes de neige qui précèdent (et qui ne sont jamais représentées).

Sur les plans, la neige est omniprésente : très blanche ou légèrement bleutée, elle recouvre uniformément les reliefs, parfois jusqu’aux rives du lac Léman, à 500 m d’altitude, jusqu’aux cimes des Dents du Midi à plus de 3000 m – et au Mont-Blanc, évidemment.

Sur le plan ci-dessus du Suisse Winfried Kettler, réalisé pour le compte du domaine international des Portes du soleil (Suisse et France) dans les années 1980, la neige est partout présente, des rives du Léman au sommet du mont Blanc. Vingt ans après, l’objectif reste, ni plus ni moins, d’afficher encore de la neige à toutes les altitudes, comme le montre la carte contemporaine du domaine skiable en 2024.

Une vitrine de plus en plus éloignée du réel

Une telle blancheur continue n’a rien de réaliste : elle suppose la même quantité de neige à toute altitude, sur tous les versants, quelle que soit leur orientation. En réalité, la qualité et l’épaisseur du manteau neigeux varient selon la pente, l’exposition, le vent. Il est bien rare de trouver de la neige au sol à Évian même, comme le représente pourtant l’une des cartes ci-dessus, par exemple !

Sur cette carte des pistes, réalisée par Pierre Novat pour la promotion touristique du Queyras (Hautes-Alpes), le Viso, pourtant italien, s’érige au centre avec un aplomb souverain, focalisant l’attention. Comme toujours, la neige est tombée sur ce territoire de 626 km² de manière complètement uniforme.
Numérisation : Maxime Petre, Novat 1981, Fourni par l’auteur

Quant au ciel, il est quasi systématiquement bleu, effaçant les nuages pourtant nécessaires aux chutes de neige. Ce choix n’est pas anodin : il permet à la neige d’étinceler et de révéler un panorama que la météo réelle masquerait. Le plan traduit des choix météorologiques forts réalisés à dessein.

Comment expliquer que l’image des pistes soit un tel miroir déformant ? C’est parce que le plan est aussi un produit d’appel, un objet marketing pour les touristes. Or la neige est l’élément phare pour attirer les skieurs. Et le ciel bleu, promesse de journées radieuses, est un atout supplémentaire qui permet de repartir bronzé. Pierre Novat assumait pleinement cette mise en scène météorologique, à même de séduire à la fois les élus locaux, les gestionnaires de stations et les skieurs.




À lire aussi :
Comment les skieurs s’adaptent au manque de neige


Une forme de solastagie

Aujourd’hui, le plan s’éloigne de plus en plus du réel. Avec le réchauffement climatique, l’enneigement varie fortement selon les massifs, l’altitude ou l’exposition. Pourtant, les plans continuent d’afficher la même blancheur uniforme. Les plans des pistes ont beau afficher encore de la neige, les stations ferment peu à peu faute d’enneigement.

Plan des pistes de la station de Céüze (Hautes-Alpes) au début des années 2000.
Numérisation : Maxime Petre, auteur inconnu, années 2000, Fourni par l’auteur

Après huit années d’inactivité, la station de ski de Céüze, dans les Hautes-Alpes, est en cours de démantèlement à l’automne 2025. Le plan des pistes prend alors le statut de relique, souvenir de jours heureux sur cette montagne emblématique du Gapençais.

Ces cartes traduisent-elles une forme de déni climatique ? Il s’agit plutôt d’un rêve, d’une utopie : l’idée que le ski reste possible, toujours, partout, et durant la « saison » de ski. Ces images révèlent une mémoire d’hivers idéalisés et engendrent une forme de solastalgie – ce sentiment de perte face à un paysage qui nous est proche et qui s’efface peu à peu

Anne Dalmasso, professeur d’histoire contemporaine à l’Université Grenoble Alpes écrivait, à propos des plans de Novat :

« Comme toutes les images touristiques, elles ont une fonction performative : elles reconfigurent tant les attentes que les souvenirs. »




À lire aussi :
Production de neige : le piège de la dépendance pour les stations de ski ?


Neige de culture : des artifices peu visibles

Pourtant, la transition verte des domaines skiables passe par un autre rapport aux sports d’hiver et donc à la neige, avec de nombreux enjeux spécifiques aux territoires de montagne.

Sur ce plan de Villard-de-Lans (Isère) dans années 1980, les pistes bénéficiant de neige artificielle sont signalées par un pictogramme.
Numérisation : Maxime Petre, Pierre Novat, Fourni par l’auteur

L’enneigement artificiel, déployé à partir des années 1970, vise à garantir la glisse sur le plan technique face aux aléas climatiques.

Le manque de neige dès la fin des années 1980, avec l’« hiver sans neige » 1988-1989, a amené les stations à rendre visibles les canons à neige pour informer leurs visiteurs d’une « garantie neige ».

L’enjeu du retour à la station ski aux pieds justifiait – et justifie encore – des investissements massifs, parfois déraisonnables compte tenu des altitudes.

Sur ce plan de Villard-de-Lans (Isère) dans années 1990, les pistes bénéficiant de neige artificielle sont signalées par la couleur jaune et un pictogramme.
Numérisation : Maxime Petre, Pierre Novat, Fourni par l’auteur

Résultat : les pistes pourvues de canons à neige se matérialisent sur les cartes des pistes. De l’icône du flocon de neige aux pistes jaunies, les plans insistent alors sur les potentialités de la neige artificielle. Ces représentations disparaîtront largement plus tard.

Car, dans les années 2020, les contestations se font plus vives. Certaines stations choisissent de ne plus recourir à la neige artificielle, d’autres de la masquer sur leurs plans. Et bien malin celui qui pourrait ainsi déceler dans ce type de plan un lac dédié à la neige de culture : la transparence de ces aménagements s’efface au profit de l’image idéale et policée.

Ces plans peuvent-ils, doivent-ils évoluer, et si oui comment ? Faut-il produire des images plus « authentiques » reflétant le manque de neige ? Mais des images reflétant des pistes brunies par la terre à l’arrivée en station, des chalets enveloppés dans le brouillard et une tempête de neige en altitude seraient-elles aussi attractives au plan touristique ?

Plan des pistes de Cortina d’Ampezzo (Italie).
Numérisation : Maxime Petre, Berann 2025, Fourni par l’auteur

Heinrich Berann a longtemps été le panoramiste des olympiades. Malgré son décès en 1999, Cortina, ville hôte des Jeux olympiques d’hiver de 2026, qui vont débuter en février, lui est restée fidèle. Il y a fort à parier que les plans des Jeux olympiques d’hiver 2030, prévus dans les Alpes françaises, ne s’éloigneront guère de ce modèle immuable et vendeur.




À lire aussi :
À moins de trois mois des JO d’hiver, quelles attentes environnementales ?


The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Les plans des pistes de ski, ou l’art de promettre de la neige toujours fraîche et un ciel toujours bleu – https://theconversation.com/les-plans-des-pistes-de-ski-ou-lart-de-promettre-de-la-neige-toujours-fraiche-et-un-ciel-toujours-bleu-271678

Nuevo estudio: la gravedad del fuego en un bosque afecta más a su recuperación que el clima tras el incendio

Source: The Conversation – (in Spanish) – By Josep Peñuelas, Investigador, Consejo Superior de Investigaciones Científicas (CSIC); CREAF – Centro de Investigación Ecológica y Aplicaciones Forestales; Autonomous University of Barcelona

Incendio natural en Rusia LuYago/Shutterstock

La severidad inicial de un fuego condiciona más la recuperación de un bosque que las variaciones climáticas posteriores que sufra después. Es la conclusión a la que ha llegado nuestro equipo de investigación del Centro de Investigación Ecológica y Aplicaciones Forestales (CREAF) tras analizar casi 3 300 incendios de gran escala que afectaron a bosques de todo el mundo entre el 2001 y 2021.

La alta frecuencia e intensidad de estos eventos extremos –superan los 10 km², son de rápida propagación y tienen un comportamiento explosivo– alteran profundamente la estructura y funcionamiento de los ecosistemas. Ello conlleva una reducción de su capacidad de secuestro de carbono, un retraso significativo de su regeneración natural y un aumento de la vulnerabilidad residual del área afectada. Es decir, el bosque queda en un estado de fragilidad extrema que le impide defenderse frente a nuevas amenazas como sequías posteriores, plagas o erosión del suelo.

Estos incendios tienen una relación directa con el cambio climático, modifican el contexto meteorológico local y plantean desafíos sin precedentes a los sistemas de extinción. Y nuestros análisis indican que a partir de 2010 se ha producido un incremento de ellos, especialmente en regiones áridas y boreales. Este período marca un punto de inflexión en la aceleración de los efectos del cambio climático, caracterizado por temperaturas elevadas persistentes, sequías prolongadas y eventos meteorológicos extremos, principales impulsores de los mega incendios.

Como resultado, el restablecimiento forestal se ralentiza considerablemente e incluso puede estancarse, lo cual puede conducir al declive de los árboles y alteraciones permanentes en la estructura y función de los ecosistemas.

Esta dinámica provoca que los incendios, además de contribuir a las emisiones de carbono, incrementen la probabilidad de futuros episodios destructivos, ya que se excede la capacidad de resiliencia intrínseca del bosque. Un claro ejemplo se observa en el oeste de Estados Unidos, donde las sequías tras los incendios han impedido la recuperación del equilibrio hídrico forestal, agravando la falta de regeneración.

Bajo estas condiciones, la recuperación de los bosques se ralentiza e incluso puede estancarse, provocando el declive forestal con cambios duraderos en su estructura y función.




Leer más:
Los incendios forestales extremos son cada vez más intensos y se han duplicado en los últimos 20 años


Fuego y regeneración

En este contexto, la capacidad de regeneración natural de los ecosistemas se ve severamente comprometida. La destrucción no se limita a la biomasa aérea, aquella a la vista, sino que afecta también al banco de semillas, a los brotes y a una parte significativa del suelo orgánico, elementos cruciales para la sucesión ecológica.

Las zonas más afectadas globalmente incluyen el norte de Siberia, el oeste de Norteamérica, el norte de Sudamérica, el sureste de Australia y el sur de Asia. Observamos que, por ejemplo, menos de un tercio de los bosques boreales (predominantemente coníferas) logra recuperarse en un plazo de 7 años, mientras que los bosques tropicales ––con mayor disponibilidad de humedad–– muestran una recuperación más rápida.

La escasez de humedad en los suelos y las altas temperaturas después de un fuego son particularmente perjudiciales para las plántulas y limitan que se establezca una nueva generación arbórea.

Para cuantificar la recuperación forestal post incendio a lo largo de dos décadas y a partir de los casi 3 300 eventos analizados,empleamos técnicas de teledetección centradas en tres indicadores clave: la densidad de vegetación, el dosel forestal (la capa superior de un bosque formada por las copas de los árboles) y la productividad primaria bruta (PPB), siendo esta última variblee la que mide la cantidad de dióxido de carbono que la vegetación es capaz de absorber mediante la fotosíntesis para transformarlo en biomasa.

Estos indicadores son fundamentales para evaluar el ciclo global del carbono y optimizar la gestión de los incendios. Aunque la recuperación global promedio de la densidad de vegetación en los bosques quemados se estima en aproximadamente 4 años, nuestro estudio ha identificado que, tras un gran incendio, las regiones analizadas requieren de promedio entre 4 y 5 meses adicionales para alcanzar los niveles anteriores. La sequía y las altas temperaturas tras un incendio juegan un papel decisivo en la extensión de este período.

Respecto al dosel forestal, según nuestros datos, la reconstrucción de la capa superior del bosque demandó entre 3 y 4 meses adicionales para su restablecimiento. Una demora que fue más pronunciada en zonas con escasez hídrica. Por otro lado, la recuperación de la PBB tardó casi un año más en recuperar niveles anteriores al fuego, por lo cual redujo la capacidad del bosque como sumidero de carbono




Leer más:
Bajo la ceniza: los suelos que sostienen la vida tras los incendios


El compromiso de la ciencia

Las proyecciones globales advierten de un incremento en riesgo de incendios de gran escala, con estimaciones de aumento del 50 % para finales de siglo en el oeste de Norteamérica, África ecuatorial, el Sudeste Asiático y Australia, del 100 % en el Mediterráneo, África meridional, el este de Norteamérica y la Amazonia y todavía mayores (hasta 7 veces) en algunas partes de la Amazonia.

Ante este escenario, la ciencia propone enfáticamente medidas de restauración ecológica y reforestación, que otorguen prioridad a preservar la función de los bosques en la mitigación
del cambio climático. También es fundamental apoyar la investigación sobre cómo la diversidad de especies arbóreas puede mejorar la resistencia forestal a la sequía.

Resulta imperativo, además, comprender los mecanismos detallados sobre recuperación forestal tras incendios severos, para optimizar la gestión de los ecosistemas y anticipar sus respuestas al cambio climático. Los modelos actuales tienden a subestimar los tiempos de recuperación, lo que podría llevar a sobrestimar la capacidad real de los bosques como sumideros de carbono.

Frente a estos desafíos, la comunidad científica debe asumir un compromiso y responsabilidad ineludibles de proveer datos rigurosos y aplicables. Cada acción de protección y restauración forestal contribuye directamente a mantener su función vital frente a la crisis climática global que enfrentamos.

The Conversation

Josep Peñuelas no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Nuevo estudio: la gravedad del fuego en un bosque afecta más a su recuperación que el clima tras el incendio – https://theconversation.com/nuevo-estudio-la-gravedad-del-fuego-en-un-bosque-afecta-mas-a-su-recuperacion-que-el-clima-tras-el-incendio-270010

Margarita de Francia: la duquesa que desafió la intolerancia religiosa en el siglo XVI

Source: The Conversation – (in Spanish) – By Aitana Goicoechea Beltran, Profesora e investigadora en Historia del arte, Aix-Marseille Université (AMU)

Boda de Manuel Filiberto de Saboya y Margarita de Francia, pintada en el siglo XIX por Francesco Gonin. Wikimedia Commons

Desde Renata de Ferrara hasta Catalina de Médici, el siglo XVI vio nacer a mujeres que supieron entrelazar política y poder en una Europa marcada por las guerras religiosas. Entre esos nombres, sin embargo, Margarita de Francia (1523-1574) ha quedado casi borrada de los grandes relatos.

¿Cómo explicar que una figura que promovió uno de los primeros edictos de tolerancia de Europa, garantizando a los valdenses de Piamonte la práctica de su fe, permanezca en la penumbra?

Su trayectoria recuerda que, incluso en un tiempo de tensiones irreconciliables y violencia religiosa, existieron márgenes para la negociación y la acogida.

Del reino de Francia al ducado de Saboya

Margarita de Francia era hija de Francisco I y hermana del rey Enrique II, dos de los monarcas Valois más influyentes de la Francia del Renacimiento. Exquisitamente formada en lenguas y humanidades y reconocida por su gran cultura, recibió el título de duquesa de Berry en 1550.

Retrato de Margarita de Francia por el estudio de François Clouet
Retrato de Margarita de Francia por el estudio de François Clouet.
Wikimedia Commons

Nueve años después, su matrimonio con Manuel Filiberto de Saboya (1528-1580) selló el fin de las hostilidades entre el reino de Francia y la Monarquía Hispánica. Así, la paz de Cateau-Cambrésis (1559) la situó en el centro de la política europea. La recuperación del ducado de Saboya, ocupado durante años por tropas francesas, le daba al territorio un peso estratégico decisivo en el nuevo tablero político.

Su posición geográfica, en lo que hoy sería la frontera entre Francia e Italia, lo convertía en un territorio permanentemente disputado. Por un lado, el rey Felipe II lo consideraba clave para asegurar el “camino español” hacia Flandes, mientras que, por el otro, la monarquía francesa mantenía ambiciones en el norte de Italia. A ello se sumaba la complejidad religiosa de la región, marcada por la influencia de la Reforma protestante y la proximidad de las comunidades helvéticas.

El duque Manuel Filiberto impulsó la reconstrucción política y militar del ducado con una estrategia de neutralidad armada. En ese marco, la duquesa Margarita no fue una mera consorte: aportó legitimidad dinástica, redes culturales y capacidad diplomática en un espacio fronterizo sometido a constantes presiones.

La paz de Cavour: un edicto pionero

El 5 de junio de 1561, apenas dos años después de su matrimonio y de la restitución de los territorios saboyanos, Margarita de Francia y el duque Manuel Filiberto afrontaron uno de los dilemas más tensos de su gobierno: la convivencia entre católicos y comunidades valdenses en los Alpes piamonteses.

Epígrafe sobre la Casaforte de los Acaja-Racconigi en Cavour, donde se reconoce que ahí se firmó el edicto.
Epígrafe sobre la Casaforte de los Acaja-Racconigi en Cavour, donde se reconoce que ahí se firmó el edicto.
Carlok/Wikimedia Commons, CC BY-SA

La solución fue el Edicto de Cavour, un acuerdo que garantizaba a los valdenses la libertad de culto en sus valles. Las fuentes coinciden en señalar que Margarita desempeñó un papel decisivo en la gestación de este texto. Fue ella quien, con la mediación de Filippo de Saboya, conde de Racconigi y consejero influyente de la corte, convenció al duque de la necesidad de optar por la vía de la tolerancia.

El Edicto de Cavour es considerado uno de los primeros decretos de libertad religiosa en la Europa moderna. Su impacto trascendió las fronteras del ducado: mientras Felipe II consolidaba en la Monarquía Hispánica una política de estricta ortodoxia y los Estados italianos reforzaban el espíritu tridentino, Saboya ensayaba fórmulas de negociación en un territorio marcado por su condición fronteriza.

La corte de Turín, bajo el patronazgo de Margarita, se convirtió además en refugio para perseguidos religiosos, incluidos exiliados franceses y descendientes de sefardíes. La cuestión judía en el ducado de Saboya alimentó el descontento de Felipe II, que veía en ello una connivencia de la duquesa con la heterodoxia. Esta situación hizo que Margarita se hallara bajo sospecha de herejía tanto en Madrid como en Roma, aunque ningún legado papal ni agente del rey español consiguió jamás pruebas en su contra.

Mujeres entre la mediación y la sospecha

La figura de Margarita de Francia puede compararse con varias mujeres de su tiempo y su propia órbita familiar. Renata de Ferrara, su tía materna, mantuvo estrechos lazos con los círculos reformados de Francia, Suiza e Italia, convirtiéndose en protectora de disidentes y foco de tensiones religiosas. Catalina de Médici, su cuñada tras haberse casado con Enrique II, promovió edictos de pacificación que, con mayor o menor eficacia, buscaban contener la violencia confesional que desgarraba el reino de Francia.

Como ellas, Margarita defendió vías de negociación en medio del enfrentamiento entre católicos y reformados. Pero ella lo hizo desde un espacio particularmente frágil: un ducado fronterizo constantemente expuesto a presiones externas al hallarse rodeado por las principales potencias del momento.

En Saboya, su autoridad se vio condicionada por las divisiones internas entre facciones filofrancesas y filoespañolas, y por la cuestión valdense y protestante que marcaba el territorio. La corte de Turín, bajo su patronazgo, acogió a disidentes hugonotes –protestantes calvinistas franceses– y a exiliados de la sangrienta noche de San Bartolomé. Esto acrecentó su prestigio como figura de tolerancia y mediación, pero también las suspicacias en su entorno. Estas resistencias muestran hasta qué punto su apuesta por la convivencia encontró límites, aunque así mismo revelan la singularidad de su posición en la Europa del siglo XVI.


¿Quiere recibir más artículos como este? Suscríbase a Suplemento Cultural y reciba la actualidad cultural y una selección de los mejores artículos de historia, literatura, cine, arte o música, seleccionados por nuestra editora de Cultura Claudia Lorenzo.


La trayectoria de Margarita de Francia invita a mirar de nuevo la historia europea desde la periferia y desde voces habitualmente relegadas. En un siglo atravesado por guerras de religión y persecuciones, su decisión de abrir espacios de negociación en un ducado pequeño y vulnerable muestra que la tolerancia no fue solo un ideal teórico, sino una práctica efectiva y posible.

Su silenciamiento posterior en la historiografía responde tanto a su condición femenina como, posiblemente, a la incomodidad que generan las figuras que no encajan en los relatos nacionales o confesionales dominantes. Recordar hoy su experiencia no es solo un ejercicio de memoria, sino también una invitación a repensar la vigencia de la mediación política de las mujeres, la acogida y la pluralidad en sociedades que, aún hoy, siguen debatiéndose entre la convivencia o la exclusión.

The Conversation

Aitana Goicoechea Beltran no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Margarita de Francia: la duquesa que desafió la intolerancia religiosa en el siglo XVI – https://theconversation.com/margarita-de-francia-la-duquesa-que-desafio-la-intolerancia-religiosa-en-el-siglo-xvi-264087

Por qué el auge de un nuevo partido de extrema derecha en Cataluña supone un peligro para el Gobierno español

Source: The Conversation – (in Spanish) – By Asbel Bohigues, Profesor de Ciencia Política, Universitat de València

An Aliança Catalana rally in Fossar de les Moreres square, Barcelona, on September 10, 2025. Aniol/Wikimedia Commons

La política catalana parece estar ahora muy lejos del infame y no autorizado referéndum de independencia de 2017. Este fue reprimido violentamente por las fuerzas policiales nacionales, provocó disturbios generalizados, desencadenó una crisis constitucional en España y llevó a líderes como Carles Puigdemont a huir del país.

Las elecciones regionales de 2024 supusieron un marcado contraste. Durante más de una década, Cataluña había estado gobernada por partidos independentistas –ya fuera el derechista Junts de Puigdemont o ERC, de izquierda–, pero fue el PSC (la rama catalana del Partido Socialista de Pedro Sánchez) el que emergió como la fuerza más votada. Consiguieron formar un gobierno en minoría con el apoyo de ERC y los Comuns, también de izquierdas.

El procés, como se conoció el impulso a la independencia catalana, parecía haber llegado a su fin.

Pero en medio de este gran cambio, un nuevo partido, Aliança Catalana (AC), entró por primera vez en el Parlamento catalán. A pesar de haber obtenido solo dos de los 135 escaños de la región en 2024, esta nueva fuerza ejerce ahora una enorme influencia en el panorama político de Cataluña y, por extensión, de España.

La política tras el procés

Aliança Catalana es un partido de extrema derecha, independentista y explícitamente antiinmigración. Está liderado por Sílvia Orriols, alcaldesa de Ripoll, una localidad de poco más de 10 000 habitantes.

Con solo un 1,5 % de representación parlamentaria, AC podría parecer marginal, pero no lo es. Su aparición señala una reconfiguración de la política catalana tras el procés y está transformando la derecha nacionalista, un espacio político tradicionalmente dominado por Junts.

Durante años, la política parlamentaria catalana se centró prácticamente en un único tema. La independencia eclipsó casi todo lo demás, incluida la distinción entre izquierda y derecha, lo que significó que partidos como Junts y ERC compitieran principalmente por el liderazgo dentro del mismo bloque independentista.

A medida que el procés ha perdido impulso, sin que se haya conseguido ni la independencia unilateral ni un referéndum negociado, han surgido nuevos temas en la agenda. La inmigración, la seguridad y la identidad dictan ahora la política catalana, al igual que en España y otras partes de Europa.




Leer más:
Is every nationalist a potential fascist? A historian weighs in


En este nuevo panorama, AC se presenta como una opción nacionalista “más pura”: inequívocamente independentista, intransigente con el Estado español y abiertamente hostil a la inmigración, especialmente la musulmana. Ha propuesto una prohibición oficial de cubrirse el rostro, y, supuestamente, impidió el acceso de los inmigrantes a los servicios públicos en Ripoll.

Las últimas encuestas muestran lo popular que ha sido el mensaje de AC. La última encuesta del Centro de Estudios de Opinión de Cataluña sitúa a AC empatada con Junts en escaños. Independientemente de si estas cifras se materializan o no en las próximas elecciones, el mensaje es claro: AC ya no es un actor marginal.

Puesto de Alianza Catalana
Alianza Catalana haciendo campaña en la plaza Molina, Barcelona.
Pere López Brosa/Wikimedia Commons, CC BY-SA

El problema de Junts: reputación y competencia

Todos los partidos políticos compiten por los votos dentro de un espacio ideológico, que suele definirse como una posición en el eje izquierda-derecha. Su fuerza electoral depende principalmente de su reputación y credibilidad entre los votantes de su espacio, y no de propuestas políticas específicas.

Cuando un nuevo partido ofrece un mensaje más claro o convincente, puede desplazar a un partido establecido de su espacio. Esto es lo que le está sucediendo a Junts y a otros muchos partidos políticos mayoritarios.

Tras más de una década gobernando Cataluña y liderando el procés, Junts se encuentra ahora en la oposición en Barcelona y Madrid. En muchos sentidos ha fracasado: no se logró la independencia y en 2023 apoyó la reelección de Pedro Sánchez como presidente del Gobierno a cambio de la amnistía política.

AC saca partido directamente de la frustración posterior al procés. Se presenta como una nueva fuerza que se opone a los partidos nacionalistas tradicionales como ERC y Junts, pero que tampoco está dispuesta a negociar con Madrid.

La reciente estrategia de Junts sugiere que está sintiendo la presión. En octubre de 2025, “rompió” relaciones con el PSOE de Pedro Sánchez, pero su apoyo llevaba tiempo vacilando. Por lo tanto, parece que la medida de Junts no fue un cambio repentino de política, sino un intento de frenar el avance de AC mostrándose más duro, más conflictivo y más escéptico con respecto a la negociación con Madrid.

Sin embargo, al desplazarse hacia la derecha, especialmente en materia de inmigración, Junts podría legitimar la agenda del partido que amenaza con sustituirlo.

El auge de AC encaja en la tendencia internacional más amplia de consolidación de las fuerzas autoritarias y radicales de derecha. Algo similar está ocurriendo en la política nacional española, donde el partido de extrema derecha Vox ha reconfigurado la competencia y sigue empujando al Partido Popular hacia la derecha. En Cataluña, AC está desempeñando un papel similar al de Vox: está desafiando la hegemonía de un partido tradicional y consolidado de derecha.

AC no es idéntico a Vox. Es menos conservador en algunas cuestiones y tiene sus raíces en una tradición nacionalista distinta, pero ideológicamente pertenece a la derecha radical: excluyente, nativista y hostil al pluralismo.

La inmigración desempeña un papel central en este cambio: a medida que cobra mayor relevancia, los partidos de derecha se sienten cada vez más cómodos marcando los términos del debate, mientras que la izquierda lucha por responder sin tensiones internas. Cataluña no es una excepción.

El problema de Junts es el problema del Gobierno español

El actual Gobierno español se sustenta en un frágil equilibrio parlamentario. El PSOE gobierna con Sumar, una fuerza de izquierdas que, a pesar de su éxito electoral en 2023 (3 millones de votos y 31 escaños), es estructuralmente débil. Se trata de una coalición electoral formada apresuradamente por más de una docena de partidos, con raíces territoriales limitadas y que obtuvo malos resultados en las elecciones regionales y europeas de 2024.

El propio PSOE también se encuentra bajo presión, enfrentándose a múltiples escándalos que afectan al presidente y a su círculo más cercano.

Sin un nuevo presupuesto aprobado desde 2022, el Gobierno sobrevive en gran medida porque no hay una alternativa parlamentaria viable. Además, cuenta con el apoyo de partidos regionalistas e independentistas, entre ellos Junts, que se verían perjudicados por la alternativa más probable: una coalición entre el PP y Vox que consolidaría el poder en Madrid.

El apoyo de Junts al Gobierno de Sánchez lo convierte en un partido decisivo, ya que tendría que aprobar cualquier moción de censura o voto de no confianza.

La presión de AC reaviva el dilema de Junts de 2023. Apoyar a un gobierno del PSOE y Sumar refuerza su imagen de colaborador con Madrid, pero alinearse con el PP y Vox sería igual o peor. En ambos casos, AC se beneficia de presentarse como la única opción nacionalista coherente de la derecha.

Una nueva fase

A medida que se desvanece el apoyo al procés, el ámbito de competencia política de Junts está cambiando. Ya no compite por liderar el movimiento independentista, sino por representar a la derecha nacionalista catalana. Esto explica su giro hacia una retórica más dura en materia de inmigración e identidad, que corre el riesgo de normalizar la extrema derecha y remodelar la política catalana para siempre.

Por ahora, las instituciones se mantienen estables. La izquierda tiene una estrecha mayoría en el Parlamento catalán, y es importante recordar que las encuestas de opinión no son resultados electorales. Pero el terreno está cambiando.

El debut parlamentario de AC señala el posible inicio de una nueva fase. Si bien el procés definió a Cataluña durante una década, sus secuelas pueden estar marcadas por un desafío completamente diferente: el auge de una extrema derecha nacionalista, que podría trastocar la política española.

The Conversation

Asbel Bohigues no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Por qué el auge de un nuevo partido de extrema derecha en Cataluña supone un peligro para el Gobierno español – https://theconversation.com/por-que-el-auge-de-un-nuevo-partido-de-extrema-derecha-en-cataluna-supone-un-peligro-para-el-gobierno-espanol-272595

Cuanto más confiamos en la inteligencia artificial, menos aprendemos con ella

Source: The Conversation – (in Spanish) – By David Martín Moncunill, Profesor Investigador en Interacción con IA, Universidad Camilo José Cela

La irrupción de la inteligencia artificial (IA) generativa está cambiando cómo nos relacionamos con la tecnología. Un sistema con IA puede devolvernos un resultado inadecuado sin estar rota o sin que la estemos empleando de manera inadecuada. Simplemente puede “equivocarse” y, como haríamos con un humano, tenemos la opción de corregirle.

Esta posibilidad hace que la confianza que depositamos en la inteligencia artificial y la forma de emplearla cambien sustancialmente respecto de cómo utilizamos otras herramientas tecnológicas donde suele estar mucho más claro si se ha producido algún error. Los sistemas con IA nos obligan a plantearnos si están funcionando mal y verificar los resultados que nos van ofreciendo.

Esta diferencia afecta muy directamente al sector educativo, tanto a profesores como a alumnos. En este ámbito, las posibilidades de la IA van desde usarla para aprender mejor hasta un uso contraproducente para el aprendizaje. Y la confianza que depositamos en ella está estrechamente relacionada con cada una de estas dos opciones.

Tecnología y confianza: una relación modificada

La confianza es un factor esencial en el uso de la tecnología. Mientras que el exceso de confianza puede generar dependencia y quedar expuesto cuando esa tecnología falla (o se “equivoca”), la falta de confianza puede llevar a un uso ineficiente o incluso a rechazar frontalmente su utilización. En el contexto educativo es menos problemático lo segundo que lo primero: la desconfianza impulsaría al alumno a comprobar que la información obtenida es correcta, lo que debería resultar positivo para su aprendizaje.

Para comprobar si esto es así, he investigado en qué medida los estudiantes universitarios confían en la información proporcionada por la inteligencia artificial y cómo la comprueban.

Los resultados del estudio muestran que casi el 80 % de los 132 estudiantes participantes la usan frecuente o muy frecuentemente. Ni uno solo de ellos afirmó no haber utilizado nunca esta herramienta con fines académicos.

Autopercepción frente a realidad

Más del 75 % de los estudiantes utilizan métodos considerados poco fiables para comprobar los resultados ofrecidos. En torno al 40 % ni siquiera realiza acciones básicas como solicitar las fuentes en las que se basa la respuesta. Algo particularmente preocupante teniendo en cuenta que más del 75 % admite que las herramientas de inteligencia artificial proporcionan respuestas inadecuadas algunas veces o muy frecuentemente.

Pero lo más interesante es que la inmensa mayoría (más del 90 % de los encuestados) se considera capaz de identificar respuestas inadecuadas al menos ocasionalmente, y ninguno informó ser incapaz de hacerlo. En cambio, perciben que los profesores no son capaces de detectar tales errores.

Subjetividad irracional

La mayor parte de las universidades están impulsando el uso de la IA con formaciones específicas tanto para docentes como para los estudiantes. Por ejemplo, la Universidad Camilo José Cela, donde enseño e investigo, está haciendo un notable esfuerzo que va desde formación continua hasta la organización de grandes eventos como el Global Education Forum o la financiación de investigaciones como la que nos ocupa.

Pero un elevado número de alumnos desconfía de las herramientas de inteligencia artificial de pago proporcionadas por la universidad porque les preocupa ver comprometida su privacidad. Creen que la universidad puede tener acceso a sus consultas y saber si han empleado la IA de manera inadecuada.




Leer más:
¿Usar ChatGPT para redactar el trabajo de fin de grado es copiar?


Nuestro estudio evidencia un grado de subjetividad irracional por parte de los alumnos, que nos indica que el uso que se hace de esta herramienta no es el adecuado. Esto es así en cuanto a la verificación de la información, pero también respecto de cuáles son las herramientas más adecuadas para el uso académico y cómo emplearlas. Muchos docentes observamos en el día a día cómo los alumnos ni siquiera son conscientes de estar empleándola mal en su proceso de aprendizaje.

A más confianza, peor aprendizaje

La inteligencia artificial es útil para completar las tareas académicas, pero esto no implica necesariamente que lo sean para aprender. Cuando los alumnos confían en las respuestas proporcionadas por la IA y no comprueban sus indicaciones, el aprendizaje no puede ser el mismo.




Leer más:
Cuatro maneras de experimentar con la inteligencia artificial en el aula universitaria


Este exceso de confianza en la IA dificulta su uso como herramienta de aprendizaje, pues no actúa el pensamiento crítico ni la metacognición: los procesos mentales en funcionamiento cuando necesitamos resolver un problema. Paradójicamente, gran parte del tiempo que los estudiantes se “ahorran” en estas tareas lo dedican a eliminar posibilidades de ser detectados en su uso de la IA.

Aunque la utilización de la IA pueda ser clave para su desempeño laboral, los estudiantes necesitan aprender a usarla como herramienta de aprendizaje, algo distinto de su hipotético uso en el ámbito profesional. Queda por tanto un largo camino para conseguir que la IA se integre de forma eficiente en el contexto educativo, y los estudios de este tipo son necesarios para ir tomando el pulso e ir adoptando las medidas necesarias.

The Conversation

David Martín Moncunill no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Cuanto más confiamos en la inteligencia artificial, menos aprendemos con ella – https://theconversation.com/cuanto-mas-confiamos-en-la-inteligencia-artificial-menos-aprendemos-con-ella-270184

Inflación emocional: aunque los precios bajen, el malestar al pagar permanece

Source: The Conversation – (in Spanish) – By Luis Manuel Cerdá Suárez, Profesor e investigador en marketing e investigación de mercados, UNIR – Universidad Internacional de La Rioja

Kmpzzz/Shutterstock

Tras un periodo de precios altos, aunque la inflación se modere y los indicadores apunten a una cierta recuperación, muchas personas siguen sintiendo que “todo está caro”. Esta brecha entre los datos y lo que sentimos no es un simple malentendido: la investigación en comportamiento del consumidor muestra que la inflación puede reducirse en las estadísticas antes de que baje en nuestra cabeza.

Cuando pagar duele: el precio como experiencia emocional

La economía conductual lleva décadas documentando el “dolor de pagar” (pain of paying). Pagar no es solo una operación contable: activa en el cerebro circuitos vinculados al malestar y puede reducir el placer asociado al consumo. Si consumir genera placer, pagar genera dolor, y ambas experiencias se entrelazan en cada decisión de compra.

En contextos de precios elevados o de incertidumbre económica, este dolor se intensifica: no importa tanto cuánto pagamos sino la sensación de que cada compra confirma una pérdida de capacidad económica. Investigaciones en salud pública alertan de que, tras varios años de inflación elevada, los consumidores reaccionan con más sensibilidad, incluso ante subidas moderadas, asociando los precios con estrés y pérdida de control.

Además, la mente se ancla a una tabla de precios internos: recordamos cuánto costaban las cosas hace unos años y cualquier desviación se interpreta como una pérdida, aunque la renta haya mejorado. Ahí empieza la carga emocional del consumo: actividades cotidianas como ir al supermercado, pagar la luz o repostar gasolina se convierten en evidencias de que “todo cuesta más”.

La inflación emocional no baja al ritmo del IPC

Las personas prestamos más atención a los precios de los bienes que compramos con más frecuencia –alimentación, energía, vivienda–, y tendemos a recordar más las subidas que las bajadas. Es el sesgo de frecuencia: nuestra percepción se sesga hacia los precios que vemos más a menudo. Esto explica por qué, aunque la inflación se modere, la sensación de carestía permanece.

El Banco de España señala que la inflación no afecta por igual a todos: los hogares con rentas más bajas destinan una proporción mayor de ingresos a bienes básicos, por lo que perciben las subidas con mucha más intensidad. A escala europea, un informe concluye que el coste de la vida afecta especialmente a jóvenes, familias con alquiler elevado y hogares expuestos a gastos esenciales crecientes.

Todo ello configura una inflación emocional que persiste incluso cuando la inflación baja, se alimenta de la memoria de subidas acumuladas y se refuerza cada vez que interactuamos con precios sensibles (alimentos, energía, vivienda).

Fatiga del coste de la vida: cuando vigilar los precios agota

A la tensión puntual de pagar más se suma una carga menos visible: la fatiga del coste de la vida, asociada a la vigilancia constante del gasto, la comparación repetida de precios y la sensación de estar siempre renunciando a algo para llegar a fin de mes.

Esta fatiga se manifiesta en tres comportamientos cada vez más frecuentes:

  1. La vigilancia de los precios: revisar ofertas, seguir aplicaciones de comparación, etc., actividades que consumen tiempo y energía mental.

  2. La culpa provocada por el consumo: gastar en ocio o en pequeños placeres genera tensión moral, incluso cuando la situación económica sea razonablemente estable.

  3. La sensación de pérdida continua: sentir que “antes se vivía mejor con lo mismo”, aunque los datos muestren una recuperación parcial de la renta familiar disponible.

En paralelo, las investigaciones en salud pública relacionan las tensiones económicas con mayores niveles de ansiedad, insomnio y síntomas depresivos. Parece que el estrés relacionado con la inflación tiene efectos negativos acumulativos sobre el bienestar. No es solo que “llegar a fin de mes” se haya vuelto más difícil: gestionar la inflación se ha convertido en una carga emocional añadida.

¿Podemos reducir la carga emocional del consumo?

Los precios no dependen de las decisiones individuales, pero sí puede mejorarse la forma de gestionarlos psicológicamente. La economía conductual sugiere varias estrategias útiles:

  • Fijar “anclas personales” de precios: decidir de antemano qué consideramos razonable pagar por ciertos bienes (por ejemplo, por un litro de aceite o salir a cenar), reduce la sensación de injusticia en cada compra y evita frustraciones repetidas.

  • Planificar, en lugar de improvisar: establecer presupuestos mensuales y limitar ciertas categorías de gasto disminuyen el dolor de pagar y convierten el gasto en algo esperado y no en una sorpresa desagradable.

  • Retrasar las decisiones de compra no esenciales: introducir una regla de “24 horas de espera” para adquisiciones compulsivas ayuda a desactivar decisiones tomadas bajo estrés o fatiga.

Al final, si la inflación se mide en porcentajes, su impacto emocional se manifiesta en preocupación, cansancio y renuncias cotidianas. Entender que los precios afectan tanto al bolsillo como al bienestar es clave para diseñar políticas económicas sensibles a la experiencia real de los hogares. Y para que, como consumidores, podamos cuidarnos mejor en medio de la incertidumbre.

The Conversation

Luis Manuel Cerdá Suárez no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Inflación emocional: aunque los precios bajen, el malestar al pagar permanece – https://theconversation.com/inflacion-emocional-aunque-los-precios-bajen-el-malestar-al-pagar-permanece-270770

I=I: el mensaje que ha cambiado la prevención del VIH y reducido el estigma

Source: The Conversation – (in Spanish) – By Pablo Ryan Murúa, Especialista en Medicina Interna (Hospital Infanta Leonor). Investigador (CIBERINFEC e IiSGM). Presidente de SEISIDA y Vicepresidente de GEITS. Profesor de Medicina (Facultad de Medicina), Universidad Complutense de Madrid

fizkes/Shutterstock

He aquí uno de los avances más relevantes en la respuesta científica y social frente al virus de la inmunodeficiencia humana (VIH) que, sin embargo aún no es conocido por una parte importante de la población. Se trata de un hecho clave: si una persona que vive con VIH toma su tratamiento y mantiene una carga viral indetectable, no transmite el virus por vía sexual. Este es el significado tras el concepto de “I=I”. Es decir, que indetectable es igual a intransmisible.

A pesar de la importancia de este hecho, todavía existe confusión al respecto. Recientemente en un programa de televisión de ámbito nacional, el programa de TVE La Revuelta, se compartió un mensaje que aseguraba que “todo el mundo con VIH en España es indetectable”. Días después la viróloga Jara Llenas-García puntualizaba en el mismo programa que, para poder decir que “indetectable = intransmisible”, primero la persona haya sido diagnosticada y tratada.

¿Qué significa indetectable?

La carga viral es la cantidad de VIH que circula en la sangre. Con tratamiento antirretroviral esa cantidad disminuye hasta niveles tan bajos que las pruebas de laboratorio habituales no detectan el virus en sangre. A esto lo llamamos “tener una carga viral indetectable”.

En la práctica, cuando el tratamiento se toma de forma constante, la carga viral se vuelve indetectable en los primeros meses y, con una toma regular y continuada se mantiene así a largo plazo.

Estar indetectable no significa que el VIH haya desaparecido del organismo. Significa que el virus está controlado, la salud se protege y, además, no se produce la transmisión sexual.

Indetectable=Instransmisible (I=I) no es un eslogan: es evidencia científica

La afirmación de que el VIH no se transmite por vía sexual cuando la carga viral es indetectable se apoya en más de una década de estudios clínicos y observacionales de alta calidad.

El primer gran punto de inflexión llegó con el ensayo clínico HPTN 052, cuyos resultados se publicaron en 2016. Este estudio se realizó con parejas serodiferentes, en las que solo uno de los miembros vivía con VIH. En el estudio no hubo ninguna transmisión del virus cuando el miembro de la pareja con VIH estaba indetectable tomando su tratamiento.




Leer más:
¿Estamos cerca de derrotar al sida?


Las escasas transmisiones documentadas se dieron exclusivamente cuando la supresión viral aún no se había alcanzado, o cuando el tratamiento había fallado o se había interrumpido.

Este hallazgo fue confirmado y reforzado por tres grandes estudios observacionales diseñados específicamente para detectar transmisiones: PARTNER y PARTNER2 y Opposites Attract que incluyeron en conjunto a parejas serodiferentes, heterosexuales y de hombres que tienen sexo con hombres, en distintos países.

Durante el seguimiento, estas parejas mantuvieron más de 125.000 relaciones sexuales sin preservativo. El resultado fue consistente en todos los estudios: no se observó ninguna transmisión genéticamente vinculada cuando la persona que vivía con VIH estaba indetectable

Desde el punto de vista estadístico, las estimaciones del riesgo de transmisión fueron 0,00 por cada 100 parejas por año, con intervalos de confianza estrechos.

Aquí el lenguaje importa: Hablar de “riesgo casi nulo” no refleja la evidencia de maneja justa y mantiene dudas innecesarias. Los datos permiten, y exigen, un mensaje claro. Indetectable significa intransmisible por vía sexual. Así lo reconocen la OMS, ONUSIDA y los Centros para el Control y Prevención de Enfermedades de Estados Unidos (CDC).

No es una opinión ni una consigna activista, sino uno de los hechos mejor demostrados en la historia de la prevención del VIH.

Dónde aplica I=I (y dónde no)

“Indetectable es igual a intransmisible” se refiere a la transmisión sexual. ONUSIDA lo expresa de forma explícita: con carga viral indetectable sostenida no hay riesgo de transmisión a través de sexo vaginal o anal desprotegido.

Durante el embarazo y el parto, el inicio precoz del tratamiento antirretroviral y la supresión sostenida de la carga viral permiten evitar la transmisión del VIH al bebé.Así, hoy en día, muchas mujeres con VIH tienen hijos sin VIH gracias a estar indetectables por la toma del tratamiento.
En la lactancia materna, el riesgo de transmisión se reduce mucho, aunque no pueda considerarse cero. Disponemos de estudios y revisiones muy recientes, como el metaanálisis publicado en The Lancet en 2025, en el cual se expone que los datos disponibles actualmente son muy tranquilizadores pero escasos. Por eso, las guías a día de hoy recomiendan una decisión compartida en la elección del tipo de lactancia cuando la madre tiene VIH, con un seguimiento estrecho y apoyo continuo.

Tampoco podemos afirmar que haya riesgo cero en otras situaciones como compartir material de inyección o en caso de accidentes con agujas.

Por qué I=I es un mensaje de salud pública

I=I es salud pública porque tratar es prevenir. Cuando el VIH se diagnostica y se trata a tiempo, la transmisión se interrumpe. La mayoría de las nuevas infecciones no proceden de personas con VIH en tratamiento e indetectables, sino de personas no diagnosticadas.

El mensaje es claro: hacerse la prueba y acceder al tratamiento protege a toda la comunidad. Con diagnóstico y seguimiento, el VIH es una infección crónica manejable y, sexualmente, intransmisible.

I=I contra el estigma

I=I no solo ha cambiado la prevención del VIH; también ha transformado el estigma. Durante años, vivir con VIH se ha asociado a ser un riesgo para otras personas. Este mensaje rompe esa idea: una persona con VIH en tratamiento eficaz e indetectable no transmite el virus por vía sexual. Esto tiene un impacto profundo en la autoestima, las relaciones y la vida cotidiana.

La evidencia muestra que la comunicación de I=I se asocia a menor estigma y mayor comprensión del VIH, lo que puede facilitar el acceso a la prueba y la atención, y mejorar el bienestar de las personas y parejas afectadas.

Aun así, ONUSIDA advierte que I=I no debe utilizarse para clasificar a las personas. La carga viral no define el valor de nadie ni puede usarse para estigmatizar, discriminar o criminalizar.

Además, alcanzar y mantener unos niveles indetectables del virus en sangre no siempre depende solo de la persona. Existen factores sociales y de acceso a la atención sanitaria que no podemos obviar. Por eso, el enfoque de salud pública debe ser apoyar y acompañar, nunca señalar.

I=I es ciencia, pero también es derechos y dignidad. Este mensaje nos recuerda que, con acceso al diagnóstico y al tratamiento, las personas que viven con VIH pueden vivir una vida plena. Porque cuidar la salud también es cuidar la dignidad.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. I=I: el mensaje que ha cambiado la prevención del VIH y reducido el estigma – https://theconversation.com/i-i-el-mensaje-que-ha-cambiado-la-prevencion-del-vih-y-reducido-el-estigma-272409

Changement climatique : les stations de ski doivent-elles encore investir dans la production de neige pour s’adapter ?

Source: The Conversation – France (in French) – By Jonathan Cognard, Docteur en économie écologique, Inrae

Face au recul de l’enneigement naturel, la neige de culture est l’outil privilégié par les stations de ski pour sécuriser leurs activités. Mais notre analyse de 56 exploitations de remontées mécaniques alpines sur quinze ans montre que ces investissements n’ont pas eu les effets escomptés. Le bien-fondé économique du soutien public à ces investissements mérite d’être interrogé.


La production de neige, également appelée neige de culture ou neige artificielle, s’est fortement développée ces dernières décennies dans les stations de sports d’hiver. Elle est désormais une pratique courante de gestion de la neige, qui a par le passé facilité l’exploitation des remontées mécaniques face à la variabilité de l’enneigement naturel.

Mais est-il pertinent, d’un point de vue économique, de poursuivre les investissements dans la production de neige pour adapter l’économie des stations de sports d’hiver à la raréfaction de l’enneigement naturel ?

Pour répondre à cette question, nous avons analysé la performance économique de 56 exploitations de remontées mécaniques dans les Alpes françaises entre 2004 et 2019. Nos résultats interrogent la poursuite des investissements dans la production de neige pour adapter l’économie des stations de sports d’hiver au changement climatique.




À lire aussi :
Production de neige : le piège de la dépendance pour les stations de ski ?


La production de neige désormais au cœur du modèle du ski

De fait, l’enneigement naturel varie fortement d’une saison à l’autre. Depuis leur création, les domaines skiables sont confrontés à des hivers d’enneigement variables, les plus difficiles étant qualifiés d’« hiver sans neige ». En raison du changement climatique, la fréquence des hivers bien enneigés diminue et celle des hivers mal enneigés augmente.

Les stations situées à moins de 2000 m d’altitude sont déjà affectées. Dans un scénario avec un réchauffement atteignant +4 °C, il est estimé que 98 % des stations européennes seront exposées à un risque très élevé de déficit d’enneigement naturel. Cette menace sur l’enneigement affecte l’économie des exploitants de domaines skiables, ainsi que plus largement l’avenir de l’économie des territoires qui en dépendent.

La production de neige s’est généralisée dans les domaines skiables à partir des années 1990 afin d’accompagner l’enneigement naturel, et a effectivement permis d’atténuer l’impact des hivers mal enneigés. Plus récemment, son recours s’est fortement intensifié afin de continuer à sécuriser l’enneigement – et de préserver la rentabilité de l’exploitation des remontées mécaniques – face à la raréfaction de l’enneigement naturel dans le contexte du changement climatique. Cela implique d’importants investissements, en partie financés avec de l’argent public.

En France, la proportion de pistes de ski équipées pour la production de neige est passée d’environ 14 % en 2004 à 39 % en 2018. Cette dynamique illustre le changement de rôle donné à la production de neige : d’un accompagnement de l’enneigement naturel, elle est devenue la principale stratégie d’adaptation du tourisme hivernal au changement climatique.




À lire aussi :
Pourra-t-on encore skier en Europe dans un monde à +2 °C ?


Poursuivre ces investissements permet-il aux remontées mécaniques de rester rentables ?

Est-il pertinent, pour l’adaptation de l’économie des stations de sports d’hiver, de poursuivre ces investissements ? Pour le savoir, notre étude de 2024 s’est intéressée aux effets des investissements réalisés dans les équipements de production de neige sur deux indicateurs financiers clés des exploitants de remontées mécaniques : le CA (chiffre d’affaires) et l’EBE (excédent brut d’exploitation).

L’EBE donne un aperçu de la rentabilité économique qu’a une entreprise de par son activité. L’analyse a porté sur un panel de 56 stations situées dans les Alpes françaises, couvrant 15 saisons consécutives de 2004/05 à 2018/19. Ces stations, de taille moyenne à très grande, sont gérées par des exploitants de droit privé, dans le cadre d’une délégation de service public.

Localisation des stations étudiées.
Fourni par l’auteur

Pour mesurer l’effet des investissements dans la production de neige, nous avons utilisé des méthodes économétriques permettant d’analyser leur effet spécifique en isolant l’effet des investissements dans la production de neige des autres facteurs influençant l’économie des stations, par exemple l’altitude de la station, sa taille ou encore sa proximité vis-à-vis des agglomérations urbaines. Cela nous a permis d’établir des liens de causalité, plutôt que de simples corrélations.

Qu’en est-il ? Nos résultats montrent que les investissements réalisés durant la période d’observation n’ont pas eu d’effets significatifs sur les CA ou EBE des entreprises gestionnaires de domaines skiables. Cette absence de relation a été observée en particulier lors des saisons les moins bien enneigées, soit les 20 % des saisons avec le plus faible enneigement naturel.

Le meilleur atout des stations ? L’altitude

À l’inverse, au cours des saisons les plus déficitaires en neige naturelle de la période étudiée, les stations situées en altitude ont bénéficié d’un avantage comparatif, ce qui contraste avec les plus importants investissements réalisés dans la production de neige qui ne se sont pas traduits par une amélioration significative de leur performance économique.

Ces résultats peuvent sembler surprenants, compte tenu de la confiance accordée à ces investissements. Ils corroborent pourtant l’état des connaissances scientifiques sur le sujet.

En effet, dès 2003, une étude canadienne suggérait que la poursuite des investissements dans la production de neige pourrait devenir non-rentable au-delà d’un certain seuil où le surcoût dépasse les gains économiques. Des travaux réalisés en 2008, 2013 et 2016 ont démontré, en France comme en Suisse, que l’intérêt économique de ces investissements était positif mais diminuait progressivement. Plus récemment, une étude menée en Espagne en 2020 a démontré, tout comme notre étude, que les derniers investissements réalisés n’ont pas eu d’effets significatifs sur la profitabilité des exploitants de remontées mécaniques.

Ces conclusions n’invitent pas nécessairement à cesser de produire de la neige dans les stations de sports d’hiver.

Elles interrogent toutefois la pertinence de poursuivre les investissements dans ces équipements, dont l’efficacité comme stratégie de long terme pour maintenir la rentabilité des stations de ski apparaît insuffisante face aux évolutions climatiques.




À lire aussi :
Apocalypse snow : quand l’économie française du ski file tout schuss vers l’abîme


The Conversation

La thèse de Jonathan Cognard a reçu des financements de l’Agence de l’eau RMC et du LabEx ITTEM.

Lucas Berard-Chenu a reçu des financements de diverses organisations publiques dans le cadre de ses projets de recherche

ref. Changement climatique : les stations de ski doivent-elles encore investir dans la production de neige pour s’adapter ? – https://theconversation.com/changement-climatique-les-stations-de-ski-doivent-elles-encore-investir-dans-la-production-de-neige-pour-sadapter-271798

Street food in Mombasa: how city life shaped the modern meal

Source: The Conversation – Africa – By Devin Smart, Assistant Professor, Department of History, West Virginia University

Chapati can be made on the street and paired with meat and vegetables. Ssemmanda Will/Wikimedia Commons, CC BY-SA

As Kenya’s cities grew, more and more people left their rural homes and subsistence farming systems to go to urban settlements like Mombasa to find work. In the city, meals were paid for with cash, a major transformation in Kenya’s food systems.

A new book called Preparing the Modern Meal is an urban history that explores these processes. We asked historian Devin Smart about his study.


What’s the colonial history of Mombasa?

At the turn of the 20th century, the British were expanding their empire throughout sub-Saharan Africa, including the parts of east Africa that would become Kenya.

They built a railway that connected the port town of Mombasa on the Indian Ocean coast with the newly established Protectorate of Uganda in the interior. This created the foundations of the colonial economy and drove urbanisation.

While Nairobi grew in the Kenyan highlands, Mombasa became the most important port in east Africa. The city grew fast as people came to work at the railway, docks and in other parts of the urban economy.

After independence in 1963, cities like Mombasa carried on growing rapidly and more and more people started working in the informal sector, which included making and selling street food.

How did rural people get their food?

During the early 1900s, the cuisines of east Africa’s agrarian (farming) societies were mostly vegetarian. Much of the food people ate was grown in their own fields, though there were also regional markets.

These communities grew lots of staple crops like sorghum, millet, maize, bananas, cassava, and sweet potatoes. They also had legumes, greens, and dairy products as regular parts of their meals.

These ingredients were prepared into a variety of dishes, like the Kikuyu staple irio, a mash of bananas with maize kernels and legumes added to it. The Kamba often ate isio, a combination of beans and maize kernels, while the Luo who lived along the shores of Lake Victoria regularly included a dish called kuon as part of their cuisine. It’s a thick porridge of boiled milled grain (often millet), eaten with fish or vegetables to add contrasting flavours and textures.

In these communities, the daily meal was also defined by seasonal variety. Food changed depending on what was being harvested or what stores of ingredients were dwindling. These were also gendered food systems, with women doing much of the farming work and nearly all the cooking.

In my book, I consider the dramatic changes in how east Africans came by their food when they left these rural food systems for the city.

How was food organised in the city?

In Mombasa, they entered a food system organised around commercial exchange. My study is about Kenya, but the story it reflects is one that’s unfolded on a global scale. The shift from subsistence to commodified food systems, from growing your own to buying it from others, has been one of the central features of the modern world.

By the 1930s, most people in Mombasa bought nearly all their food with cash, visiting small dried-goods grocers, fresh-produce vendors, and working-class eateries. In this urban food system, the seasonal variety of rural cuisines was increasingly replaced by the regularity of commercial supply chains.

A hand holds a folded flatbread above a plate of rice and beans.
Pilau, beans and chapati.
Teddykip/Wikimedia Commons, CC BY

This was especially the case with staple grains. In the countryside, people ate a variety of grains, but in Mombasa maize meal and wheat became daily staples eaten year-round, transforming east African foodways.

Migration also changed domestic labour in the kitchen. Many migrant men now lived in homes without women, which meant they had to prepare their own food, often for significant periods of their lives.

However, the idea that cooking was the work of women proved enduring. When women joined these households in the city, they again prepared the family’s meals.

How did street food emerge?

By the 1930s, Mombasa had a fast-growing working class. The majority of the town’s workers spent their days in the industrial district, around the railway and port. Many also had to commute a considerable distance to work.

With the long working day of urban capitalism, returning home for a filling lunch wasn’t practical, which created strong demand for affordable prepared food at midday. As this was happening, many in the city also struggled to find consistent jobs and turned to informal trades like street food to earn a living.

This convergence of supply and demand led to the rapid growth of the street food industry around the 1950s, with people opening eateries in makeshift structures outside the gates to the port and in nearby alleyways, parks, and other open spaces.

What kind of food was served?

At these working-class food spots, a popular dish was chapati, an east African version of the South Asian flatbread. People could complement it with beans, meat, or fried fish, along with githeri, a mixture of maize kernels and beans (similar to isio).

In later decades, ugali, the ubiquitous Kenyan staple made from maize meal, became more common at street food eateries, as did Swahili versions of Indian Ocean dishes like pilau (aromatic rice with meat) and biryani (rice with meat braised in a spice-infused tomato sauce).

How were street food vendors policed?

The business model that made street food work in Mombasa’s economy also brought these vendors into regular conflict with the city’s administration. Street food vendors kept overheads and thus prices low because they avoided rents and licensing fees by squatting on open land in makeshift structures.

But, in an era of urban development and modernisation, many officials desired a different kind of city, one without this kind of informal land use and architecture. Authorities began campaigns to remove these businesses from Mombasa’s landscape, arresting vendors and demolishing their structures.

This also created a tension, though, because the city’s workers, including those at the port and railway who ran the most important transportation choke point in east Africa’s regional economy, needed affordable meals at lunch.

Given that informal trade had become essential to Mombasa’s economy, there were limits on how far these campaigns could be pushed. However, arrests and demolitions did still occur, and sometimes on a dramatic, city-wide scale, which made street food a precarious way to earn a living in Kenya’s port town.

For example, in 2001, the Kenyan government launched a massive demolition campaign to clear informal business structures from city sidewalks, parks and open spaces.

After the demolitions, many rebuilt and reopened their street food businesses, but in less visible parts of town and on side streets rather than main roads. Today, these eateries remain an essential part of Mombasa’s economy and food system.

What do you hope readers will take away from the book?

I hope that readers will see how food history helps us understand the ways that capitalism transformed the modern world.

The regional focus of the book is east Africa, but it explores themes relevant to the history of capitalism more generally, including the gendered division of household labour, the commercialisation of everyday needs and wants, and the political and economic struggles of working-class communities to find space for themselves in modern cities.

The Conversation

The research for this book was supported with funding from the University of Illinois at Urbana-Champaign and West Virginia University.

ref. Street food in Mombasa: how city life shaped the modern meal – https://theconversation.com/street-food-in-mombasa-how-city-life-shaped-the-modern-meal-266590