Source: The Conversation – (in Spanish) – By Eneko Sanchez Mencia, Profesor de Ciencias de la Actividad Física y el Deporte Universidad de Deusto, Universidad de Deusto
Estos sucesos no son casualidad: muestran cómo algo tan apasionante como el deporte puede convertirse en un espacio de tensión y conflicto.
No se trata de episodios aislados, sino señales de un problema que mezcla identidad, pertenencia, rivalidad y falta de control. Lo que debería ser una celebración deportiva acaba convirtiéndose, demasiadas veces, en un escenario de confrontación.
El fútbol, como otros deportes de masas, no vive al margen de la sociedad. Lo que ocurre en los estadios, en las gradas o durante los desplazamientos masivos de hinchas, no puede entenderse sin observar lo que sucede fuera: una sociedad polarizada, emocionalmente desbordada y donde el conflicto parece cada vez más normalizado. En las gradas, la pasión se multiplica y, a veces, se desborda.
¿En qué momento la emoción que nos une empezó a ser también la que nos separa?
Pasión y conflicto en el campo
En el fútbol, la pasión no solo se siente: se comparte, se grita y se convierte en parte de quienes somos. Animar a un equipo no es solo seguir unos colores, sino formar parte de algo más grande, de un “nosotros” que da sentido y pertenencia. En muchos casos, ese sentimiento llega a llenar vacíos de reconocimiento o de comunidad que nuestro día a día no siempre ofrece.
Como explica un análisis sociológico sobre la cultura futbolística española, esta mezcla de emoción, pertenencia y conflicto complica las cosas. Hace que el estadio sea además de lo deportivo, un escenario donde también se expresan frustraciones y deseos de reconocimiento.
El problema aparece cuando esa identidad se construye en oposición al otro: el equipo rival deja de ser un adversario deportivo y pasa a verse como una amenaza. Lo que empezó siendo una expresión de emoción y orgullo se convierte en un espacio de enfrentamiento donde la rivalidad pesa más que el propio juego.
La violencia se previene, no se castiga
Los datos de la Comisión Estatal contra la Violencia, el Racismo, la Xenofobia y la Intolerancia en el Deporte muestran que, a pesar de los esfuerzos institucionales, los incidentes en los estadios españoles se mantienen estables. La mayoría no implica agresiones físicas, pero la violencia verbal, simbólica y discriminatoria (insultos, humillaciones o cánticos ofensivos) sigue siendo habitual. Es la parte más invisible de la violencia, pero también la más normalizada. Castigar ayuda a frenar, pero no a cambiar.
Para encontrar soluciones hay que mirar más allá de las sanciones. En otros países ya se están probando enfoques diferentes. En Suecia, el equipo del investigador Clifford Stott, de la Universidad de Keele, vio que el diálogo con los aficionados ayuda a reducir los conflictos. Lo hacen a través de personas mediadoras, llamadas Supporter Liaison Officers –oficiales de enlace con los aficionados–, que escuchan, orientan y crean puentes entre hinchas y autoridades. No se trata de vigilar más, sino de escuchar mejor.
Educar la emoción
La violencia en el fútbol no empieza en los estadios, sino mucho antes. Nace en la forma en que enseñamos a competir, en los modelos que mostramos y en cómo aprendemos a gestionar la frustración.
En España también se están dando pasos. Algunos programas educativos y comunitarios promueven la convivencia y el respeto, sobre todo en el deporte base. Aun así, estudios recientes muestran que la violencia verbal y simbólica sigue presente incluso en las categorías infantiles. La presión por ganar, la falta de modelos positivos y la ausencia de formación emocional hacen que esos comportamientos se repitan desde edades muy tempranas.
Por eso, la solución no pasa solo por reforzar la seguridad, sino por educar la emoción. Los clubes, las escuelas y las familias tienen un papel clave. Enseñar a competir también significa enseñar a respetar, a perder y a controlar la rabia.
Los clubes y las federaciones deberían asumir un papel activo como agentes de transformación social. Invertir en formación, mediación y campañas de convivencia no es un gasto sino una inversión en salud pública y cohesión social.
Los medios de comunicación también tienen su parte. Cuando priorizan el espectáculo del conflicto, refuerzan la narrativa de la violencia. Mostrar referentes positivos, diversidad y respeto sería un paso mucho más poderoso hacia el cambio cultural que necesitamos.
La violencia ultra no es solo responsabilidad de unos pocos radicales. Es el reflejo de cómo entendemos la pasión, el éxito y la rivalidad. Si queremos que el fútbol vuelva a ser un espacio de unión, debemos empezar fuera de los estadios: en las aulas, en los barrios, en los clubes. Solo así podremos transformar la pasión en convivencia y la rivalidad en respeto.
Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.
Source: The Conversation – Canada – By Denise Suzanne Cloutier, Professor, Health Geography and Social Gerontology, University of Victoria
With Canadians now living longer than ever, the question of who will care for them — and under what conditions — when they can no longer care for themselves has become one of the country’s most pressing issues.
According to 2021 census data, the population aged 85 and over and 100 and over are growing at rates much faster than other population cohorts.
And the reality is that the longer we live, the more likely we are to experience chronic, multiple and complex health conditions like hypertension, osteoarthritis, heart disease, osteoporosis, chronic pulmonary disease, diabetes, cancer and dementia.
While most older people will continue to “age in place” in their own homes and in relatively good health, about eight per cent, or roughly 528,000, will require the specialized care provided in long-term care (LTC) or assisted living facilities.
As the demand for long-term care grows, Canada is simultaneously witnessing an exodus of LTC workers through retirement or by seeking employment elsewhere due to chronic and sustained sector challenges, including lack of funding and the lingering impacts of the COVID-19 pandemic.
Roughly 14 per cent of the Canadian health-care workforce, or just over 50,000 people, are engaged in LTC. This number does not include every member of the care team but does include those who spend the most time providing care at residents’ bedsides.
These practitioners include personal support workers, licensed practical nurses (LPNs), registered nurses (RNs), nurse practitioners and occupational and physiotherapists — most of whom are racially diverse and female. Many feel overwhelmed and unheard.
Caring for the care providers
It is a well-worn but still valid cliché to say the pandemic shone a spotlight on longstanding challenges within LTC, including rising privatization trends and rigid hierarchical organizational structures.
During and after the pandemic, workers said they felt pulled in all directions. Overtime hours, absenteeism, mental-health issues and sick time escalated as staff performed dual roles as both workers and acting family members due to restrictive distancing protocols.
In the same year, a government consultation aimed at developing national standards for quality of care and safety in LTC reported that LPNs, aides and allied health professionals were calling for action on working conditions, emphasizing the importance of job stability, equitable wages, training, advancement opportunities, reasonable workloads and limits on mandatory overtime in support of their health, well-being and job satisfaction.
Sociologist Pat Armstrong, a leading Canadian expert in transforming care for older adults, has said that “the conditions of work are the conditions of care.” This is a poignant reminder of the critical relationship between workers and each LTC environment in the care of residents.
Her words underline a hard truth — without attending to this relationship adequately, the level of care for residents becomes compromised.
A new model for aging well with dignity
The costs of providing LTC in large-facility settings bear further scrutiny.
A 2021 survey of about 2,000 Canadians conducted by Ipsos and reported by the Canadian Medical Association noted that 97 per cent of those aged 65 and over are concerned about the state of Canada’s LTC system. Over 95 per cent of those same seniors said they will do everything they can to avoid moving into a LTC home.
Older people want to remain at home for as long as possible. But when they cannot, a growing global movement advocates for the development of smaller, less institutional, more home-like environments, including dementia-friendly communities, to care for older people, especially those living with dementia.
These new models are expanding across Canada, based on the De Hogeweyk Care Concept developed in the Netherlands in the 1990s, with the first village established in 2009. These villages offer settings that support social interaction and engagement in everyday life, provide access to outdoor spaces and gardens and help people retain dignity and autonomy for as long as possible.
Evidence is growing that these inclusive, age-friendly, home-like settings not only give residents a greater sense of comfort, control and autonomy; they also also provide an environment for direct-care workers to thrive and do meaningful work that makes a difference in their lives and in the daily lives of those they care for.
Creating environments that better support the conditions of care — quality of life for residents and workers, and having care labour recognized, respected and adequately remunerated across all sectors, with opportunities for training and career advancement — will encourage long-time workers to remain in the sector and help ensure that new health-care graduates continue to see LTC as a viable and rewarding career path.
If Canada wants to ensure dignity in aging, it must treat care work as essential infrastructure.
Denise Suzanne Cloutier is part of the C.A.R.I.N.G Dementia Collaborative funded by the University of Victoria, Aspiration 2030 initiative.
Source: The Conversation – France in French (3) – By Jean-Loup Richet, Maître de conférences et co-directeur de la Chaire Risques, IAE Paris – Sorbonne Business School; Université Paris 1 Panthéon-Sorbonne
Portées par la popularité de Yuka ou d’Open Food Facts, les applications de scan alimentaire connaissent un réel engouement. Une étude analyse les ressorts du succès de ces outils numériques qui fournissent des informations nutritionnelles perçues comme plus indépendantes que celles présentes sur les emballages et délivrées soit par les pouvoirs publics (par exemple, l’échelle Nutri-Score) soit par les marques.
La confiance du public envers les autorités et les grands industriels de l’alimentaire s’érode, et un phénomène en témoigne : le succès fulgurant des applications de scan alimentaire. Ces outils numériques, tels que Yuka ou Open Food Facts, proposent une alternative aux étiquettes nutritionnelles officielles en évaluant les produits au moyen de données collaboratives ouvertes ; elles sont ainsi perçues comme plus indépendantes que les systèmes officiels.
Une enquête autour des sources d’information nutritionnelle
La source de l’information apparaît essentielle à l’ère de la méfiance. C’est ce que confirme notre enquête publiée dans Psychology & Marketing. Dans une première phase exploratoire, 86 personnes ont été interrogées autour de leurs usages d’applications de scan alimentaire, ce qui nous a permis de confirmer l’engouement pour l’appli Yuka.
Nous avons ensuite mené une analyse quantitative du contenu de plus de 16 000 avis en ligne concernant spécifiquement Yuka et, enfin, mesuré l’effet de deux types de signaux nutritionnels (soit apposés sur le devant des emballages type Nutri-Score, soit obtenus à l’aide d’une application de scan des aliments comme Yuka).
Les résultats de notre enquête révèlent que 77 % des participants associent les labels nutritionnels officiels (comme le Nutri-Score) aux grands acteurs de l’industrie agroalimentaire, tandis qu’ils ne sont que 27 % à percevoir les applis de scan comme émanant de ces dominants.
À noter que cette perception peut être éloignée de la réalité. Le Nutri-Score, par exemple, n’est pas affilié aux marques de la grande distribution. Il a été développé par le ministère français de la santé qui s’est appuyé sur les travaux d’une équipe de recherche publique ainsi que sur l’expertise de l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) et du Haut Conseil de la santé publique (HCSP).
C’est quoi, le Nutri-Score ?
Le Nutri-Score est un logo apposé, sur la base du volontariat, sur l’emballage de produits alimentaires pour informer le consommateur sur leur qualité nutritionnelle.
L’évaluation s’appuie sur une échelle de cinq couleurs allant du vert foncé au orange foncé. Chaque couleur est associée à une lettre, de A à E.
La note est attribuée en fonction des nutriments et aliments à favoriser dans le produit pour leurs qualités nutritionnelles (fibres, protéines, fruits, légumes, légumes secs) et de ceux à éviter (énergie, acides gras saturés, sucres, sel et édulcorants pour les boissons).
De son côté, la base de données Open Food Facts (créée en France en 2012, ndlr) apparaît comme un projet collaboratif avec, aux manettes, une association à but non lucratif. Quant à l’application Yuka, elle a été créée par une start-up.
Des applis nutritionnelles perçues comme plus indépendantes
Ces applications sont vues comme liées à de plus petites entités qui, de ce fait, apparaissent comme plus indépendantes. Cette différence de perception de la source engendre un véritable fossé de confiance entre les deux types de signaux. Les consommateurs les plus défiants se montrent plus enclins à se fier à une application indépendante qu’à une étiquette apposée par l’industrie ou par le gouvernement (Nutri-Score), accordant ainsi un avantage de confiance aux premières.
Ce phénomène, comparable à un effet « David contre Goliath », illustre la manière dont la défiance envers, à la fois, les autorités publiques et les grandes entreprises alimente le succès de solutions perçues comme plus neutres. Plus largement, dans un climat où rumeurs et désinformation prospèrent, beaucoup préfèrent la transparence perçue d’une application citoyenne aux communications officielles.
Dimension participative et « volet militant »
Outre la question de la confiance, l’attrait des applications de scan tient aussi à l’empowerment ou empouvoirement (autonomisation) qu’elles procurent aux utilisateurs. L’empowerment du consommateur se traduit par un sentiment accru de contrôle, une meilleure compréhension de son environnement et une participation plus active aux décisions. En scannant un produit pour obtenir instantanément une évaluation, le citoyen reprend la main sur son alimentation au lieu de subir passivement l’information fournie par le fabricant.
Cette dimension participative a même un volet qui apparaît militant : Yuka, par exemple, est souvent présentée comme l’arme du « petit consommateur » contre le « géant agro-industriel ». Ce faisant, les applications de scan contribuent à autonomiser les consommateurs qui peuvent ainsi défier les messages marketing et exiger des comptes sur la qualité des produits.
Des questions de gouvernance algorithmique
Néanmoins, cet empowerment s’accompagne de nouvelles questions de gouvernance algorithmique. En effet, le pouvoir d’évaluer les produits bascule des acteurs traditionnels vers ces plateformes et leurs algorithmes. Qui définit les critères du score nutritionnel ? Quelle transparence sur la méthode de calcul ? Ces applications concentrent un pouvoir informationnel grandissant : elles peuvent, d’un simple score, influer sur l’image d’une marque, notamment celles à la notoriété modeste qui ne peuvent contrer une mauvaise note nutritionnelle.
Garantir la sécurité et l’intégrité de l’information qu’elles fournissent devient dès lors un enjeu essentiel. À mesure que le public place sa confiance dans ces nouveaux outils, il importe de s’assurer que leurs algorithmes restent fiables, impartiaux et responsables. Faute de quoi, l’espoir d’une consommation mieux informée pourrait être trahi par un excès de pouvoir technologique non contrôlé.
La montée en puissance des applications de scan alimentaire est le reflet d’une perte de confiance envers les institutions, mais aussi d’une aspiration à une information plus transparente et participative. Loin d’être de simples gadgets, ces applis peuvent servir de complément utile aux politiques de santé publique (et non s’y substituer !) pour reconstruire la confiance avec le consommateur.
En redonnant du pouvoir au citoyen tout en encadrant rigoureusement la fiabilité des algorithmes, il est possible de conjuguer innovation numérique et intérêt général. Réconcilier information indépendante et gouvernance responsable jouera un rôle clé pour que, demain, confiance et choix éclairés aillent de pair.
Marie-Eve Laporte a reçu des financements de l’Agence nationale de la recherche (ANR).
Béatrice Parguel, Camille Cornudet, Fabienne Berger-Remy et Jean-Loup Richet ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.
Concerns about labour conditions are not new. Since the late 1990s, student activism has led many universities to adopt codes of conduct for licenses for upholding workers’ labour rights. However, finding out if these rights were actually being upheld was challenging.
Because of this, the student anti-sweatshop movement pressed for independent monitoring. In 2000, United Students Against Sweatshops established the Worker Rights Consortium (WRC), an independent organization that was initially set up to help colleges and universities enforce their manufacturing codes of conduct. It also performs independent investigations for other organizations and companies when asked to do so.
Unlike most corporate social auditors, the WRC is the only independent organization serving the university community that isn’t affiliated with the apparel industry.
It investigates factories based on worker testimonies. These investigations can be triggered by reports from universities, workers or local non-governmental organizations. Investigations are designed to ensure transparency through public reporting, and the WRC works with apparel brands and factories to secure remediation.
In the aftermath, the WRC helped implement and enforce the Bangladesh Accord on Fire and Building Safety, a five-year independent, legally binding agreement between global brands, retailers and trade unions to build a safe Bangladeshi garment industry. Reports of the accord show significant improvements in fire and building safety.
This work shows that reducing and addressing labour abuse in global garment chains is possible. The WRC’s success stems from its institutional features that enhance its legitimacy: independence from unions and corporations, its investigative nature and its focus on workers.
Why university participation matters
University affiliation is crucial for the WRC’s success. While many universities have signed on, the number of affiliates has declined from 186 in 2010 to 154 in 2025.
To become an affiliate, a university must adopt a manufacturing code of conduct, incorporate it into contracts with apparel companies, share a list of factories involved in producing their merchandise and pay an annual affiliation fee.
Only six Canadian universities are affiliates: McGill University, Queen’s University, Thompson Rivers University, the University of Guelph, the University of Winnipeg and the University of Toronto. McMaster University, where I taught in the School of Labour Studies until this year, recently withdrew after 23 years.
For Canadian universities that market themselves as global citizens and champions of the sustainable development goals, affiliation should be seen as a moral obligations. By choosing to become an affiliate, universities demonstrate their commitment to protecting the rights of workers producing the apparel and goods that carry their names.
Judy Fudge receives funding from the Social Sciences and Humanities Research Council.
Source: The Conversation – (in Spanish) – By Alicia Mariscal, Profesora del Área de Lingüística General y miembro del Instituto de Investigación en Lingüística Aplicada (ILA), Universidad de Cádiz
Los padres de María acaban de cambiar de domicilio y ella ha sido escolarizada en un nuevo centro. Tiene 12 años y aún no conoce a nadie, pero viene con ganas de hacer nuevas amistades. Sin embargo, no le resulta fácil. El grupo de niñas de su clase está muy jerarquizado y aquellas que lo lideran parecen poco dispuestas a aceptarla.
Los comentarios jocosos, las miradas y los gestos desagradables hacen que María no se sienta integrada. No hay ningún ataque directo, pero las burlas y cuchicheos son frecuentes. Cuando en clase hay que hacer grupos, nadie se quiere poner con ella y, en el recreo, aunque sí la dejan participar, se cambian las reglas del juego para perjudicarla.
¿Cómo puede determinar su familia si se trata de una situación de acoso? A María no la han amenazado abiertamente; tampoco es fácil definir las actitudes de desprecio o exclusión que van minando su confianza día a día. La frontera entre una broma inocente y una situación sostenida en el tiempo con intención de aislar o hacer sufrir es, a veces, difícil de establecer desde fuera. Por eso, es importante determinar la constancia y el efecto psicológico en la víctima para poder tomar medidas.
¿Por qué lo llamamos acoso?
El verbo acosar procede del latín cursus, que significaba originariamente “carrera”, y este de la raíz indoeuropea kers- (“correr”). Aunque aún mantiene ese sentido inicial de “correr detrás de alguien”, ya que la RAE lo define como “perseguir, sin darle tregua ni reposo, a un animal o a una persona”, presenta actualmente otras connotaciones negativas adicionales, en el sentido de “apremiar de forma insistente a alguien con molestias o requerimientos”.
Para que exista acoso, este debe ser intencional y realizado de forma continuada por aquellos que se consideran superiores a la víctima. En otras palabras, al acosar los abusos se centran en un supuesto desequilibrio de poder.
Ataques por medio del lenguaje
A veces el acoso escolar no supone un acto de discriminación hacia las personas que son percibidas como diferentes, sino como un tipo de violencia psicológica que los acosadores dirigen hacia sus iguales.
Se trata de situaciones que no se limitan al uso de la fuerza o la violencia física, sino en las que se recurre al lenguaje para atacar, angustiar a la víctima y hacerla sentir inferior, y resultan mucho más difíciles de detectar que los golpes y moratones.
Esto puede llevar a la somatización, cuando la víctima anticipa que le va a ocurrir de nuevo y entra en un continuo estado de alerta y ansiedad. Por ejemplo, María ya acude al colegio nerviosa y preocupada, independientemente de si ese día recibe algún ataque. También a la rendición, cuando se siente incapaz de controlar la situación, deja de defenderse y adopta una actitud pasiva ante el acoso.
La violencia psicológica
El acoso infantil y juvenil llevado a cabo a través de las palabras, ya sean estas orales o escritas, consiste en el menosprecio y la denigración repetida de la víctima por medio de insultos, burlas, humillaciones, críticas destructivas y comentarios despectivos e hirientes.
Este tipo de acoso verbal puede conllevar también la difusión de mentiras, que sirven para difamar a la víctima o a su familia. Además, se acompañan con frecuencia de otros comportamientos no verbales que implican otras formas de violencia de carácter físico, psicológico (por ejemplo, por medio del silencio hostil y la privación de afecto) o social (mediante el aislamiento y la exclusión de la víctima): estas dos últimas serían aplicables al caso de María.
El chantaje emocional
Además de la descortesía efectuada a través del lenguaje, el acosador suele apelar al miedo para manipular a la víctima y someterla a su voluntad. Para ello, recurren a un tipo de chantaje emocional conocido como “castigador”, basado en amenazas: algunas explícitas y otras más implícitas.
Estas agresiones verbales malintencionadas suelen producirse de forma repetida, hasta que la víctima acaba desarrollando un estado de “vulnerabilidad aprendida”, caracterizada por la “pasividad, ansiedad y depresión que aparece cuando una persona piensa que no puede controlar su entorno, que está a merced de los acontecimientos o que sus acciones no producen los efectos esperados”.
Rechazo familiar y escolar
La Asociación Española para la Prevención del Acoso Escolar recomienda a las familias la creación de un clima de confianza, que permita a los hijos compartir sus problemas y preocupaciones. También recalca la importancia de la observación permanente “ante posibles señales que puedan alertarnos de que se está produciendo acoso: disminución del rendimiento escolar, pérdida o sustracción de material escolar, repentinos cambios de humor, temor a ir al colegio, insomnio o lesiones físicas”.
Esta lacra social a veces se produce a escondidas del profesorado, de manera que puede pasar desapercibida en los centros educativos. Por eso, la prevención desde los primeros niveles de escolarización resulta fundamental para favorecer las relaciones simétricas y el respeto mutuo.
Se trata de construir un estilo de comunicación asertivo y empático entre los estudiantes, así como entre estos y sus docentes, para que el alumnado se sienta seguro al contar a sus profesores cualquier situación de violencia de la que sean testigos, ya sean verbales o no verbales, directas o más sutiles.
Si en el centro educativo se identifica un posible caso de acoso, se deben seguir estrictamente y de forma inmediata los correspondientes protocolos de actuación e intervención, en estrecha colaboración con las familias, para poner freno al acoso lo antes posible tanto dentro como fuera del aula.
Para que exista una educación de calidad, hemos de contrarrestar el acoso escolar —y los efectos psicológicos tan destructivos que produce en las personas que lo sufren— con valores que favorezcan la convivencia y luchar contra toda forma de violencia social, incluida la ejercida a través del lenguaje.
Alicia Mariscal no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.
Source: The Conversation – (in Spanish) – By Fernando Valladares, Profesor de Investigación en el Departamento de Biogeografía y Cambio Global, Museo Nacional de Ciencias Naturales (MNCN-CSIC)
Nuestro planeta bate más de un centenar de récords climáticos cada año, con sequías, incendios, huracanes y heladas nunca antes registradas. Mientras tanto, hay personas que acumulan mayores riquezas que ningún emperador de la historia, números asombrosos de personas que sufren y mueren de hambre mientras producimos el doble de la comida necesaria para alimentarnos, crecientes conflictos por el agua, migraciones desesperadas que no son bien recibidas y pueblos originarios que son ignorados no ya al reclamar lo que es suyo, sino al denunciar la insostenibilidad de la relación del norte global con la naturaleza.
Una muestra de todo esto se dará cita en noviembre de 2025 en Brasil en la COP30, la trigésima cumbre del clima de Naciones Unidas. En ella se congregarán los líderes mundiales con el objetivo de tomar medidas para mitigar el calentamiento global y adaptarnos a él.
Los contrastes de la COP30
Como en otras cumbres climáticas, aunque en esta de manera más evidente al celebrarse en Brasil, el evento es el reflejo de las contradicciones del mundo en el que vivimos.
Mientras algunos participantes llegarán en barco siguiendo el curso del río Amazonas, otros lo harán en sus aviones privados. Mientras a unos les preocupa del cambio climático cómo mantener su modelo de negocio y sus desmesurados beneficios trimestrales, a otros les preocupa cómo sobrevivir a la próxima ola de calor y a la crisis de las cosechas.
Los lobbies de las empresas más contaminantes, fundamentalmente la media docena de grandes petroleras y todas sus derivadas, volverán a ser la representación más numerosa y también la más eficaz a la hora de neutralizar cualquier posible acuerdo para desembarazarnos de los combustibles fósiles.
En un momento histórico en el que el país que más ha hecho por alterar el clima con sus emisiones, Estados Unidos, se desvincula del Acuerdo de París y no estará presente en esta COP, cientos de científicos del clima nos harán sentir miedo y miles de representantes de pueblos indígenas nos harán sentir vergüenza. Miedo por los escenarios climáticos inseguros por los que ya estamos transitando y vergüenza por la más que discreta acción climática de unas décadas cargadas tan solo de buenos propósitos.
Isabel Prestes da Fonseca, representante de la comunidad indígena brasileña, durante la Conferencia de las Naciones Unidas sobre el Cambio Climático COP28, celebrada en Dubái (Emiratos Árabes Unidos) el 1 de diciembre de 2023. COP28/Christophe Viseux/Flickr, CC BY-NC-SA
La mayor parte del resto del calentamiento se debió a la restricción de las emisiones de aerosoles por parte de los buques, impuesta en 2020 por la Organización Marítima Internacional para combatir el efecto de los contaminantes de aerosoles en la salud humana.
Los aerosoles son pequeñas partículas que aumentan la extensión y el brillo de las nubes, que reflejan la luz solar y tienen un efecto refrigerante sobre la Tierra. Cuando se reducen –y, por tanto, las nubes–, la Tierra se oscurece y absorbe más luz solar, lo que aumenta el calentamiento global. El enfriamiento por aerosoles y, por lo tanto, la sensibilidad climática, ha sido subestimada en los análisis del Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC) de las Naciones Unidas.
El calentamiento global causado por la reducción de los aerosoles de los barcos no desaparece cuando el clima tropical entra en su fase fría de La Niña. Por lo tanto, la temperatura global no desciende mucho por debajo del nivel de 1,5 °C de calentamiento establecido como límite seguro en el Acuerdo de París, sino que oscila cerca o por encima de ese nivel.
Las altas temperaturas de la superficie del mar y el aumento de los puntos calientes oceánicos continuarán, con efectos nocivos para los arrecifes de coral y otras formas de vida marina. La mayor consecuencia para los seres humanos en la actualidad es el aumento de la frecuencia y la gravedad de los fenómenos climáticos extremos, como tormentas, inundaciones, olas de calor y sequías.
El cambio climático polar tiene el mayor efecto a largo plazo sobre la humanidad, y sus repercusiones se ven aceleradas por el aumento de la temperatura global. Como resultado del deshielo, es altamente probable que la circulación meridional de retorno del Atlántico (AMOC) se detenga en los próximos 20-30 años algo no incluido en el último informe del IPCC. Tomar medidas radicales para reducir el calentamiento global podría evitarlo.
Si se permite que la AMOC se detenga, se producirán graves problemas, como el aumento del nivel del mar en varios metros y un clima extremo especialmente en Europa y la costa oriental de Norteamérica. Sería un auténtico punto de no retorno.
La AMOC es el componente atlántico de la corriente oceánica global, un sistema de circulación oceánica a gran escala que transporta calor, sal, carbono y otros elementos biogeoquímicos. NOAA
Lo esencial que se espera de la COP30
Dos estudios publicados en Nature Climate Change en febrero de 2025 analizaban que el hecho de haber superado el umbral de 1,5 ºC en 2024 podría indicar que hemos entrado en un período de varias décadas con calentamiento global medio de 1,5 ºC.
Según los autores, se necesitan esfuerzos muy rigurosos de mitigación climática para mantener los objetivos del Acuerdo de París a nuestro alcance. Pero hay sobrada evidencia de que el objetivo más importante de dicho Acuerdo, limitar el aumento de temperatura a 1,5 ºC, parece perdido. Lo importante es que si no se toman acciones más agresivas en mitigación rápidamente, pasará lo mismo con el objetivo de mantener las temperaturas por debajo de los 2 ºC.
Las expectativas ante la COP30, como en todas las cumbres del clima, son altas, a pesar de las incertidumbres científicas, sociales, políticas y económicas. Los dos temas centrales para este encuentro son limitar el aumento de la temperatura global a 1,5 °C respecto a los niveles preindustriales y los compromisos de financiación climática.
La neutralidad de carbono –equilibrio entre las emisiones emitidas y retiradas de la atmósfera– es tan difícil como urgente. Este año es clave porque los 195 países firmantes del Acuerdo de País deben presentar nuevas contribuciones nacionales (NDC, por sus siglas en inglés), las medidas que pretenden adoptar para limitar el calentamiento del planeta. Cada cinco años, este documento debe presentarse a la Convención Marco de las Naciones Unidas sobre el Cambio Climático. De momento solo 68 países han aportado sus NDC. Las NDC 3.0 –que representan la tercera ronda de contribuciones de cada país– tienen que ser progresivas y más ambiciosas que las NDC actuales.
En materia financiera, la COP29, celebrada en Bakú (Azerbaiyán), consiguió un acuerdo a la desesperada y en el último momento para fijar la nueva meta de financiación climática. El acuerdo contemplaba que los países ricos aportarían, al menos, 300 000 millones de dólares anuales a los de menos recursos hasta 2035, dentro de un compromiso más amplio de hasta 1,3 billones de dólares. Esta cifra es muy inferior a la planteada inicialmente, y vemos que cumbre tras cumbre se pospone la implementación de esta ayuda económica a los países más pobres.
El hecho de que ninguna nación haya seguido el ejemplo de Estados Unidos de abandonar el Acuerdo de París es esperanzador. Quedan incertidumbres respecto a grandes emisores como China o India, y preocupa la debilidad política de la Unión Europea en materia ambiental y climática. Pero las COP han permitido alcanzar acuerdos incluso en las situaciones más difíciles. Además, suponen dos semanas en las que el cambio climático domina las agendas de todos los países y sólo eso resulta alentador.
Es preciso negociar cada punto sin desfallecer por escasas que sean las posibilidades de acuerdos significativos entre países y dentro de cada país. Hay demasiado en juego para plantear esta COP de otra manera.
Fernando Valladares no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.
Recreación artística de la colisión de dos agujeros negros y la intensa emisión de ondas gravitacionales asociadas a su inminente fusión. Créditos: LIGO Caltech, Maggie Chiang for Simons Foundation.CC BY
El 14 de enero de 2025, los instrumentos del observatorio de ondas gravitacionales LIGO, en Estados Unidos, detectaron una nítida señal asociada a uno de los eventos más violentos del universo: dos agujeros negros situados a unos 1 300 millones de años luz habían colisionado, dejando un rastro inequívoco de su posterior fusión.
Denominada GW250114 (en referencia a la fecha de su observación), esta señal de ondas gravitacionales ha permitido conocer con mayor precisión las masas y velocidades de rotación de los agujeros negros iniciales y el resultante de su fusión. Además, se ha logrado confirmar una de las más importantes predicciones de Stephen Hawking sobre el área de los agujeros negros. Es, hasta el momento, la señal más nítida de la fusión de dos colosos cósmicos.
Los resultados del sensacional hallazgo han sido publicados en la revista Physical Review Letters, en cuya redacción han participado más de 1 700 autores pertenecientes a 318 centros de investigación y universidades de todo el mundo.
Pero ¿qué señal se ha detectado? ¿Qué son las ondas gravitacionales y cómo se originan estas perturbaciones en el cosmos?
Oscilaciones inferiores al tamaño de un átomo
Cuando un astro masivo –como los agujeros negros que se han detectado– presenta un movimiento de aceleración, se generan unas perturbaciones características que viajan por el universo a la velocidad de la luz, comprimiendo y estirando el espacio a su paso. El efecto sería similar al de arrojar una piedra a un estanque, donde las ondas se propagan desde el punto de impacto hacia el exterior.
Estas ondas gravitacionales son consecuencia natural de la teoría de la relatividad general, aunque el mismo Einstein no creía que fuera factible detectarlas debido a la extrema debilidad de estas ondulaciones.
Incluso en eventos cósmicos tan violentos como la colisión de dos agujeros negros o estrellas de neutrones, la amplitud de las perturbaciones que alcanzarían la Tierra sería mil veces menor que el tamaño de un protón.
Recreación artística de la producción de ondas gravitacionales al colisionar dos estrellas de neutrones. Créditos: NASA, R. Hurt/Caltech-JPL. CC BY
Habría que esperar 100 años desde la predicción de Einstein para descubrir estos nuevos mensajeros en el cosmos, abriendo una nueva era en la observación del universo.
Interferometría óptica por láser
No era tarea fácil el hallazgo de estas ínfimas perturbaciones del espacio-tiempo, ya que los investigadores necesitaban instrumentos capaces de detectar oscilaciones del tamaño del attómetro o de una trillonésima parte del metro.
¿Y cómo se consiguió semejante hazaña tecnológica, tan impensable en los años posteriores al desarrollo de la teoría de la relatividad general?
La respuesta está en la interferometría óptica por láser, una técnica de medición ultraprecisa consistente en hacer superponer dos o más haces de luz para crear un patrón típico de máximos y mínimos. El análisis detallado de este patrón interferencial permite determinar tamaños inferiores al de un átomo.
Patrón anular resultante de las interferencias entre dos haces luminosos. Un cambio en esta configuración de máximos y mínimos permitirá a los investigadores conocer si una onda gravitacional ha estirado y/o comprimido el espacio por el que viaja cada haz láser. Elaborado por el autor. CC BY
El fundamento teórico de la interferencia óptica es fácil de entender. Cuando las crestas de las ondas de un haz luminoso coinciden perfectamente con los valles del otro haz, se produce una interferencia destructiva total o mínimo. Por el contrario, cuando las crestas de un haz coinciden perfectamente con las del otro, se produce una interferencia constructiva total o máximo.
Interferencias constructivas o máximos (izquierda) y destructivas o mínimos (derecha) como resultado de las interferencias entre dos ondas. Crédito: Caltech-JPL. CC BY
A medida que las ondas se desplazan la una sobre la otra se genera un amplio abanico de interferencias, lo que se traduce en diferentes intensidades o brillos en el patrón interferencial, desde los mínimos destructivos hasta los máximos constructivos.
Detectores de ondas gravitacionales
En base a este principio básico interferencial operan los detectores de ondas gravitacionales del mundo, entre los que destacan LIGO en Estados Unidos (con dos instrumentos idénticos separados unos 3 000 kilómetros), VIRGO en Italia y KAGRA en Japón. Estos tres observatorios trabajan de forma conjunta (el consorcio LVK) y ha logrado identificar hasta la fecha unas 300 fusiones de agujeros negros.
Están construidos siguiendo el diseño de un interferómetro de Michelson, donde cada haz láser recorre una determinada distancia o brazo antes de interferir y producir el correspondiente patrón de máximos y mínimos. En el caso de LIGO, cada brazo tiene una longitud de unos 4 kilómetros.
Ilustración esquemática del detector de ondas gravitacionales LIGO basado en un interferómetro de Michelson. Cuando un haz láser (1) incide sobre un espejo orientado a 45º (2), éste se divide en otros dos haces, cada uno de los cuáles recorre un camino o brazo de longitud diferente. Una vez que cada haz es reflejado en su último espejo (3), regresan al espejo orientado (2), interfieren y generan el patrón interferencial de máximos y mínimos en el fotodetector (4). Créditos: Caltech/MIT/LIGO Lab. CC BY
En este sentido, la relación señal-ruido (o SNR por su siglas en inglés) de GW250114 es hasta tres veces mayor que la de GW150914, constituyendo la señal de onda gravitacional más potente detectada hasta la fecha.
Reducción del ruido de las señales de ondas gravitacionales en LIGO desde la primera detectada (GW150914, arriba) hasta la actual (GW250114, abajo). En ambos gráficos, la curva violeta representa los datos registrados por el dispositivo (combinando la señal de ondas gravitacionales y el ruido del detector), mientras que la curva verde muestra el mejor ajuste compatible con las predicciones de la relatividad general. Créditos: LIGO/J. Tissino (GSSI)/R. Hurt (Caltech-IPAC). CC BY
¿Y qué información portaba esa nítida GW250114?
Como apuntábamos al principio, un análisis exhaustivo de la señal ha determinado que dos agujeros negros de entre 30 y 40 masas solares colisionaron a unos 1 300 millones de años luz de la Tierra. Este estudio previo a la fusión es de menor dificultad, ya que a medida que giran en espiral, los agujeros negros progenitores van perturbando el espacio-tiempo y generando ondas gravitacionales.
La verdadera dificultad radica una vez que se ha producido la fusión, pues la señal no es tan clara. Durante esta nueva fase, conocida como fase de relajación, el agujero negro resultante vibra como una campana golpeada, generando distintos modos de ondas gravitacionales.
En particular, los investigadores lograron identificar con seguridad dos modos de vibración, permitiendo calcular la velocidad de rotación y la masa del agujero negro final, la cual resultó ser de unas 63 masas solares.
Animación de una fusión de dos agujeros negros consistente con el evento de ondas gravitacionales GW250114. La primera parte del vídeo muestra la espiral y fusión de ambos agujeros negros, así como la posterior fase de relajación y los dos modos de vibración identificados con seguridad. Créditos: H. Pfeiffer, A. Buonanno (Max Planck Institute for Gravitational Physics), K. Mitman (Cornell University).
El área de los agujeros negros nunca decrece
Una vez conocidas las masas y velocidades de rotación de los agujeros negros, los investigadores son capaces de calcular el área de estos fascinantes objetos cósmicos.
En el caso de la señal GW250114, los análisis posteriores determinaron que
los agujeros negros iniciales tenían una superficie total de 240 000 kilómetros cuadrados (aproximadamente el tamaño del Reino Unido), mientras que la superficie del agujero negro resultante resultó ser de unos 400 000 kilómetros cuadrados (casi el tamaño de Suecia).
Estos resultados son compatibles con el denominado “teorema del área del agujero negro”, una idea propuesta por Stephen Hawking en 1971 que
afirma que la superficie total de los agujeros negros no puede disminuir.
Cuando los agujeros negros se fusionan, sus masas se combinan, aumentando su superficie.
Cuando dos agujeros negros se fusionan, el área del agujero negro final es mayor que la suma de las áreas de los agujeros negros progenitores. Créditos: Caltech/MIT/LIGO Lab., Lucy Reading-Ikkanda/Simons Foundation. CC BY
Lamentablemente, el físico británico falleció en 2018, años antes de que su teorema del área de los agujeros negros fuera confirmado experimentalmente.
Detectores de ondas gravitacionales en el espacio
En un futuro próximo, la detección de ondas gravitacionales de baja frecuencia (inaccesibles para los interferómetros terrestres como LIGO) será una prioridad en astrofísica, pues permitirá descubrir sistemas binarios ultracompactos en nuestra galaxia o fusiones de agujeros negros supermasivos en los centros galácticos.
Para ello, las agencias espaciales NASA y ESA están llevando a cabo un proyecto conjunto para construir un interferómetro en el espacio. Se llamará LISA (Laser Interferometer Space Antenna) y constará de tres naves espaciales, orbitando a cinco millones de kilómetros entre sí y formando un triángulo equilátero.
LISA utilizará un interferómetro láser, similar en principio a los detectores terrestres como LIGO, pero con brazos mucho mas largos para lograr la sensibilidad necesaria que permita detectar las ondas gravitacionales de baja frecuencia.
Recreación artística del proyecto LISA, un gigantesco interferómetro en el espacio formado por tres naves espaciales separadas millones de kilómetros entre sí. Su sensibilidad será de tal magnitud que logrará identificar fusiones de agujeros negros supermasivos. Crédito: NASA. CC BY
El 14 de septiembre de 2015 se abrió una nueva ventana a la observación del cosmos, y no cabe duda de que su futuro es muy prometedor.
Óscar del Barco Novillo no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.
El trastorno por déficit de atención con hiperactividad (TDAH) se caracteriza por la distracción, la impulsividad o la dificultad para concentrarse. Sin embargo, algunos científicos creen que lo que actualmente entendemos como “trastorno” pudo haber sido una ventaja adaptativa para la supervivencia humana en el pasado.
Por ejemplo, rasgos asociados al TDAH como curiosidad, búsqueda de novedad y energía elevada, si lo pensamos bien, son cualidades que podrían mejorar la caza y la recolección. Es decir, lo que hoy genera dificultades en una oficina o aula, pudo haber sido una herramienta de supervivencia esencial hace miles de años.
Esto plantea una pregunta, ¿y si ciertos trastornos mentales fueran residuos evolutivos de rasgos que nos ayudaron a evolucionar? Pues es precisamente a lo que apuntan las conclusiones de un reciente estudio que ha escrutado minuciosamente el rastro genético de nuestros ancestros.
En busca de “fósiles invisibles”
La paleontología nos enseña que a medida que el cráneo crecía y se transformaba, también lo hacía el cerebro que contenía. Por ejemplo, Homo erectus, que vivió hace entre unos 2 millones y 120 000 años, tenía un cerebro de unos 900 cm³, mientras que Homo sapiens contaba con uno de 1.350 cm³. Pero esos números solo nos dicen cuándo creció el cerebro, no cómo empezó a pensar, sentir o imaginar.
Exposición de cráneos de distintas especies del género Homo en el Museo de Historia Natural de Londres. IR Stone/Shutterstock
Por esta razón, el foco de los científicos se ha desplazado de los huesos a las moléculas, y concretamente al genoma. El ADN puede entenderse como un archivo biológico que guarda las instrucciones para construir y mantener nuestro cuerpo, pero también funciona como una biblioteca de “fósiles invisibles”. Cada mutación es un registro del pasado, una pista sobre cómo la selección natural moldeó el cerebro, el cuerpo y la conducta.
Una de las herramientas más poderosas para descifrar esas huellas son los estudios de asociación del genoma completo, conocidos como GWAS (Genome-Wide Association Studies). Dichos análisis comparan el ADN de miles o millones de personas para identificar pequeñas variaciones, llamadas polimorfismos de un solo nucleótido o SNP.
Gracias a un GWAS podemos saber qué variantes genéticas están relacionadas con una mayor área de corteza prefrontal, con la memoria, con la inteligencia fluida o incluso con la probabilidad de desarrollar un trastorno mental.
Dos oleadas de evolución
Esa fue precisamente la técnica que aplicó un grupo de investigación para desvelar las variantes genéticas relacionadas con el cerebro humano: su anatomía, sus habilidades cognitivas y, algo menos esperado, su vulnerabilidad psiquiátrica. El estudio, publicado recientemente en la revista Cerebral Cortex, analizó el ADN de más de 200 000 generaciones humanas, en un lapso temporal que abarca desde hace más de cinco millones de años hasta apenas unas décadas.
Con este enfoque lograron crear una línea temporal de la evolución genética y descubrir no solo cuándo aparecieron los genes que moldearon el cerebro moderno, sino también los que aumentaron nuestra propensión a la creatividad o al sufrimiento mental.
Así detectaron dos grandes oleadas de evolución. La primera, entre tres millones y 300 000 años atrás, coincidió con la diversificación de los primeros Homo, como Homo habilis y Homo erectus, especies que fabricaban herramientas, dominaban el fuego y mostraban un aumento progresivo del cerebro.
La segunda ocurrió entre 300 000 y 2 000 años atrás, con un punto culminante hace unos 55 000 años, cuando Homo sapiens se expandió fuera de África. Esta etapa estaba relacionada con cambios más acelerados en el cerebro, la cognición y el comportamiento, ya que muchas de las habilidades o conductas que definen a nuestra especie como el lenguaje, la planificación o la imaginación, surgieron en esa etapa de transformación. Es decir, bastante tarde en nuestra historia como seres humanos.
Durante esa segunda oleada, el cerebro humano se reorganizó. La corteza cerebral, la capa externa relacionada con el pensamiento abstracto, la memoria y el lenguaje, se expandió, sobre todo en regiones como el área de Broca, involucrada en el lenguaje y la cognición simbólica.
Los genes más jóvenes, surgidos hace entre 50 000 y 5 000 años, se expresan con más fuerza en esas zonas y muestran mayor actividad durante el desarrollo prenatal, cuando el cerebro empieza a formar sus circuitos básicos.
El precio de una mente compleja
Sin embargo, las mismas variantes genéticas que potenciaron nuestra inteligencia, creatividad y empatía parecen haber traído consigo una mayor vulnerabilidad a los trastornos mentales.
Según el estudio de Cerebral Cortex, dichas variantes se asocian a depresión, ansiedad y TDAH y son, en promedio, mucho más jóvenes que las relacionadas con la inteligencia o el tamaño del cerebro. Además, se concentran precisamente en las áreas vinculadas al lenguaje, la imaginación y la empatía. Los investigadores proponen que, a medida que el cerebro se volvió más complejo y flexible, también aumentó su susceptibilidad a la desregulación emocional. La evolución, en cierto modo, habría intercambiado estabilidad por creatividad.
El origen del TDAH
Algo similar sugieren otros trabajos. Uno de los genes más estudiados en relación con el TDAH es el DRD4, que codifica un receptor del neurotransmisor dopamina vinculado a la atención y la búsqueda de recompensas. Su variante 7R, asociada a rasgos como la impulsividad y la búsqueda de novedad, se ha relacionado con una mayor probabilidad de TDAH en entornos modernos. Sin embargo, investigaciones con poblaciones nómadas, como los ariaal de Kenia, muestran que los hombres portadores de 7R tenían mejor estado nutricional que los no portadores, mientras que ocurría lo contrario en los grupos asentados.
En otras palabras, los rasgos que hoy consideramos problemáticos pudieron ser subproductos adaptativos de una mente en expansión. Por ejemplo, la ansiedad ayudaba a anticipar peligros, la impulsividad a explorar nuevos territorios y la hipersensibilidad emocional a fortalecer los vínculos sociales.
Así, los mismos genes que nos dieron una mente flexible y adaptable, y que alguna vez garantizaron nuestra supervivencia, son también los que podrían influir en nuestra fragilidad emocional.
Adriana Castro Zavala no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.
Cuando hablamos del precio del CO₂ solemos pensar en medioambiente y cambio climático. Sin embargo, ese precio también se ha convertido en un auténtico termómetro financiero: sube o baja y, con ello, arrastra a empresas de sectores tan distintos como la energía, la aviación, la banca o la tecnología.
Dicho de otro modo: el coste de contaminar no solo afecta a la factura de la luz o al cemento con el que se construye una vivienda, sino también a la valoración bursátil de muchas compañías europeas.
¿Qué es el EU-ETS?
Desde 2005 funciona en Europa el EU Emissions Trading System (EU-ETS), el mayor mercado regulado de carbono del mundo. Se basa en una idea muy simple: poner un límite total a las emisiones de CO₂ y repartir permisos entre las empresas. Si una compañía logra contaminar menos de lo que le corresponde, puede vender su excedente a otras empresas que se pasen del cupo. Es un sistema de “pagar por contaminar” que busca que reducir emisiones sea rentable para las empresas.
En la práctica, esto ha convertido al CO₂ en un activo financiero con su propio precio, que sube y baja según la oferta de permisos, la demanda de energía, los cambios regulatorios o incluso las crisis geopolíticas.
CO₂, una ‘bola de billar’ financiera
En nuestro estudio, publicado en Journal of Commodity Markets, hemos analizado datos de varias empresas europeas entre los años 2013 y 2025, desde grandes contaminadores (como cementeras, siderúrgicas o empresas del sector de la construcción) hasta compañías de baja huella de carbono (como empresas de servicios o farmacéuticas). La pregunta era clara: ¿cómo afecta la volatilidad del CO₂ –es decir, sus subidas y bajadas repentinas– al valor que tienen en bolsa estas empresas?
Esto nos ha permitido ver cómo los golpes del precio del CO₂ se transmiten de manera distinta en cada contexto y qué sectores sufren más en el corto y en el largo plazo:
El CO₂ sí mueve los mercados. Lo primero que comprobamos es que su precio no vive aislado: sus altibajos se transmiten con fuerza al valor en bolsa de las empresas. Es como una bola de billar que, al chocar, hace que otras piezas se muevan.
Los golpes son rápidos. La mayor parte de estos efectos ocurren a corto plazo, en cuestión de días. Cuando la UE anuncia una reforma, cuando estalla una crisis energética o cuando un país se retira de un acuerdo climático, el precio del CO₂ sufre una sacudida y al instante los mercados reaccionan.
Las empresas más contaminantes son las más vulnerables. No sorprende que las compañías con grandes emisiones –petroleras, acereras, cementeras, eléctricas– sufran más. Para ellas, cada subida del CO₂ supone un aumento directo de costes. En nuestro análisis aparecen como “receptoras netas” de volatilidad: absorben más golpes de los que reparten.
Las empresas de baja emisión tampoco se libran. Es curioso que compañías de sectores con pocas emisiones también sientan el impacto. ¿Por qué? Porque los mercados financieros reaccionan en bloque: los inversores interpretan las subidas del CO₂ como una señal de regulaciones más estrictas y esto afecta incluso a quienes no dependen directamente de combustibles fósiles. En algunos casos, estas empresas se comportan como transmisoras de volatilidad, arrastrando a otros valores.
Los momentos clave dejan huella. En 2015, con el Acuerdo de París, se vieron picos de transmisión y el CO₂ se convirtió en referencia de la ambición climática.
Entre 2018 y 2020 –con la puesta en marcha de la reserva de estabilidad del mercado para intentar resolver los desequilibrios estructurales entre la oferta y la demanda, y la aparición de la pandemia–, la volatilidad se disparó y alcanzó tanto a empresas muy contaminantes como a las menos expuestas. Además, la reforma del sistema dentro del Objetivo 55 para reducir las emisiones de gases de efecto invernadero de la Unión Europea, reforzó la ambición climática de la UE.
En 2022, la guerra de Ucrania provocó un desplome temporal de los precios del CO₂, pero después el mercado se recuperó y volvió a presionar a los sectores intensivos en energía.
¿Por qué debe importar a las empresas?
El mensaje es claro: el CO₂ ya no es solo un tema ambiental, sino un riesgo financiero de primera línea. Para una cementera o una eléctrica, los permisos de emisión son un coste que puede dispararse de un día para otro. Esto obliga a integrar el “riesgo carbono” en la estrategia: mejorar la eficiencia energética, invertir en tecnologías limpias o diseñar planes de cobertura financiera que amortigüen la volatilidad.
Para las empresas de baja emisión, como farmacéuticas o de servicios, la lección es distinta: aunque sus procesos no dependan del carbón o el petróleo, tampoco pueden ignorar el mercado de carbono. La reacción de los inversores ante subidas del CO₂ puede afectar a su valoración y a la percepción de su sostenibilidad.
¿Por qué debe importar a los inversores?
Cada vez más, los mercados leen el precio del CO₂ como una señal de futuro. Si sube, interpretan que habrá regulaciones más duras y costes mayores para ciertas industrias. Si baja, anticipan relajación o menor ambición climática. Esto influye en las decisiones de inversión, en las estrategias ESG (ambientales, sociales y de gobernanza) y en la gestión de riesgos de fondos y carteras.
En la práctica, el CO₂ se ha convertido en un barómetro financiero que condiciona dónde fluye el capital: hacia empresas que muestran resiliencia y adaptación, lejos de aquellas que parecen vulnerables.
¿Por qué debe importar a los ciudadanos?
Aunque parezca lejano, todo esto nos afecta en la vida diaria. El precio del CO₂ influye en la factura de la luz, en el coste del transporte y en el precio del cemento con el que se construyen casas y carreteras.
Cuando una crisis dispara la volatilidad del CO₂, esa inestabilidad se transmite a la economía real. En 2018, por ejemplo, el alza del CO₂ fue uno de los factores que encareció el precio mayorista de la electricidad en varios países europeos, con impacto directo en la factura de los hogares.
CO₂, un actor financiero de primer orden
El mercado europeo de carbono nació como una herramienta para reducir emisiones al menor coste posible. Hoy, veinte años después, se ha convertido también en un actor financiero de primer orden: su volatilidad afecta al valor de las empresas, a las decisiones de inversión y, en última instancia, a la economía de todos.
Estos efectos son cada vez más intensos y, sobre todo, inmediatos. Además, si las empresas no se anticipan al riesgo climático, pueden ver comprometida su competitividad y su empleo. Por eso, comprender el papel del CO₂ no puede ser un asunto reservado a reguladores o especialistas en sostenibilidad: también importa a directivos, inversores y ciudadanos.
En el camino hacia una economía descarbonizada, el precio del carbono será tanto una señal de política climática como un indicador financiero clave. Y anticiparse a sus sacudidas puede marcar la diferencia entre perder competitividad o aprovechar la transición verde como una oportunidad.
Gabriel Lozano Reina recibe fondos de la Agencia Estatal de Investigación (proyecto PID2024-159036NA-I00) y de la Fundación Cajamurcia.
Diego Rodríguez-Linares Rey recibe fondos de la Agencia Estatal de Investigación (proyecto PID2024-159036NA-I00) y de la Fundación Cajamurcia.
J. Samuel Baixauli recibe fondos de la Agencia Estatal de Investigación (proyecto PID2024-159036NA-I00) y de la Fundación Cajamurcia.
Susana Alvarez Diez recibe fondos de la Agencia Estatal de Investigación (proyecto PID2024-159036NA-I00) y de la Fundación Cajamurcia.
Jennifer López en una escena de la última versión de _El beso de la mujer araña_.Roadside Attractions
Se ha estrenado en Estados Unidos y en algunos países de Hispanoamérica la nueva adaptación cinematográfica de la cuarta novela del escritor argentino Manuel Puig: El beso de la mujer araña (1976). Traducida a más de veinte idiomas, ha suscitado múltiples interpretaciones y revisiones artísticas.
Tan solo tres años después de su publicación, el director teatral italiano Marco Mattolini la llevó a los escenarios de su país y al año siguiente se representó la versión española, adaptada por el propio Puig y dirigida por José Luis García Sánchez. Pero fue sobre todo la repercusión de la propuesta de Mattolini –fervorosamente aplaudida por parte de críticos y espectadores– la que despertó en cine el interés por esta novela.
La primera (y, hasta hace unos meses, única) película inspirada en El beso de la mujer araña, dirigida por Héctor Babenco, llegó a las salas de cine en 1985, nueve años más tarde de la aparición del formato narrativo original. A estas relecturas les sucedió un musical (en el que se inspira el último filme), estrenado en 1992 en el West End de Londres y en 1993 en Broadway, así como otras versiones independientes.
Rompedora en forma y fondo
Esta afluencia de aproximaciones a la novela tiene su origen en el hecho de que en el momento de su publicación fue considerada revolucionaria. Y es que ya su confección formal es rompedora.
El beso de la mujer araña fue concebida casi en su totalidad mediante el empleo de diálogos directos entre los protagonistas de la obra: Luis Alberto Molina (un homosexual de 36 años condenado por corrupción de menores) y Valentín Arregui (un preso político de 26 años que cumple condena por su pertenencia a un grupo marxista). Ambos personajes conversan para matar el tiempo en la celda que comparten en una penitenciaría de Buenos Aires en el año 1975.
La década de 1970 en Argentina estuvo marcada por cambios políticos intensos, pues a mediados de la misma se instauró en el país la dictadura militar. Que los protagonistas fueran un homosexual y a un marxista convencido no podía menos que despertar, como ya había ocurrido con la anterior novela de Puig –The Buenos Aires Affair– la ira de los censores. Fueron especialmente sancionadas las afirmaciones de Molina, quien no solo abrazaba su exacerbada sensibilidad y su atracción por otros hombres, sino que no escondía su identidad femenina.
En apoyo al personaje, Puig incluyó nueve notas a pie de página, como si la novela se tratara en algunos puntos de un ensayo. Dichas notas, que pueden ser leídas u obviadas sin que ello afecte a la acción, son paráfrasis de discursos psicológicos reales que elucubran sobre el posible origen de la homosexualidad. La localización de estos datos no fue inocente, tal como declaró el autor en varias entrevistas:
“ese material científico pensaba filtrarlo en el texto de ficción, pero vi que era imposible. Luego pensé que toda esa información nos había sido violentamente escamoteada […]. Así que introduje todo ese material tal como nos había sido escamoteado, violentamente”.
En la última nota, y tras la máscara de la ficticia doctora A. Taube, se esconde la voz de Manuel Puig. Este perseguía, según variosinvestigadoresde la obra, bien educar a un lector ignorante en cuanto a la homosexualidad, bien deslegitimar a aquellos que, como en el caso de ciertos sectores políticos argentinos de la época, expresaban opiniones negativas preconcebidas sobre la misma. Gracias a esas notas, pero especialmente a la última, el lector puede llegar a conocer también el punto de vista del autor.
Imagen de unas páginas de El beso de la mujer araña en las que se pueden ver las amplias notas al pie. L.M.C.
Es precisamente la ignorancia la que posibilita la aparición de la primera nota, justo después de que Valentín le confiese a su compañero de celda: “yo de gente de tus inclinaciones sé muy poco”. El diálogo a tres entre Valentín, Molina y las notas desaparece cuando se produce un acercamiento real entre los dos personajes. A partir de entonces, ya no son necesarias.
La magia del séptimo arte
Para que los protagonistas pudieran entablar una relación sincera, Puig necesitaba un canal que los uniera, pues eran demasiado distintos entre sí. Este canal no fue otro que el cine.
Cartel de la versión cinematográfica de El beso de la mujer araña de 1985. FilmAffinity
A las ocho de la tarde se apagan las luces de la penitenciaría y se hace la oscuridad. El gran amante del cine que es Molina comienza, como todos los días, a contarle una película a Valentín. Son estas narraciones las que hacen que emerjan los temas más trascendentes de la obra. Molina habla de su madre, quien le ama sin condiciones a pesar de ser un “amoral”, según reza su informe policial; y del mesero de quien está enamorado, así como de su convicción sobre la posición inferior de la mujer respecto al hombre. Valentín exterioriza el sufrimiento que le causa cumplir con el desapego emocional que le exige la lucha política, así como la añoranza de una mujer que no es su novia y que, además, es de clase alta. También aborda temas como la represión sexual, las torturas policiales y las misiones que ha llevado a cabo con su grupo marxista. Pero, sobre todo, cuestiona a Molina, a quien trata de inculcar que ni mujeres ni hombres homosexuales deben “dejarse basurear”.
Y ambos discuten sobre temas tan controvertidos como la política (Molina opina, por ejemplo, que “todos los políticos son iguales”, mientras que Valentín afirma que “los maquis fueron verdaderos héroes”), la religión (Valentín la niega, pero termina deseando que exista Dios), el sexo (heterosexual y homosexual), etc. Las películas, por tanto, trascienden la celda y les empujan a evolucionar juntos. En palabras del preso político: “Sí, fuera de la celda están nuestros opresores, pero adentro no. Aquí nadie oprime a nadie”.
Este espacio, que es símbolo de falta de libertad, se proyecta sobre los personajes: no solo están presos físicamente, sino que también lo estaban internamente. En este rincón de una inhumana penitenciaría de la que no pueden salir se sienten, por primera vez, realmente libres. Los veintidós días que han compartido les han otorgado, a cada uno de manera distinta, un sentimiento cercano a la felicidad. La violencia real y simbólica que castigaba a Valentín y Molina (y, por extensión, a la sociedad) por no ceñirse a un orden establecido, que les constreñía dentro y fuera de los muros de la cárcel, no puede derrocar la dignidad que Manuel Puig les confiere. Al final, ganan ellos.
Una novela como esta, que quiebra esquemas, desafía discursos intransigentes y nos sacude el alma tan suave como dolorosamente, ¿cómo podría dejar de ser revisitada?
Laura Martínez Català recibe fondos del Ministerio de Ciencia e Innovación como beneficiaria de una beca predoctoral sujeta a un proyecto de investigación