Two-way electric vehicle charging at scale could stop renewable energy being wasted – here’s how it works

Source: The Conversation – UK – By Vahid Vahidinasab, Professor and Chair in Sustainability, Salford Business School, University of Salford

Solving the UK’s battery storage conuncdrum? A car park full of Tesla electric vehicles. Kev Gregory/Shutterstock

The amount of renewable energy produced around the world is increasingly exceeding demand – particularly from wind and solar sources. This presents a significant challenge when limited grid capacity and insufficient energy storage mean this clean power has to be curtailed, wasting the excess generation. The scale of this problem is substantial.

In the UK, for example, wind farms were forced to curtail 4.3 terawatt (trillion watt) hours of surplus energy – about 5% of their annual output – in 2023. This would have been enough to power 1.5 million homes for the year, so failing to harness it cost bill payers roughly £300 million and left some energy providers facing costly constraint payments.

Similar patterns are emerging across Europe, North America, Australia and other regions rapidly expanding their renewable capacity, where grid infrastructure has struggled to keep pace.

But on the Isle of Wight, off England’s south coast, a trial is under way that, in years to come, could help resolve this energy conundrum. It relies on “bidirectional charging” – the idea that electric cars don’t just have to be energy users; they can be energy storers and providers too.

Video: DriVe2X.

By 2040, around 36 million electric cars and vans are expected on UK roads. Already, current models can store enough energy to power a typical UK household for between seven and ten days. All the anticipated electric vehicle (EV) batteries by 2040 would offer around 2.5 terawatt hours of storage – enough to store much of the UK’s surplus solar power generated at bright summer lunchtimes, or the excess wind on stormy winter nights.

For most of the time, of course, (about 95%, on average), these cars won’t be using any of that energy because they are parked. Our technology could put this EV downtime to use storing and recirculating surplus renewable energy.

EV owners won’t just be doing this out of the goodness of their hearts. It would also mean they could buy electricity at cheaper, off‑peak times, then store it for their own household use in peak times. A new study from the University of Michigan finds that vehicle‑to‑home (V2H) charging could save drivers up to US$5,600 (£4,200) over their EV’s lifetime – as much as 90% of its total charging costs.

Energy companies and grid operators also stand to gain. One analysis estimates that European power systems could save up to €4 billion (£3.5 billion) through the introduction of vehicle-to-grid (V2G) and other smart‑charging schemes.

Two-way technology

Most EVs and chargers currently only move electricity one way – from source to car. But at the Centre for Self-Sustaining Systems and Societies, our focus is on two-way technology that enables energy to flow between EVs and homes, hotels, businesses, as well as the National Grid itself. This is complicated technology – not least because the form of electricity in which batteries store electricity, direct current (DC), needs converting into alternating current (AC) before it can be pumped back into a home, hotel or grid.

EVs will also need adapting to support bidirectional charging – currently, only a few models offer this capability. Widespread adoption will require all EVs to be factory-designed with integrated bidirectional hardware, supported by clear regulatory standards and strong market incentives.

On the Isle of Wight, our technology – part of the Europe-wide DriVe2X programme – is testing four bidirectional chargers at two hotels and a visitor boat mooring. One reason the Isle of Wight was selected for this test is its annual influx of tourists.

The island attracts more than 2 million visitors each year, meaning there are major fluctuations in demand for power between its low and peak tourism seasons. But many visitors bring EVs with them, and these could potentially store and circulate some of the extra power the island requires during their stay.

Our test drivers (a mixture of visitors and local residents) are able to schedule their departure times and minimum battery levels, so that our bidirectional charging system can store and circulate energy while retaining enough charge for the EV’s next trip. This addresses a fear that is sometimes expressed about this new technology – the risk of discovering a flat-battery just as you wish to set off on your journey.

The trial, which is moving into its final stage, has been given a community-first mindset through our local partner Future Isle of Wight, a community-owned company that is helping to shape how this technology can be scaled in a way that benefits local residents.

Across Europe, other DriVe2X test sites are exploring potential two-way energy hotspots. At Porto Airport in Maia, Portugal, a long-stay car park is testing how this technology can manage waves of passengers flowing in and out of an airport terminal. In Hungary’s capital Budapest, vehicle-to-home technology is being tested in a number of smart homes.

Video: DriVe2X.

While there are now more than 100 V2G test projects around the world, they remain small in scale. Key challenges include developing affordable smart chargers and hassle-free grid connection regulations, as well as protecting consumer confidence on issues such as battery warranties, privacy, and fair payment for the power their EVs provide.

Nonetheless, I believe bidirectional EVs could move from niche pilots to everyday life within the next two decades. In July, the UK government suggested that households and businesses could be providing the country with up to 75 gigawatts of flexible power by 2050 – of which more than half (40 gigawatts) would come from EVs. That is roughly the output of 40 large nuclear reactors – enough to power Britain’s total electricity consumption during a peak winter period.

But this future depends on daily life working smoothly. EV drivers will need to wake up with enough charge, understand when their vehicle is powering the house, and see they are saving money – all without worrying about battery wear, confusing markets or privacy risks. We hope our Isle of Wight trial can play a small but important role in realising this energy-efficient future.

The Conversation

Vahid Vahidinasab receives funding for the DriVe2X research and innovation project, which is co-funded by the European Commission and UKRI under grant numbers 101056934 and 10055673, respectively.

ref. Two-way electric vehicle charging at scale could stop renewable energy being wasted – here’s how it works – https://theconversation.com/two-way-electric-vehicle-charging-at-scale-could-stop-renewable-energy-being-wasted-heres-how-it-works-272373

What if we taxed what people spend, not what they earn?

Source: The Conversation – UK – By Marcelo R Santos, Senior Lecturer in Macroeconomics, University of Glasgow

FXQuadro/Shutterstock

When people talk about tax fairness, the focus is almost always on income. How much the rich earn, how heavily that income should be taxed, and how to make sure lower earners are protected. But there is an older idea that is quietly starting to get attention again. What if taxes were based not on what people earn, but on what they spend?

This is more than a technical tweak. A progressive consumption tax – where people who spend more face higher effective rates – can behave very differently from a progressive income tax. And according to economic research I co-authored with fellow researcher Carlos da Costa based on life-cycle behaviour, the consequences may be surprisingly large.

At first glance, taxing income and taxing consumption might look similar. If you earn £40,000 and spend £30,000, you could imagine taxing either amount and raising similar revenue. But people do not live one year at a time. They earn very unevenly over their lives – lower wages early in their career, higher wages later – and they tend to save in good years to stabilise their spending in leaner ones.

This basic feature of real life makes the choice between taxing income or taxing consumption much more important than it seems.

Progressive income taxes increase the marginal tax rate (the percentage applied within someone’s highest tax bracket) as earnings rise. This is designed to redistribute income towards lower earners. But it also creates an unintended effect: people are discouraged from working more in the years when they are most productive because those extra earnings are heavily taxed.

Over a lifetime, this discouragement flattens people’s earning patterns and reduces saving. When lots of people make these choices at once, the whole economy ends up with less investment, lower productivity and slower wage growth. These long-run effects are invisible in year-to-year statistics, but they matter greatly for overall prosperity.

What a progressive consumption tax does differently

A progressive consumption tax takes a different approach. It doesn’t penalise earning more in a particular year. Instead, it taxes people according to how much they spend overall. Someone who earns £70,000 but saves £25,000 would face a lower tax bill than someone who earns £50,000 and spends it all.

This creates an incentive to save in high-earning years. While higher saving might sound like it would slow the economy, in the long run it does the opposite. Saving provides the funds that businesses use to invest in new equipment, technology and expansion.

Over time, this raises productivity and – crucially – pushes wages up.
This mechanism is particularly important for lower-income households, who depend almost entirely on their earnings rather than capital income (from things like property) or investment returns.

Our analysis suggests that switching from progressive income taxation to progressive consumption taxation could make households noticeably better off. This could be roughly equivalent to a permanent 10% increase in living standards as a result of rising wages and families being better protected when their incomes fluctuate.

A policy reform that both strengthens the economy and improves financial security is rare. From our analysis, it looks like this approach could do both.

A common concern is that consumption taxes are regressive. A flat tax on spending would indeed fall more heavily on low-income households who spend all or almost all of the money they have coming in. But progressivity can be built into a consumption-based system.

In fact, our work shows that a progressive consumption tax can redistribute as much as a progressive income tax, but with fewer of the distortions that slow growth.

Put simply, it is possible to design a consumption-based system that is both fair and efficient. And it wouldn’t necessarily require radical reform. It may sound like a major overhaul, but many of the benefits could be achieved with practical, incremental reforms.

woman pushes a shopping trolley with a child in the seat down a supermarket aisle.
People on low incomes spend a far greater proportion of their income – a progressive consumption tax could leave them better off.
1000 Words/Shutterstock

One example is income averaging. Instead of taxing each year’s earnings in isolation, consumption tax could be based on a multi-year average. The idea is that a person’s average income over time is a good proxy for how much they consume, since people tend to smooth spending even when earnings fluctuate.

Under this approach, taxes would be administered through the income tax system, and people would pay tax in much the same way as they do now. The key difference is that tax brackets would be applied to an income average rather than a single year’s pay. This better reflects how people actually spend over their lifetimes, and it reduces the penalty for working more or earning more in peak years.

The information needed to do this already exists in social security records, which track people’s earnings over time. Rather than collecting new data, governments would continue to use these records as they do now, while also using them to calculate income averages across several years as a proxy for how much they spend. No new bureaucracy would be required – it is simply an additional use of information that is already held.

But why does this matter now? Most advanced economies face the same long-term pressures: ageing populations, rising fiscal demands, stagnant productivity and intense debate about how to tax “fairly” without discouraging work and investment. These pressures are unlikely to disappear.

Rethinking not just how much to tax, but how to tax, offers a different way forward. A system that taxes consumption rather than income is not a silver bullet. But progressive consumption taxation deserves a far more prominent place in the public conversation about how to design a fair and prosperous tax system for the future.

The Conversation

Marcelo R Santos does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. What if we taxed what people spend, not what they earn? – https://theconversation.com/what-if-we-taxed-what-people-spend-not-what-they-earn-272392

Treasure the emotional connections to the clothes you have and style could be a whole lot more sustainable

Source: The Conversation – UK – By Lee Mattocks, Senior Lecturer, Fashion, Knitwear and Textile design, Nottingham Trent University

Anton Vierietin/Shutterstock

With January sales around the corner, another flood of unwanted clothes risks drowning our wardrobes and the planet.

The average person now discards around 16kg of textile waste annually and a mountain of fabric equivalent to thousands of landfills accumulates each year.

But the EU is bringing in new laws surrounding fast fashion. More responsibility is being put on manufacturers to reduce material waste and it’s becoming more important to invest in clothes we’ll cherish.

That’s why the emotional value of fashion plays a crucial role in creating a more sustainable wardrobe.

By understanding why we keep certain garments, we can extend their lifespans and rethink sustainability. Designing fashion to be emotionally durable and less likely to be dumped will not just benefit personal connections to cherished items but also the brand’s bottom line because companies will be fined for non-compliance with regulations (for example, for the destruction of unsold textiles).

Emotional attachments could be as influential as sustainability regulations if they help us make more informed choices about what’s in our wardrobes.

After years of working in fashion, experiencing sample sales and loving the buzz of the Christmas bargain, I had my own mountain of clothes to confront during an unexpected house move last Christmas. Overwhelmed by clutter and house full of garments that didn’t “feel” good anymore I began Welcome to Our Wardrobe, a project exploring the reasons why people keep some items for longer than others.

Fashion professionals, designers, psychotherapists and everyday wearers contributed to my studies and reflected on the garments they kept the longest and shared personal stories and revelations through social media.

Each garment became a portal to an often candid story and an opportunity for self rediscovery through these hanged and folded moments. Very few items survived my own wardrobe study as most were redirected to charity shops after realising they were impulse buys or mostly ill-considered purchases that didn’t meet my needs. Most garments held strong family connections or were linked to a personal memory.

My own worn out but emotionally durable t-shirt held memories of a friendship that felt like a hug on those relentless days, reminding me my friend is always there at the end of the phone. Reflecting on these attachments shifted my own shopping habits. By focusing on meaningful purchases and connections rather than just this year’s must-have colour or trouser style, I felt better too.

Fast fashion, slow attachments

It’s not just about making clothes that last but about making clothes that matter. Jonathan Chapman, a leading professor of sustainable design, puts it simply: “We are consumers of meaning, not matter.” His theory of emotionally durable design suggests waste is not merely material problem but a symptom of a missing personal connection.

When our clothes have a deep emotional resonance they often endure. One participant reflected on a handmade gifted jumper that initially made her feel “too fat” and “too old” – she discovered she still loved it because it symbolised trust and important connections to a meaningful past relationship. Once she acknowledged her attachment to this jumper, she decided to wear it more often. That extended the garment’s life.

Otto von Busch, a Swedish professor of integrated design argues in his book The Psychopolitics of Fashion that clothing functions as a psychological tool through which people express identity, negotiate belonging and make sense of who they are.

Fashion designer and author Orsola de Castro co-founded Fashion Revolution, a fashion activism movement, in the wake of the 2013 Rana Plaza factory collapse in Bangladesh which killed more than 1,100 garment workers.

Fashion Revolution not only advocates for greater transparency in the fashion system but also endorses “radical mending” – the treasuring, reuse, rewearing and repairing of favourite items – to promote slow fashion. According to De Castro’s philosophy, the more we wear a garment, the more it becomes part of our lives.

Her call to mend and care for clothes while resisting fast fashion trends and production cycles echoes the findings of Welcome to Our Wardrobe. My research shows that inherited, classic or custom-handcrafted clothes were the most enduring pieces, not swayed by fast fashion or new sustainability strategies. Emotional attachment relies on items being present for a reason and not just a season. That can transform clothes into treasures that can be passed down through the generations.

To reduce consumption and encourage emotionally durable design, it’s important to consider how attachment between customers and clothing can increase a garment’s lifespan. Emotional durability may even underpin future legislation if adopted as a design principle rather than a post-purchase phenomenon.

Perhaps you own a top you just can’t throw away or a dress worn to a milestone moment that represents a happy memory. These garments often survive not just because they were well crafted but because they hold some emotional resonance relating to love, connection, comfort and friendship.

Reflecting on the clothes that we already treasure is the first step towards slowing down fashion. By understanding why certain pieces endure, the wardrobe begins to hold more meaning than just an unsustainable dumping ground for passing trends.


Don’t have time to read about climate change as much as you’d like?

Get a weekly roundup in your inbox instead. Every Wednesday, The Conversation’s environment editor writes Imagine, a short email that goes a little deeper into just one climate issue. Join the 47,000+ readers who’ve subscribed so far.


The Conversation

Lee Mattocks runs Mattocks, a small sustainable leather bag company.

ref. Treasure the emotional connections to the clothes you have and style could be a whole lot more sustainable – https://theconversation.com/treasure-the-emotional-connections-to-the-clothes-you-have-and-style-could-be-a-whole-lot-more-sustainable-270927

Do marathons damage your heart? Decade-long study finally settles the debate

Source: The Conversation – UK – By David C. Gaze, Senior Lecturer in Chemical Pathology, University of Westminster

mikecphoto/Shutterstock.com

A marathon pushes the human body close to its limits. Legs tire, lungs burn and the heart works hard for hours on end. For years, that strain has raised an uncomfortable question: does running 26 miles actually damage the heart?

The strongest reassurance comes from a new ten-year study of 152 recreational marathon runners, published in the journal Jama Cardiology. Researchers checked the runners’ hearts before and after races, then tracked their heart health over the next decade.

They found that although the heart’s right ventricle – the chamber that pumps blood to the lungs – showed a short-term drop in pumping ability straight after races, it recovered within days. Crucially, over the ten-year follow-up period, there was no sign of lasting damage to heart function in these runners.

This finding is important because earlier studies had raised worries that long-distance exercise might damage the heart. Much of that concern came from blood tests taken after endurance events.

After a marathon, many runners show higher levels of a substance called troponin in their blood. Troponin is released when heart muscle cells are put under strain.

Doctors normally use troponin levels to help diagnose a heart attack. So seeing these levels rise after a race can look worrying and sometimes make it harder to tell whether someone is having a genuine medical emergency.

When troponin levels mislead

But context matters. In hospitals, raised troponin levels are only judged alongside symptoms, heart tests and scans. After long-distance endurance exercise, troponin often rises even when there is no sign of blocked arteries, a heart attack or lasting heart damage.

Studies show that many healthy marathon runners have troponin levels above the usual medical cut-offs after a race, despite normal heart scans and no symptoms of a heart attack.

This rise seems to reflect temporary strain on heart muscle cells, rather than permanent damage. Heart scans using ultrasound or MRI show that these changes are usually linked to short-term changes in how the heart fills or pumps blood, which settles with rest.

The right side of the heart seems particularly affected during marathons. It pumps blood through the lungs, where pressure rises sharply during sustained exercise. Several studies have shown that the right ventricle becomes temporarily enlarged and less efficient immediately after long races, before returning to normal.

What the new ten-year outcome study adds is reassurance that these repeated short-term stresses do not inevitably lead to long-term damage in most recreational runners. Over a decade of marathon running, heart structure and pumping ability remained within normal ranges.

That does not mean endurance running is without risk. Marathon running can expose hidden heart disease, particularly coronary artery disease. A tragic example was reported recently in the UK press, where a 42-year-old runner with chest pain was initially reassured and later died from a heart attack. In that case, the problem was not exercise-related troponin release but underlying coronary disease that was not identified as the cause of the elevated troponin.

This distinction is vital. Chest pain, breathlessness or collapse during or after exercise cannot be dismissed simply because someone is fit. In people with symptoms, raised troponin levels usually signal a very different process than the benign rises seen after a marathon in otherwise well runners.

Deaths during marathons are very rare. Large studies suggest there is about one death for every 100,000 runners, and this risk has fallen over time as medical support at races has improved. When a sudden cardiac arrest does happen, it is usually linked to an undiagnosed heart condition, rather than damage caused by running itself.

Very high-level endurance exercise

There is still a debate about very high-level endurance exercise. While most recreational runners show no lasting harm, some studies have found signs of scarring in the heart – called fibrosis – in athletes who have trained at very high volumes for many years.

Heart MRI scans have shown that many older endurance athletes have small areas of scar tissue in their heart muscle. In the recent Ventoux study – named after Mont Ventoux, one of the toughest climbs in the Tour de France – researchers looked at 106 male cyclists and triathletes over 50. Almost half of these athletes had detectable scarring, compared with very few in non-athletic participants.

High-level endurance exercise is linked to scar tissue in the heart
What about ultra-endurance?
Obatala-photography/Shutterstock.com

This scarring was linked to a higher chance of abnormal heart rhythms, including some that can be deadly. But serious problems are still rare, and results differ a lot between people, suggesting factors like genetics, training intensity and how long someone has trained all matter.

Taken together, the evidence suggests that for most recreational marathon runners, the heart adapts rather than deteriorates. Temporary changes after races and short-term rises in troponin reflect stress, not injury.

Being fit doesn’t mean you can’t develop heart disease, and test results only make sense when considered alongside symptoms and medical checks. The marathon runner’s heart is strong, but it still needs careful assessment.

For most recreational runners, the evidence is reassuring. The heart adapts to marathon running rather than breaking down under it. Those temporary spikes in troponin after races reflect hard work, not damage, and decade-long studies confirm that with proper training, the heart stays healthy.

But fitness isn’t immunity. Chest pain, unusual breathlessness or feeling faint during exercise always needs proper medical attention. The marathon runner’s heart is resilient – but it still deserves respect and careful monitoring.

The Conversation

David C. Gaze does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Do marathons damage your heart? Decade-long study finally settles the debate – https://theconversation.com/do-marathons-damage-your-heart-decade-long-study-finally-settles-the-debate-272371

Petite histoire des jeux vidéo en famille, entre inquiétudes et transmission culturelle

Source: The Conversation – in French – By Quentin Dumoulin, MCU -psychologie, psychopathologie clinique, Université Côte d’Azur

Sources de multiples craintes à leur apparition, taxés d’isoler les jeunes et de les exposer à des contenus violents, les jeux vidéo sont devenus des espaces de dialogue où se négocient des règles familiales et où se transmet un patrimoine ludique. Retour sur ce changement de statut qui dessine une évolution des liens entre parents et enfants à l’ère numérique.


Longtemps, le jeu vidéo a été un objet suspect. À son arrivée dans les foyers occidentaux, au cours des années 1970 et 1980, il s’est imposé comme un intrus silencieux, échappant largement au regard des adultes. Les premières consoles domestiques – de l’Atari 2600 à la Nintendo – inaugurent une pratique majoritairement solitaire, absorbante, et perçue comme coupée du monde social.

Très vite, le jeu vidéo cristallise des paniques morales comparables à celles qu’avaient suscitées avant lui le rock, la bande dessinée ou la télévision.

Dans les années 1990, la peur change de registre. Avec la médiatisation des jeux dits « violents » – de Doom à Grand Theft Auto – le jeu vidéo est régulièrement pointé du doigt dans les discours sur la délinquance juvénile. Les controverses autour de la violence, de l’addiction ou de l’isolement social se multiplient, relayées par des travaux scientifiques souvent contradictoires.

Le jeu vidéo, terrain de crispations éducatives ou de dialogue

Un premier basculement s’opère toutefois au tournant des années 2000. L’essor du jeu en réseau, puis du jeu en ligne massif (World of Warcraft, Counter Strike), déplace la question : on ne joue plus seulement seul, mais avec d’autres joueurs qui peuvent être à proximité (en LAN) comme à l’autre bout du monde. Le jeu vidéo devient un espace de sociabilité, de coopération, de compétition réglée.

Dans le même temps, la Wii de Nintendo, puis les jeux dits casual entrent physiquement dans le salon et reconfigurent les usages familiaux, dépassant les frontières entre générations.

Aujourd’hui, le statut du jeu vidéo s’est renversé. Parents et enfants jouent ensemble, discutent des univers, des règles, des émotions éprouvées. Les jeux indépendants – par exemple That Dragon, Cancer ; Celeste) – abordent des thèmes existentiels, politiques ou intimes tandis que des titres grand public comme Minecraft ou Animal Crossing deviennent des terrains d’expérimentation partagés. C’est d’autant plus vrai que la pratique vidéoludique se fait essentiellement à la maison (86 %), comme l’indique l’enquête Ludespace qui a servi à l’ouvrage la Fin du game ? Les jeux vidéo au quotidien (2021).

Ce renversement n’efface pas les tensions. Le jeu vidéo reste un lieu de crispation éducative, autour du temps d’écran, de la régulation, du contrôle parental. Mais il est désormais aussi un objet médiateur, à partir duquel se négocient des règles, se transmettent des valeurs, se construisent des récits communs. D’objet honni à espace de rencontre, le jeu vidéo raconte ainsi, en creux, l’évolution des liens familiaux à l’ère numérique.

La transmission d’un patrimoine ludique

La dernière enquête annuelle du Syndicat des éditeurs de logiciels de loisirs (SELL) indique que plus de 7 Français sur 10 pratiquent régulièrement le jeu vidéo. Les parents des enfants et adolescents actuels sont dans la tranche d’âge 35-50 ans. Cela signifie qu’ils étaient eux-mêmes enfants ou adolescents entre 1985 et 2005 et sont donc potentiellement détenteurs d’une culture du jeu vidéo, des premières consoles pour les plus anciens aux jeux en 3D des années 2000. Ils ont aussi connu le phénomène du « jeu portable » avec la Game Boy et ses suites (1989-2003), la Nintendo DS (2004) voire la PSP (2007).

Culturellement, pour cette génération, le jeu vidéo n’est pas une pratique nouvelle, et elle ne se cantonne pas à l’enfance ou l’adolescence, puisque 75 % de ces parents continuent à jouer. Ils ont aussi baigné dans la culture mondialisée du média et sont familiers de ses icônes, qui font partie intégrante de leur vécu depuis l’enfance.

« Les 40 ans de Super Mario Bros », France 24, septembre 2025.

De ce point de vue, la transmission du patrimoine ludique à la génération suivante au sein de l’espace familial est cruciale, et visible dans les enquêtes publiques : l’intérêt pour une franchise, qui suppose la continuité culturelle, motive pratiquement un tiers des achats. Par ailleurs, qu’il s’agisse du jeu en ligne ou du jeu en local, plus de la moitié des joueurs, toutes générations confondues (autour de 55 %) indiquent qu’ils pratiquent à plusieurs et que le jeu vidéo est un loisir pour toute la famille à 88 %.

La place des « machines » dans l’espace familial

L’interrogation porte aussi sur ce qui se transmet. S’agit-il de personnages, de gameplays (façons de jouer) ou d’univers, tels qu’ils sont mis en avant par les éditeurs ou bien y-a-t-il autre chose, moins visible ou qui échappe au discours marketing et aux études de publics ?

La constitution de la famille comme telle qui a muté. Là où les familles faisaient des enfants, ce sont aujourd’hui les enfants qui font les familles. La transmission et la filiation s’en trouvent modifiées. Ce modèle individualiste se retrouve aujourd’hui dans l’économie des écrans des foyers. Le poste de télévision, où ne pouvait se dérouler qu’un programme ou qu’un jeu, a cédé sa place à près de six écrans par foyer en 2024.

Cette multiplication peut faire obstacle aux échanges intrafamiliaux, sur le mode : « seuls ensemble », chacun devant son écran. Cependant, les diffuseurs répondent à la demande de partage des consommateurs avec la catégorie « à regarder en famille » qui apparaît sur les plates-formes, ou les partages asynchrones, où chacun regarde le même programme.

Les parents ne sont pas aidés par les injonctions paradoxales des milieux de l’éducation et de la santé, se retrouvant, comme l’ont épinglé le journaliste François Saltiel et la chercheuse Virginie Sassoon, tour à tour gendarmes et dealers d’écrans.

Si les jeux vidéo n’ont pas débarrassé les parents et les familles du problème humain de la transmission, ce qui est désormais un fait, c’est la présence de la machine dans les foyers. Cette présence discrète, recouverte par l’écran « attrape-regard », est pourtant constante. Jouer à un jeu vidéo, c’est toujours jouer avec (ou contre) la machine. Ce qui se transmet dans la famille par le jeu vidéo, c’est également la familiarité de la machine.

Une culture en réinvention perpétuelle

Ernst Jentsch, psychiatre, avait mis à jour cet Unheimliche, cet inquiétant familier que l’essai de Sigmund Freud a popularisé. Ce concept s’édifie sur le fait que les objets, les lieux les plus familiers puissent apparaître, souvent de façon transitoire et brève, tout à fait inquiétants.

Freud prend ainsi l’exemple des moments où l’on ne reconnaît pas du premier coup son propre reflet dans un miroir. La machine permet de renouveler ces expériences d’inquiétante familiarité, ainsi que l’illustre la proposition de la « vallée de l’étrange » du roboticien Masahiro Mori et qui désigne ce moment où les robots, ressemblant à la fois « trop » et « pas assez » à un véritable être humain, en deviennent inquiétants.

Peut-être les jeux vidéo rejouent-ils, soutenus par la machine (le hardware), cette double et simultanée nature Unheimliche de la machine, familière et inquiétante à la fois.

Sans prétendre donner de guide prêt à l’emploi aux parents, on peut penser, dans le fil de ce que proposait Hannah Arendt, que la transmission s’effectue à la condition d’accorder une attention soutenue à la façon dont celui à qui l’on transmet réinvente ce qu’on lui lègue.

Au-delà des franchises reconduites génération après génération par les firmes marchandes, le succès pour le « retrogaming » et celui des différents émulateurs permettant de rejouer à des jeux anciens semblent témoigner que les jeux vidéo ne sortent pas de cette logique. Toutefois, ils ne résorberont sans doute pas l’inquiétante familiarité de ce qui se transmet : Restart and play again !

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Petite histoire des jeux vidéo en famille, entre inquiétudes et transmission culturelle – https://theconversation.com/petite-histoire-des-jeux-video-en-famille-entre-inquietudes-et-transmission-culturelle-272503

Les exosomes : au-delà des allégations de l’industrie cosmétique, un potentiel médical bien réel

Source: The Conversation – in French – By Guillaume van Niel, Directeur de recherche, chef d’équipe, responsable de plateforme organismes modèles alternatifs (poisson zèbre) UMR_S 1307 Centre de Recherche en Cancérologie et Immunologie Intégrée Nantes Angers, Nantes Université

Crèmes antirides, traitements contre la calvitie, « régénération cellulaire »… À en croire certains, les exosomes auraient de nombreuses vertus. Au-delà des sirènes du marketing, ces minuscules vésicules produites par nos cellules génèrent de nombreux espoirs dans le secteur de la recherche pharmaceutique, qu’il s’agisse de lutter contre le cancer, la maladie d’Alzheimer, ou d’établir des diagnostics.


Vous avez sûrement déjà lu le mot «exosomes» sur des étiquettes de produits cosmétiques vantant les dernières innovations en matière d’amélioration de la qualité de la peau, voire de lutte contre la calvitie. Si ces allégations marketing peuvent faire lever un sourcil dubitatif, la recherche sur les exosomes n’a, elle, rien de fantaisiste.

Ces minuscules particules, qui appartiennent à la grande «famille» des vésicules extracellulaires, sont étudiées par des milliers de chercheurs partout dans le monde. Il faut dire qu’elles ont un énorme potentiel, puisqu’elles pourraient ouvrir la voie à des traitements innovants pour mieux prendre en charge des maladies aussi diverses que le cancer, les maladies neurodégénératives et les infections virales.

Il reste cependant de nombreux défis scientifiques et technologiques à surmonter avant d’en arriver là. Faisons le point sur l’avancée des connaissances sur ce sujet.

De déchets cellulaires à acteurs majeurs dans l’organisme

Les vésicules extracellulaires sont de minuscules particules qui contiennent des protéines, des acides nucléiques, des lipides et des sucres, et qui sont libérées par les cellules (humaines, animales ou végétales) dans leur environnement. Elles sont produites soit activement, par sécrétion ou déformation de la membrane des cellules, soit passivement, après la mort cellulaire. On en dénombre actuellement jusqu’à 25 sous-types.

De taille variable, elles peuvent mesurer de 50 nanomètres (la taille d’un virus) à quelques micromètres (μm). Pour mémoire, une cellule humaine mesure en moyenne 50 μm, tandis que le diamètre d’un cheveu est compris entre 50 et 100 µm.

Les exosomes ne sont qu’un type parmi d’autres de vésicules extracellulaires. On désigne par ce terme celles qui ont été produites initialement à l’intérieur de la cellule émettrice, puis ont été libérées par des mécanismes de sécrétion actifs.

Les vésicules extracellulaires sont produites par toutes les sortes de cellules, qu’elles soient animales, végétales ou bactériennes, en culture comme in vivo ce qui explique leur popularité auprès des scientifiques.

Schéma simplifié de la biogenèse des exosomes.
Mécanisme de production d’exosomes par une cellule.
Adapté de Wikimedia Commons, d’après Raposo et Stoorvogel, 2013, CC BY

Les premières études menées sur les vésicules extracellulaires dans les années 1940 les ont cataloguées comme des «déchets» cellulaires. Si cette fonction reste d’actualité (et mériterait d’être davantage étudiée), c’est un autre de leur rôle qui a véritablement éveillé l’intérêt des scientifiques : celui de messager intercellulaire.

Des vésicules pour communiquer

Pour communiquer entre elles, les cellules disposent de différents moyens. Les cellules adjacentes peuvent échanger des informations directement par contact, grâce à des molécules qui constituent des jonctions ou des synapses. Lorsqu’il s’agit de communiquer à distance, les cellules ont recours à des messagers chimiques (les hormones constituent l’un des exemples les plus connus d’un tel mode de communication).

Dans les années 1990, les scientifiques ont mis en évidence la capacité de certaines vésicules extracellulaires à participer elles aussi à la communication entre cellules. Ils ont en effet remarqué que de telles vésicules pouvaient être transférées d’une cellule émettrice à une cellule réceptrice, et que leur intériorisation par cette dernière s’accompagnait d’une modification de son apparence (son «phénotype», selon le terme scientifique), témoignant de capacités de signalisation, voire de transfert de matériel.

Si les premiers exemples de cette communication ont été démontrés dans des processus liés à la réponse immunitaire, en réalité l’ensemble des processus physiologiques se déroulant au sein d’un organisme sont concernés, y compris ceux associés à des maladies ou des troubles.

Des applications prometteuses

Avant tout, crevons l’abcès : à l’heure actuelle, si les vésicules extracellulaires font rêver les industriels de la beauté pour leurs supposées propriétés régénératrices exceptionnelles, leur efficacité potentielle reste à démontrer.

Leurs effets «anti-âge» ne sont pas scientifiquement prouvés, pas plus qu’un effet supérieur sur le teint ou la texture de la peau par rapport à des «principes actifs» classiquement utilisés dans les produits cosmétiques.

Exosomes et cosmétiques: attention aux risques

    Certaines cliniques d’esthétique proposent l’utilisation de ce qui est présenté comme des exosomes d’origine humaine (dans l’Union européenne, leur utilisation est interdite en médecine esthétique), parfois même en microperforation (une pratique autorisée en France, contrairement à l’injection, interdite). Ces pratiques posent question, car la nature, l’origine, la qualité et la traçabilité de ces produits restent opaques (concentration, degré de pureté, toxicité, innocuité du traitement, risque viral…).

Cela ne signifie pas pour autant que les vésicules extracellulaires n’ont aucun intérêt : leur potentiel en médecine est indéniable, et concerne de nombreux domaines, du diagnostic à la prise en charge thérapeutique.

Elles se retrouvent en effet dans tous les fluides biologiques humains (sang, urine, etc.), ce qui souligne leur importance et leur potentiel diagnostique.

Utilisées comme biomarqueurs, les vésicules extracellulaires pourraient par exemple permettre d’évaluer les capacités de résilience des tissus, de détecter précocement les maladies, ou encore de mieux personnaliser les traitements et de surveiller en continu la santé des patients.

En matière de santé environnementale et de santé publique, elles pourraient constituer de nouveaux indicateurs permettant notamment d’évaluer les altérations de notre santé par la pollution (notamment en lien avec les maladies respiratoires, ou de mesurer l’accumulation de polluants dans notre organisme.

Certaines vésicules extracellulaires pourraient être utilisées comme biomarqueurs circulants. Cette approche repose sur le fait que ces vésicules sont libérées dans les fluides biologiques – ce qui peut faciliter leur récupération – et que leurs nombres (ainsi que leur composition) peuvent refléter l’état de la cellule qui les produit.

Les vésicules extracellulaires sont en quelque sorte le miroir des facultés d’adaptation ou des changements pathologiques dans l’organisme.

Des essais précliniques déjà en cours

Un exemple concret d’utilisation des vésicules extracellulaires en tant que biomarqueurs est la mise sur le marché des tests diagnostiques destinés à détecter précocement le cancer de la prostate, en utilisant les vésicules extracellulaires urinaires. Cette approche offre une alternative moins invasive et potentiellement plus précise que les tests traditionnels.

Divers essais cliniques sont en cours, concernant surtout la détection de tumeurs ou de maladies neurodégénératives, même si l’utilité des vésicules extracellulaires dans les contextes d’autres pathologies, comme les maladies métaboliques et inflammatoires, est aussi explorée.

S’il s’agit en immense majorité d’essais préliminaires, de petite taille, les espoirs soulevés sont à la mesure des enjeux : fournir des outils capables de détecter précocement des maladies dont les symptômes peuvent mettre des décennies à se manifester.

Il faut néanmoins garder à l’esprit qu’un tiers des essais cliniques ont pour but de valider l’utilisation des vésicules extracellulaires en tant que biomarqueurs utilisables en complément à différents tests diagnostiques déjà existants.

Les chercheurs explorent également l’utilisation de telles vésicules comme marqueurs de l’efficacité de certains traitements. L’espoir est qu’il soit possible de suivre la réponse aux traitements des patients en suivant les variations du contenu de leurs vésicules extracellulaires, et ainsi d’adapter la prise en charge en temps réel.

Au-delà du diagnostic et du suivi de la réponse aux traitements, ces particules pourraient aussi avoir un rôle à jouer en tant que vecteurs de thérapies.

Traiter les maladies de manière plus ciblée, plus sûre et plus efficace

Le potentiel des véhicules extracellulaires en tant qu’agents thérapeutiques est également activement évalué. Modifiées, elles pourraient par exemple constituer des nanovecteurs, autrement dit des véhicules nanoscopiques capables de transporter des médicaments à des endroits très précis de l’organisme.

Par ailleurs, leur composition étant partiellement commune à celle des cellules qui les produisent, elles en partagent aussi certaines fonctions.

Ainsi, les vésicules extracellulaires provenant de cellules dendritiques (des cellules du système immunitaire qui patrouillent dans l’organisme et alertent les autres cellules participant à sa défense en cas de problème) sont capables d’induire une réponse du système immunitaire quand elles rencontrent des lymphocytes T appropriés.

Cette fonctionnalité a notamment été évaluée dans l’un des premiers essais cliniques sur les vésicules extracellulaires de phase 2 (où l’efficacité par rapport aux traitements classiques peut être évaluée). Mené en France, cet essai utilisait des vésicules extracellulaires de cellules dendritiques mises en présence avec un antigène tumoral (un fragment de tumeur capable de déclencher une réponse immunitaire lorsqu’il est présenté par les cellules dendritiques aux autres cellules immunitaires).

L’objectif était d’éduquer le système immunitaire des patients atteints de cancer contre leur propre tumeur. Cet essai a cependant été interrompu après traitement de 22 patients, car les réponses des patients ne se sont pas avérées à la hauteur des espoirs, et les cliniciens souhaitaient plutôt essayer d’autres traitements expérimentaux d’immunothérapie non basée sur les exosomes.

Autre type de vésicules extracellulaires intéressantes : celles provenant de cellules souches. En effet, elles partagent également les propriétés régénératives de ces cellules indifférenciées, capables de donner de nombreuses sortes de cellules spécialisées. Des travaux explorent la possibilité d’utiliser ces vésicules pour favoriser la survie cellulaire ou la régénération des tissus endommagés, par exemple après une radiothérapie. Elles pourraient aussi être employées pour traiter des pathologies inflammatoires chroniques (comme les maladies ostéo-articulaires), ou d’autres pathologies liées à un état inflammatoire exacerbé, voire les maladies cardiovasculaires.

Les vésicules auraient alors des avantages significatifs par rapport aux cellules souches, en particulier d’être non-réplicatives, évitant une «infection» de l’organisme, congelables, et de provoquer peu de réactions du système immunitaire.

Les neurosciences s’intéressent de près aux vésicules des systèmes nerveux. Les vésicules extracellulaires régénératrices suscitent par exemple des espoirs immenses en matière de réparation ou de protection des cellules cérébrales, notamment dans des affections comme la maladie d’Alzheimer ou de Parkinson.

Véhiculer les médicaments

D’autres propriétés des vésicules extracellulaires en font des candidats idéaux pour le ciblage thérapeutique. Elles peuvent en effet être utilisées pour transporter des molécules bioactives (protéines, ARN, etc.), protégeant ainsi ces molécules d’une dégradation naturelle qui diminuerait leur efficacité. À l’inverse, elles peuvent servir à isoler des principes actifs qui seraient trop toxiques pour l’organisme sous forme soluble.

Les vésicules extracellulaires peuvent aussi avoir la capacité de se lier spécifiquement à certains types de cellules (ou l’acquérir grâce à des manipulations de bio-ingénierie). Les chercheurs espèrent pouvoir les utiliser pour transporter des ARN interférents ou des médicaments anticancéreux directement dans les cellules tumorales, sans affecter les cellules saines environnantes. Cela permettrait d’augmenter l’efficacité des traitements tout en réduisant les effets secondaires indésirables.

Dans le cas des infections virales, des recherches explorent le potentiel des vésicules extracellulaires pour transporter des molécules antivirales ou pour renforcer la réponse immunitaire contre des infections telles que le Covid-19 ou le VIH.

Un marché économique conséquent, malgré de nombreuses inconnues

Les vésicules extracellulaires présentent donc un potentiel énorme en médecine de précision et en médecine personnalisée. Des essais cliniques de phase I et II contre les tumeurs malignes avancées ont déjà démontré la faisabilité et la sécurité de l’utilisation des vésicules extracellulaires à des fins thérapeutiques.

Conséquence de l’espoir soulevé par ces approches, des projections récentes indiquent que la taille du marché mondial des vésicules extracellulaires pourrait atteindre plus de 200 millions de dollars en 2025, avec, dans les années à venir, un taux de croissance exponentiel.

Certains experts du domaine de l’application thérapeutique des vésicules extracellulaires considèrent que le marché «maladies» risque de se trouver prochainement, voire serait déjà, dans la phase de «creux de la désillusion» après avoir atteint un «pic d’attentes exagérées». La principale raison de cette désillusion est l’immaturité de ce domaine de recherche, notamment en matière de mécanismes d’action et d’outils diagnostiques validés.

Des structures très difficiles à étudier

    La diversité des vésicules extracellulaires (origine, taille, contenu) rend leur isolement, leur analyse et leur classification très complexes.

    Les extraire d’un fluide biologique ou d’une culture cellulaire nécessite des techniques de pointe. Cependant, même les méthodes les plus sophistiquées peuvent co-isoler des débris cellulaires ou des contaminants, ce qui complique l’interprétation des résultats.

Depuis 2005, les dizaines d’études cliniques portant sur les vésicules extracellulaires employées comme médicaments ont eu recours à des méthodes d’isolement et de caractérisation très variées, ce qui rend ces études difficiles à comparer.

Par ailleurs, ces travaux fournissent peu ou pas d’informations sur les mécanismes d’action, en particulier concernant leur capacité à contrer les mécanismes à l’origine des maladies. Or, cette information est nécessaire pour pouvoir tester et valider chaque préparation avant utilisation.

En outre, alors que l’on sait que la grande majorité des vésicules extracellulaires sont éliminées du système vasculaire en quelques minutes, les études disponibles n’ont rapporté aucune donnée concernant leur devenir dans les organismes (pharmacocinétique), l’endroit où elles se retrouvent (biodistribution) ou leur efficacité de ciblage.

Ces lacunes s’expliquent par le manque d’outils permettant d’étudier ces messagers nanométriques au sein des êtres vivants, en raison de leur minuscule taille et de leur hétérogénéité.

Quelles sont les prochaines étapes ?

Avant d’arriver à une mise sur le marché de traitements à base de vésicules extracellulaires, de nombreux obstacles restent encore à surmonter.

Il faudra notamment :

  • améliorer et standardiser les méthodes de production et d’isolement des vésicules extracellulaires à grande échelle tout en conservant leur propriété active, par exemple régénératrice ;
  • développer de nouveaux modèles précliniques pour mieux appréhender leur comportement et leur devenir une fois injectées dans le corps humain, que ce soit leurs propriétés pharmacocinétiques, pharmacodynamiques et leur mécanisme d’action ;
  • établir des normes réglementaires de sécurité et d’efficacité pour les traitements à base de vésicules extracellulaires.

De nombreux efforts sont actuellement déployés en ce sens, et l’ensemble des avancées obtenues est structuré, échangé et débattu par des comités et groupes de travail au sein de sociétés savantes à l’échelle internationale comme l’ISEV) et nationale comme la FSEV). Les enjeux sont importants, il en va par exemple de la crédibilité d’usage de l’information scientifique, et de la souveraineté scientifique.

Soulignons que le passé récent nous a démontré que les obstacles techniques ne sont pas forcément insurmontables : voici 30 ans, peu de gens croyaient au potentiel thérapeutique des ARN messagers.

En attendant d’obtenir des données scientifiques solides concernant l’efficacité des exosomes, leurs mécanismes d’action, et leur valeur ajoutée par rapport aux approches existantes, mieux vaut écouter les mises en garde répétées de la communauté scientifique. Et éviter de céder à la surenchère et à la «scienceploitation» – autrement dit, l’exploitation de termes scientifiques pour vendre des produits sans preuves solides d’efficacité – par certains acteurs du marché de la cosmétique.

The Conversation

Guillaume van Niel a reçu des financements de l’ANR, La région Pays de la Loire, France Alzheimer, l’ARC, l’INCA, la fondation Recherche Alzheimer, la communauté Européene. Guillaume van Niel est co-fondateur et ancien président de la FSEV.

Christian Neri a reçu des financements de l’ANR, de CNRS Innovation, et de fondations (FRM, Association Huntington France, Hereditary Disease Foundation, Fondation CHDI). Christian Neri est membre du bureau de sociétés savantes en France (Président de la FSEV) et à l’étranger (ISEV).

Clotilde Théry a reçu des financements de l’ANR, l’INCa, et de fondations (ARC, FRM, Fondation de France). Clotilde Théry est co-fondatrice et ancienne présidente de la société internationale des EVs (ISEV), et co-fondatrice et ancienne vice-trésorière de la sociéte française des EVs (FSEV).

ref. Les exosomes : au-delà des allégations de l’industrie cosmétique, un potentiel médical bien réel – https://theconversation.com/les-exosomes-au-dela-des-allegations-de-lindustrie-cosmetique-un-potentiel-medical-bien-reel-272313

En Russie, le pouvoir développe une intelligence artificielle ouvertement idéologisée

Source: The Conversation – in French – By Iurii Trusov, chercheur en philosophie, docteur en sciences politiques, Université Bordeaux Montaigne

Conscientes du fait que les citoyens et, spécialement, les jeunes ont de plus en plus recours à l’IA générative, les autorités russes cherchent à mettre en place leurs propres systèmes qui diffuseront l’idéologie du Kremlin et sa vision de l’histoire.


Le 19 novembre, le robot humanoïde Green, basé sur l’intelligence artificielle, a accueilli Vladimir Poutine lors de la conférence sur l’IA de la plus grande banque de Russie, « Sber – AI Journey international conference ». Après plusieurs heures passées à examiner les avancées dans le domaine de l’IA, Poutine a prononcé un discours dans lequel il a déclaré que les technologies d’IA générative étaient d’une importance stratégique pour la Russie.

La Stratégie nationale de développement de l’IA, adoptée en 2019 et amendée en 2024, avait déjà fixé l’objectif de faire en sorte que la contribution cumulée des technologies d’IA au PIB russe dépasse les 11 000 milliards de roubles (119 milliards d’euros) d’ici à 2030. Cependant, les technologies de l’IA peuvent être utilisées non seulement pour moderniser l’économie, mais aussi pour perfectionner l’armement et pour renforcer le contrôle de la population, la censure et la propagande idéologique, tant à l’intérieur du pays qu’à l’échelle mondiale.

Développement de l’intelligence artificielle idéologisée en Russie

L’effondrement de l’Union soviétique et la fin de la guerre froide ont inspiré chez certains l’espoir que la « fin de l’Histoire » et des idéologies était arrivée, et que dorénavant seule la démocratie libérale dominerait en tant qu’idéologie viable.

Dans les faits, l’idéologie, appréhendée comme système d’idées qui masque la réalité des rapports de pouvoir et des relations économiques, n’a pas disparu pour autant. Telle que la définit le sociologue Karl Mannheim, l’idéologie est constituée d’idées que le pouvoir utilise pour préserver l’ordre politique existant. Elle peut contenir mensonges partiels, dissimulation de faits gênants, et même évoluer vers une idéologie totale – un état de cécité collective dans lequel les groupes dirigeants obscurcissent inconsciemment la réalité afin de préserver l’ordre établi.

Comme l’écrit Hannah Arendt, l’idéologie n’est pas liée à la réalité ; elle ne dépend ni des faits ni de notre expérience. C’est littéralement la logique d’une idée, c’est-à-dire la déduction des principes d’une nouvelle réalité à partir d’idées majeures, qu’il s’agisse de l’idée de supériorité raciale, de domination mondiale ou de la nécessité d’une numérisation totale de la société et de la surveillance.

Le pouvoir russe tente depuis longtemps de construire sa propre réalité : dans cette réalité, il n’y a pas de guerre, seulement une « opération militaire spéciale » ; le pays prospère dans la démocratie, bien que personne d’autre que Poutine et ses partisans ne soit autorisé à gouverner ; la liberté d’expression est pleinement respectée, quand bien même celui qui l’exerce risque fort d’être officiellement qualifié d’« agent de l’étranger » ou se retrouver en prison.

En 2024, le premier ministre, Mikhaïl Michoustine, a déclaré lors du forum Digital Almaty 2024 que le chatbot russe GigaChat et ChatGPT sont porteurs de visions du monde différentes, d’une compréhension différente de ce qui est « bien » et de ce qui est « mal ». Michoustine a également souligné qu’il est nécessaire d’utiliser une IA qui réponde aux intérêts nationaux, c’est-à-dire, en d’autres termes, de développer l’IA conformément à la nouvelle idéologie russe.

La différence entre les IA russes et américaines réside dans les ensembles de données sur lesquels elles ont été entraînées, ainsi que dans les filtres intégrés au système. Par exemple, le chatbot russe Alice AI, qui fonctionnait jusqu’à récemment sur le LLM YandexGPT et qui utilise désormais une nouvelle famille de modèles génératifs, lorsqu’on lui demande : « J’ai vu beaucoup de nouvelles, mais je n’ai pas compris à qui appartient actuellement la Crimée. Explique-moi le problème », fournit d’abord des informations issues des « ressources autorisées » sur la Crimée du temps de l’URSS et sur « l’intégration de la Crimée à la Russie en 2014 ».

Lors des questions de clarification, il commence à répondre, puis supprime sa réponse et affiche : « Il y a des sujets sur lesquels je peux me tromper. Il vaut mieux que je me taise. » L’IA russe « se tait » de la même manière sur d’autres sujets politiques, par exemple la corruption, les manifestations, la liberté d’expression ou la démocratie en Russie.

Présentation par une chaîne YouTube clairement téléguidée depuis Moscou de la conférence du 19 novembre dernier.

Les systèmes d’IA jouent un rôle important dans la formation de la vision du monde souhaitée chez les citoyens, a annoncé Poutine dans son discours du 19 novembre 2025 déjà évoqué :

« Ces modèles génèrent d’énormes volumes de nouvelles données et deviennent l’un des instruments clés de diffusion de l’information. À ce titre, ils ont la capacité d’influencer les valeurs et les visions du monde des individus, façonnant l’environnement sémantique de nations entières et, en fin de compte, de l’humanité tout entière. »

La majorité des jeunes Russes utilisent l’IA dans leur vie quotidienne. C’est pourquoi Poutine exige de développer des systèmes nationaux d’IA générative, car il s’agit désormais non seulement d’une question technologique, mais aussi de « souveraineté des valeurs » – autrement dit, de la construction d’une vision du monde « correcte » du point de vue idéologique.

Ainsi, Poutine a donné pour instruction au gouvernement et à l’administration présidentielle de créer un organe unique chargé du développement et de l’intégration de l’IA dans tous les secteurs de la société : l’industrie, les transports, la médecine, et ainsi de suite. La Russie prévoit de créer des centres de données auprès de grandes centrales nucléaires, ainsi que de construire 38 nouvelles centrales nucléaires, ce qui doublera la capacité actuelle de production d’électricité et permettra d’augmenter la puissance de calcul de l’intelligence artificielle. Contrairement au secteur pétrolier, le secteur de l’énergie atomique n’a pas beaucoup souffert des sanctions, et la France continue de coopérer avec la Russie, notamment en y envoyant du combustible nucléaire usé pour le retraitement, finançant indirectement ces initiatives.

« Les produits basés sur l’IA doivent, d’ici 2030, être utilisés dans tous les secteurs clés. Il s’agit notamment de solutions telles que les assistants intelligents pour l’homme et les agents IA. Il faut les utiliser dans la majorité des processus de gestion et de production », a déclaré Poutine.

Le piège du confort technologique

La création d’un grand nombre de modèles d’IA idéologisés dans le cadre d’un système fermé d’Internet souverain, où l’accès des citoyens aux sources d’information et aux services étrangers est bloqué, renforce l’isolement axiologique et accroît le contrôle de l’État, qui dispose d’un accès total à ses propres systèmes, gérés par des spécialistes russes.

La nouvelle utopie technologique, qui promet – grâce au développement de l’IA et des dispositifs « intelligents » – davantage de confort et un miracle économique, se transforme en un pouvoir instrumental total de collecte de données et de contrôle du comportement de la population. Alors que l’Europe tente de résister à la pression exercée par les Big Tech et les États-Unis en matière de régulation des données personnelles et de l’IA en cherchant un compromis, Poutine a donné instruction d’accélérer la suppression des barrières administratives et juridiques dans le domaine du développement de l’IA et de s’appuyer davantage sur le « droit souple » et les codes d’éthique de l’IA, en se moquant de la régulation européenne stricte qui freine le secteur.

Il ne faut pas oublier que la création et le développement de systèmes d’IA générative idéologisés menacent non seulement les citoyens russes, mais aussi les autres pays, qui sont amenés à lutter contre la propagation de fausses nouvelles et faire face à des cyberattaques où l’on peut également recourir à l’IA, comme l’ont fait récemment des hackers chinois.

The Conversation

Iurii Trusov ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. En Russie, le pouvoir développe une intelligence artificielle ouvertement idéologisée – https://theconversation.com/en-russie-le-pouvoir-developpe-une-intelligence-artificielle-ouvertement-ideologisee-271030

Quel rôle pour la production hors-sol dans l’agriculture de demain ?

Source: The Conversation – in French – By Marie-Pierre Bruyant, Sciences végétales, UniLaSalle

Produire des légumes en hydroponie, en aéroponie ou en aquaponie. Tel est le pari de la production agricole hors-sol qui suscite ces dernières années tantôt l’engouement, tantôt la critique. Quels atouts et quelles limites présente-t-elle, et quel rôle lui donner dans l’indispensable transition que doit connaître l’agriculture ?


Dans nos imaginaires, l’agriculture est souvent associée à un tracteur, un grand champ et des vaches qui pâturent. Mais la réalité économique, écologique et sociétale nous invite aujourd’hui à repenser ce modèle d’agriculture si nous voulons, dans un contexte de dérèglement climatique, reprendre la main sur notre autonomie alimentaire.

Parmi les pistes existantes pour dessiner une agriculture capable de répondre à ces défis, la production hors-sol présente certains atouts, mais également de gros inconvénients. Complémentaire d’autres approches, elle ne solutionnera en aucun cas seule les enjeux.

Changement climatique, urbanisation et pertes de sols agricoles

Le dérèglement climatique, par les phénomènes climatiques extrêmes courts, mais intenses et fréquents qu’il engendre, affecte déjà profondément les productions agricoles de certaines régions du monde. Il vient ainsi accélérer la migration vers les villes, processus qui depuis 1950 a déjà fait bondir la population urbaine de 30 à 60 % de la population mondiale. Cette dernière continue en outre sa progression : de 8,2 milliards de personnes aujourd’hui, elle devrait atteindre les 9,66 milliards en 2050, ce qui constitue également un défi majeur pour la sécurité alimentaire.

En parallèle, les principaux pourvoyeurs de cette dernière, à savoir les sols, sont aussi menacés.

Par l’artificialisation d’une part, directement liée à l’urbanisation, qui se manifeste en France par la disparition annuelle de 24 000 ha d’espaces naturels ou agricoles chaque année au profit de l’urbanisation et l’industrialisation.

Et par l’agriculture productiviste, qui contribue à affaiblir et mettre la main sur les surfaces agricoles et les espaces naturels, notamment les forêts : dans le monde, entre 43 et 45 millions d’hectares de terres ont été soumis à un accaparement par des géants de l’agroalimentaire, des spéculateurs fonciers, des entreprises minières ou des élites ou fonctionnaires d’État, afin d’y déployer des monocultures (huile de palme en Indonésie, soja en Amazonie, cultures légumières industrielles en Europe de l’Ouest…) qui endommagent les sols, participent parfois à déforester et ne font que renforcent la dépendance alimentaire de certains territoires.

Autant de facteurs qui menacent la sécurité alimentaire, et déjà engendrent des tensions, y compris en France comme nous a pu le voir en Martinique en octobre 2024, lorsque des violences ont éclaté pour protester contre des prix alimentaires 40 % plus élevés qu’en métropole.

Les productions hors-sol

Face à ces situations complexes, une évolution de nos systèmes agricoles est nécessaire. L’un des agrosystèmes qui ambitionne notamment répondre à la fois au manque de surfaces agricoles, les aléas climatiques et le besoin de relocalisation est la production agricole hors-sol. Elle se caractérise par son contrôle possible de tout ou partie de l’environnement de culture (lumière, température, hygrométrie, eau, nutriments, CO2, substrats/supports innovants…).

Surtout, elle facilite l’atténuation des effets du changement climatique comme la sécheresse, les inondations ou le gel tardif et est peu gourmande en eau. Certaines fermes hors-sol s’établissent dans des bâtiments réhabilités, des sous-sols ou des toits, ce qui n’occupe pas de nouvelles terres agricoles. Cette installation proche des centres-villes permet une production locale et faible en intrants, qui limite les coûts d’exportation et évite une contamination potentielle des sols.

Elle peut être intégrée à l’agriculture urbaine, périurbaine ou rurale et participer à la valorisation de friches industrielles abandonnées et/ou polluées, ou bien être incorporée au sein des exploitations comme un outil de diversification. Cela demande un contrôle parfait des paramètres physico-chimiques et biologiques de la croissance des plantes : d’abord la maîtrise des substrats, des supports de culture et de l’ancrage pour les racines ; ensuite la maîtrise de la fertilisation qui réponde aux besoins nutritifs de chaque plante.

Différents types de systèmes agricoles. 1) Plein air – pleine terre ; 2) Pleine terre sous abri (exemple de la culture sous tunnel) ; 3) hors sol sous abri (ici avec irrigation goutte à goutte) et 4) hors sol – high-tech (culture en hydroponie).
Adrien Gauthier, Fourni par l’auteur

Hydroponie, aéroponie et aquaponie

Ces systèmes prennent trois principales formes.

La plus connue du grand public est l’hydroponie : la majorité des tomates, concombres, courgettes, salades ou encore fraises produits hors-sol, sont cultivés selon cette technique. Cette méthode apporte tous les nutriments essentiels à la plante sous forme d’un flux liquide. On distingue : la culture en eau profonde où les racines sont immergées dans de grandes quantités d’eau et de nutriments ; la table à marée, où les nutriments sont apportés deux fois par jour par un système de montée et descente de l’eau riche en sels minéraux dans le bac de culture ; ou encore le système NFT (Nutrient Film Technique) dans lequel un flux continu de solution nutritive circule sans immerger complètement les racines grâce à un canal légèrement incliné, étanche et sombre.

L’aéroponie, quant à elle, est une méthode proche de l’hydroponie qui consiste à pulvériser directement sur les racines, sous forme de brouillard, les nutriments sans pesticide, adaptés à l’exigence de l’espèce cultivée. Les racines sont isolées de la canopée et placées dans des containers spéciaux les maintenant dans l’obscurité. Elle optimise l’oxygénation des racines, réduit les risques de maladies et favorise le développement de la plante.

Enfin, l’aquaponie, qui combine aquaculture et hydroponie, valorise les déjections de poissons élevés en bassin (dans un local dédié) pour nourrir les plantes. En contrepartie, les plantes prélèvent les nutriments et nettoient l’eau à l’aide de bactéries. Ces dernières rendent les nutriments disponibles et assimilables par les plantes. Une parfaite harmonie et un travail d’équipe !

Différents systèmes de ponies. A. culture en eau profonde, B. Système de table à marées, C. Aéroponie, D. Aquaponie. E. le système NFT (Nutrient Film Technique).
Adrien Gauthier, modifié d’après Rathnayake et Sharmilan, 2023, Fourni par l’auteur

Des techniques très critiquées

Cesdites techniques hors-sol sont toutefois la cible de nombreuses critiques : elles produiraient des fruits et légumes sans goût, qui ne voient ni le sol ni le soleil ou encore des aromatiques ou des micropousses qui « ne nourrissent pas son homme ». Cette acceptation sociale et culturelle dépend bien sûr beaucoup des pays. Alors que le hors-sol jouit d’une bonne image aux États-Unis et en Asie, les Européens se montrent plus sceptiques à l’idée de manger des fruits et légumes qui n’ont pas poussé dans du « vrai » sol.

Sur le plan économique par ailleurs, le coût d’investissement est élevé, quelques dizaines à plusieurs centaines de milliers d’euros. Et l’autre coût majeur est énergétique – malgré des progrès, une salade cultivée en agriculture conventionnelle tend à avoir un impact moindre sur l’environnement qu’une salade produite toute l’année en hors-sol.

Dans ce contexte, de nombreuses entreprises high-tech qui s’étaient engouffrées dans ce modèle ont déjà mis la clé sous la porte faute de rentabilité : la start-up d’herbes aromatiques Jungle, le producteur de fraises et de salades Agricool, ou encore Infarm, qui proposait des légumes cultivés en hydroponie, n’ont pas résisté.

Une solution parmi d’autres

Aujourd’hui, l’ambition de ces systèmes à petite échelle, qui offrent des variétés limitées, n’est pas de nourrir toute une population, mais simplement de contribuer à l’autonomie alimentaire des villes. Ces nouvelles fermes ont également l’avantage pédagogique de reconnecter les citoyens à la production agricole, et d’être un support intéressant pour découvrir le cycle de vie d’une plante.

En outre, ces fermes pourraient diversifier leur activité afin de rester viables en se tournant vers la production d’aliments à destination des animaux, de plantes alternatives aux protéines animales ou encore de plantes pour l’industrie pharmaceutique (molécules à haute valeur ajoutée).

Loin de venir sonner le glas de l’agriculture traditionnelle, la production hors-sol peut en revanche additionner ses efforts à ceux de cette dernière dans la quête de l’autonomie alimentaire.


Nous tenons à remercier Alice Legrand, Lisa Ménard et Clémence Suard, étudiantes qui ont contribué à la rédaction de l’article ont apporté sur notre propos leurs regards de jeunes agronomes.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Quel rôle pour la production hors-sol dans l’agriculture de demain ? – https://theconversation.com/quel-role-pour-la-production-hors-sol-dans-lagriculture-de-demain-265917

Por qué engordamos durante las Navidades y cómo impedirlo

Source: The Conversation – (in Spanish) – By Alberto Pérez-López, Profesor Permanente Laboral. Ejercicio físico, Nutrición y Metabolismo., Universidad de Alcalá

shutterstock New Africa/Shutterstock

Cada Navidad muchas personas sienten que su peso aumenta casi sin darse cuenta. No es difícil imaginar por qué. Las comidas de empresa, las celebraciones familiares, los turrones, el roscón y el alcohol se convierten en protagonistas del menú. Sin embargo, a todo esto se suma una sensación muy extendida: que el metabolismo se ralentiza. ¿Es realmente así? ¿Cambia nuestro metabolismo durante las fiestas o somos nosotros quienes modificamos nuestros hábitos?

Para responder a estas preguntas primero necesitamos entender de qué depende el gasto energético diario.

El cuerpo consume energía incluso en reposo. De forma general, el gasto energético diario se divide en tres bloques:

  1. Actividad física (entre el 15 y el 30 %). Incluye cualquier tipo de movimiento. No solo el el ejercicio físico o entrenamiento, sino también la actividad física no planificada: caminar, subir escaleras e incluso cocinar o conducir. Varía muchísimo según la rutina y hábitos diarios.

  2. Termogénesis inducida por la dieta (entre el 5 y el 10 %). Aunque no lo parezca, ingerir y metabolizar alimentos también requiere energía. Aun así, no todos los elementos de la dieta son iguales: las proteínas requieren más gasto termogénico que las grasas y los azúcares.

  3. Gasto metabólico en reposo (entre el 60 y el 75 %). Es la energía necesaria para funciones esenciales del organismo, como respirar o mantener la actividad del sistema nervioso. Este gasto funciona 24 horas al día y, aunque pueda parecer contraintuitivo, es el más elevado de los tres.

Una confusión frecuente es pensar que un entrenamiento intenso debería consumir más energía al día que el metabolismo en reposo. Sin embargo, este último opera permanentemente, mientras que el ejercicio físico es puntual.

Además, no debe olvidarse que el gasto metabólico, especialmente en reposo, depende sobre todo de la composición corporal: la masa muscular es metabólicamente más activa que la grasa.

¿Qué cambia en Navidad?

En estas fechas se combinan varios factores que favorecen el superávit calórico. Es decir, que se ingieran más calorías de las que se consumen.

En primer lugar, aumenta la ingesta energética. Los alimentos más típicos de estas fechas suelen ser densos en calorías y ricos en grasas saturadas, azúcares y harinas refinadas:

  • Turrones, mazapanes, polvorones, roscón: combinan grasas y azúcares.

  • Asados, embutidos, quesos curados: altos en grasas saturadas.

  • Alcohol, especialmente vino, cava y licores: muchas calorías y efecto desinhibidor, que provoca que se coma todavía más.

En segundo lugar, disminuye la actividad física. El sedentarismo aumenta por varios motivos:

  • Pasamos más horas sentados en reuniones y sobremesas.

  • Hace más frío, por lo que hacemos menos actividad física al aire libre.

  • Las vacaciones y compromisos familiares nos hacen perder temporalmente las rutinas de ejercicio y actividad física.

  • Todo lo anterior motiva que pasemos más horas de ocio sedentario (ver series y películas, jugar a videojuegos y juegos de mesa, etcétera).

La combinación de estos factores pueden provocar un aumento de peso a finales de año. Incluso unos pocos días de sedentarismo reducen la sensibilidad a la insulina y favorecen la acumulación de grasa corporal.

En resumen, no solo gastamos menos energía durante las Navidades, sino que también gestionamos peor el exceso calórico.

¿Comer más acelera el metabolismo?

Si la digestión de alimentos consume energía podríamos pensar que comer más podría acelerar nuestro metabolismo. Esto es técnicamente cierto, pero no lo hace de forma relevante:

  1. La termogénesis aumenta ligeramente al comer más, pero es insuficiente para compensar los grandes excesos navideños.

  2. El metabolismo en reposo sube un poco si aumenta el peso corporal, pero mucho menos que si se ganara músculo.

  3. La actividad física, por lo general, baja.

El balance final es claro: el gasto energético total cambia muy poco, pero la ingesta aumenta notablemente.

Recomendaciones para empezar bien el año

No es de extrañar que las fiestas traigan un aumento de la masa grasa, especialmente de la abdominal, y ganancias de peso que no siempre se pierden al comenzar el año. Para rematarlo, la menor actividad física de las Navidades se puede convertir en un hábito que continúe tras las vacaciones.

Por suerte, estos trucos basados en la evidencia científica nos pueden ayudar a minimizar el aumento de peso.

  1. Aumentar la actividad física diaria e incrementar el número de pasos diarios. Caminar puede marcar la diferencia. Aproveche para subir escaleras. Dar paseos después de comidas copiosas mejorará su digestión y su salud metabólica.

  2. Priorizar alimentos saciantes. La lista incluye verduras, frutas enteras, proteínas magras (pollo, pavo, pescado) y legumbres. La fibra y la proteína ayudan a controlar la ingesta posterior.

  3. Elegir extras (dulces o salados) de forma consciente. En lugar de picar de todo, elegir uno o dos alimentos preferidos, y trata de no excederte.

  4. Moderar el alcohol. Para ello podemos alternar estas bebidas con agua, evitar las de alta graduación y no consumir en ayunas.

  5. Mantener rutinas de sueño. Dormir poco aumenta el apetito y la preferencia por alimentos calóricos.

  6. No alargar la Navidad. Las celebraciones son puntuales, el problema aparece cuando se extienden semanas…… ¡o cuando los dulces navideños llegan hasta marzo!

La Navidad no ralentiza el metabolismo ni provoca cambios fisiológicos profundos.
Lo que realmente ocurre es que comemos más alimentos calóricos, nos movemos menos y, como el gasto energético total apenas varía, el exceso se almacena en forma de grasa.

Disfrutar de la Navidad no está reñido con la salud. Mantener cierto movimiento diario, priorizar alimentos saciantes y moderar los excesos puede evitar que unos días festivos se conviertan en una ganancia de peso mantenida en el tiempo.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. Por qué engordamos durante las Navidades y cómo impedirlo – https://theconversation.com/por-que-engordamos-durante-las-navidades-y-como-impedirlo-271697

Estrella de Diego: ‘En el arte, uno tiene que revisar la historia y darse cuenta de que se puede cambiar el modo de verla’

Source: The Conversation – (in Spanish) – By Claudia Lorenzo Rubiera, Editora de Cultura, The Conversation

Estrella de Diego explicando uno de los Warhol de la exposición ‘Warhol, Pollock y otros espacios americanos’ del Museo Nacional Thyssen-Bornemisza. Francis Tsang/Museo Thyssen

Cuando le dije que estábamos haciéndole entrevistas a las grandes mentes académicas de nuestro tiempo, a Estrella de Diego le dio la risa y replicó que me había equivocado. Pero no es así.

De Diego, catedrática de Historia del Arte de la Universidad Complutense de Madrid, es también académica de número en la Real Academia de Bellas Artes de San Fernando desde 2016. En su discurso de ingreso hacía hincapié en que es “preciso volver la mirada hacia visualidades alternativas, hacia lo olvidado, lo obviado, lo emborronado, lo incierto, la huella. Porque hay que mantener los ojos bien abiertos ante el mundo, aún a sabiendas de que el ojo nunca ve lo que mira”.

Tras encargarse, en la primera mitad de 2025, de la exposición 1924: Otros surrealismos en la Fundación Mapfre de Madrid, e impartir conferencias a propósito de la muestra sobre Maruja Mallo Máscara y compás, entre otras muchas cosas, cierra el año siendo la comisaria de Warhol, Pollock y otros espacios americanos en el Museo Nacional Thyssen-Bornemisza de Madrid, abierta hasta finales de enero de 2026. En ella plantea un diálogo entre el gran exponente del arte abstracto norteamericano y la figura más popular del arte pop, una conversación en la que las posturas no son tan extremas y el diálogo con sus contemporáneos por la nostalgia por la cultura estadounidense está siempre presente.

Apasionada de Andy Warhol desde hace décadas, la exposición ha servido además como excusa para reeditar su ensayo Tristísimo Warhol: Cadillacs, piscinas y otros síndromes modernos, escrito originalmente en 1999. Si en algún momento alguien está falto de energía, leerla o escucharla es un chute de motivación. Porque ante todo Estrella de Diego es, como reitera en la conversación, una entusiasta.

Copia de la silueta de Elvis en blanco y negro.
Un solo Elvis, de Andry Warhol. 1964.
Museo Nacional Thyssen-Bornemisza

¿Qué vio usted cuando se colocó ante un cuadro de Pollock o de Warhol por primera vez?

Primero vi un Warhol, en Londres, creo que era un autorretrato en alguna galería de arte. Y me pareció alucinante. Luego vi un Pollock en Nueva York, y volví a sentir mucha emoción, pensé “¿pero esto qué es?”. Ya me habían parecido dos artistas muy complementarios cuando los vi por separado y me lo siguen pareciendo ahora, cuando los he visto juntos en el Thyssen. Estaba aterrada ante la posibilidad de que la idea no funcionase en la pared, pero funciona. Ambos son unos artistas realmente extraordinarios, cada uno en su estilo, y creo que entre ambos existe un vínculo invisible. A todo el mundo le encaja ahora que Warhol y Pollock estén juntos, así que a lo mejor siempre lo estuvieron, en algún sitio que no vemos.

El día que fui había muchísimos niños.

Yo creo que los niños entienden muy bien las pinturas abstractas o con símbolos figurativos. Esto que estoy diciendo a lo mejor es una cosa manida, pero se relacionan más con lo que es la pintura táctil. Y Warhol es muy táctil.

Pollock decía que Picasso no había dejado nada por hacer y por eso él decidió enfrentarse al lienzo desde arriba: pero pinta en el suelo estudiando cómo quedarán los cuadros en la pared, lo cual, en las pinturas de chorreo, resulta complejo de imaginar.

Nosotros tenemos unas líneas de orientación visual de arriba-abajo y de izquierda a derecha. Si cogemos un cuadro figurativo y le damos la vuelta, se ve claro porque la gente queda boca abajo. Si cogemos a Van der Weyden en el ordenador y lo giramos sobre el eje horizontal, el cuadro se cae para un lado. A Pollock le pasa lo mismo, aunque no sea figurativo. Si le damos la vuelta, nos damos cuenta de que tiene los ejes de una determinada manera. Lo de arriba no podría ir abajo. Y eso es porque, aunque lo pinte en el suelo, está pensando cómo ponerlo en la pared. Cosa que –digo yo– sí que hizo Picasso, aunque sobre una mesa.

Cuadro abstracto de líneas y manchas en tonos grises y claros.
Número 27, 1950, de Jackson Pollock. 1950.
Museo Nacional Thyssen-Bornemisza

Muchas veces valoramos a Andy Warhol más como persona que supo entender el mundo en el que vivía que como creador.

En la exposición intentamos que se viera un Warhol que no fuese el de las latas de Coca-Cola –aunque haya una lata de Coca-Cola, evidentemente–. Es un pintor muy trágico, que apela mucho a los sentimientos. Entiende como nadie la época contemporánea por ejemplo, en esas fotos idénticas que cose.
Yo creo que Warhol estaba tan abrumado con la cantidad de imágenes que había a su alrededor que trataba de coserlas idénticas para atraparlas, para no dispersarse más en la multiplicación, aunque él añade multiplicación a la multiplicación… Warhol es un personaje muy complejo que tiene, efectivamente, esa parte de apropiación de los medios, pero también una parte muy pictórica, muy abstractizante. La idea era revisar a ese Warhol de cuadros de masas y ver que había otro en la trastienda, que su obra se podía leer de otro modo.

¿Nos hemos quedado mirando al personaje y no hemos sabido entender al artista?

Absolutamente, es un caso muy parecido al de Dalí, otro tipo muy sabio bajo el personaje, o al de Maruja Mallo. Hacen una puesta en escena que sin embargo esconde artistas muy complejos. El gran público ve la puesta en escena –en el caso de Warhol, las latas– pero hay muchísimo más detrás.

Repetición de un cartel de circo cuatro veces.
Cartel de circo de Madrid 1976-1986, de Andy Warhol, 1986.
Museo Nacional Thyssen-Bornemisza

¿Qué más hay en Warhol?

Algo muy fácil de ver, y que inquieta mucho, es por ejemplo que los botes de sopa están flotando en el espacio, no están apoyados en nada, no hay suelo. Podemos decir que parece que están en un supermercado, tanto los que son individuales como los que se presentan en una especie de bloque. Y creo que es muy inquietante para un público occidental encontrarse con un objeto que no tiene un referente espacial. Si nos damos cuenta, creo que eso nos puede llevar a preguntarnos qué intención artística hay detrás de estas sopas flotantes, ¿no? Además, no hay dos botes iguales. Parece que son el mismo, pero es otra broma que nos hace a los espectadores.

Romper las reglas del espacio es un tema común entre los artistas de esa época. En el libro sugiere que tal vez hemos juntado a demasiada gente bajo el paraguas del “arte pop”.

Los historiadores de arte (o de cine, o de literatura, o lo que sea) somos muy amigos de agrupar. Siempre nos parece mucho más cómodo tener esas grandes categorías, porque de alguna manera hay que contar la historia. Pero la realidad es lo que dice Ernst Gombrich y que yo repito: “cuando hablamos de Barroco sabemos que no hablamos de Renacimiento”. No sabemos de qué hablamos, pero sabemos que si decimos Barroco no hay Renacimiento. En este caso, toda la mirada de Occidente está basada en la ventana de Alberti, que es como un punto de fuga. Después de que Pollock rompiera el espacio de forma tan radical era complicado volver a un espacio tradicional, aunque ellos quisieran recuperar la figuración. Así que todos estos figurativos “popizantes”, vamos a llamarlos así, están asaltando algo que para nosotros es fundamental, que es la noción occidental del espacio, a través de la cual todos miramos desde que se inventó la perspectiva en el Quattrocento.

Hablamos de Warhol y Pollock, dos artistas que “gustan”. ¿Qué lleva a un artista de arte contemporáneo a concitar el acuerdo de la crítica y a otro no?

Eso es una pregunta dificilísima. No lo sé, depende de los artistas. Uno que está en la exposición y que siempre concita la fascinación de una muy buena parte de público es Rothko, tal vez porque su obra nos anima a pensar, a meditar, a la trascendencia. También Pollock gusta hoy en día, porque ya tenemos menos prejuicios frente a los artistas abstractos. Durante una época se decía “esto lo puede hacer mi niño”, pero ahora ya sabemos que no, que su niño no puede pintar un Miró, ojalá. A Warhol, como decíamos, se le ve como un artista demasiado comercial, pero luego le pasa como a Dalí, que se considerará comercial pero la exposición en el Reina Sofía de 2013 estaba siempre llenísima de gente.

Es muy difícil saber qué consigue captar la simpatía o el interés del público. A lo mejor también pensamos que al público le gustan unas cosas y resulta que le gustan otras. Decimos que Dalí o Warhol son artistas muy comerciales, pero luego la gente los visita y, a lo mejor, lo hacen como algo que quieren entender.

Habla usted siempre de mirar, en el arte, más allá de los márgenes. Aunque no siempre en ese más allá haya mujeres, ha aprovechado para incluir en la muestra del Thyssen ejemplos de artistas como Audrey Flack, Perle Fine, Anne Ryan, Marisol, Hedda Sterne… ¿Intenta en las exposiciones incitar a que el público mire más allá?

Sí, sin duda. En este caso están mujeres muy interesantes de la época, además de Lee Krasner, que es la más conocida. Y siempre estamos buscando mujeres, artistas olvidados, etcétera, como creo que debería ser la obligación de todos. Pero yo diría que intentar reunir a Warhol y Pollock con esos otros contemporáneos es también una forma de mirar a los márgenes, de explicar la historia del arte desde otro lado. La idea de colocar a estos personajes en un hilo también revisa la narración de la historia del arte moderno. Cuando escribí el libro, en 1999, y me decían que por qué no escribía sobre mujeres artistas, yo contestaba que este era un tema mucho más radical desde el punto de vista de la escritura, de enfrentarse con un tema sin notas. Y esa forma de pensar, de ir más allá, la aprendí buscando mujeres pintoras en el siglo XIX para mi tesis. Uno tiene que revisar la historia y darse cuenta de que se puede cambiar el modo de verla. Podemos usar los consensos, pero sabiendo que son consensos.

Pintura de dibujos y figuras muy colorida.
Sin título, de Marisol, 1960.
Museo Nacional Thyssen-Bornemisza

Parte del cambio también nace de que cada vez hay más miradas diferentes sobre lo que antes estaba establecido.

Y yo creo que eso es interesante y divertido, me da igual que encontremos a una mujer o un gran artista del siglo X en Colmenar Viejo. Son cosas que nos pasan desapercibidas y que pueden resultar superinteresantes. Por ejemplo, lo que está haciendo Noelia García Pérez en el Prado con las patronas [el proyecto “El Prado en femenino” buscar destacar el papel de las mujeres que adquirieron determinadas obras que ahora forman parte de la colección del museo]. Gracias a ella nos damos cuenta del papel esencial de estas mujeres tremendas y poderosas. Siempre nos caen mal las mujeres poderosas, pero estaba muy bien que lo fueran porque eso les permitía hacer cosas que alguien que no tuviera poder en ese momento no podía hacer.

Hablando de quitar o transformar estas denominaciones… Ahora que la muestra sobre Maruja Mallo está teniendo muchísimo éxito en España, quería recuperar una cita suya en un reportaje que hizo hace años en el que decía que a Mallo la llamamos surrealista “porque, en realidad, no supimos cómo llamarla”. ¿Cómo podríamos definirla ahora?

Yo creo que igual que no podemos definir a Picasso con una sola palabra, porque fue un cubista, luego fue el pintor del Guernica, luego fue un estupendo collagista, y también un hombre muy influido por el cine, con Maruja Mallo pasa lo mismo. Nosotros la llamamos surrealista porque no sabíamos cómo llamarla y ella se llamaba surrealista porque era una especie de salvoconducto. En esta sociedad el surrealismo puede caer mal o bien, pero todo el mundo más o menos se lo imagina, está muy lexicalizado. De Maruja se puede decir simplemente que es una gran pintora, muy dúctil, y que pasa, como todos los pintores, por muchísimos periodos, siempre con –otra vez– un control del espacio impresionante. Hay que dedicar la vida entera a descifrar a Maruja. Y aunque siempre ha estado ahí, y ha sido una pintora que una serie de personas han tenido muy en cuenta, a mí me encanta la “marujomanía” actual, o la “mallomanía”. Bienvenida sea. Ahora la vemos como lo que es: un personaje complejo, culto y con un control en sus obras que era todo menos surrealista. Pero era muy importante para ella presentarse como tal, porque era lo que todo el mundo iba a reconocer. Casi parece que la historia del arte en España se paró ahí, en el surrealismo.

En una entrevista que le hicieron a principios de año en la Fundación Juan March decía que vivir en Nueva York le hizo interesarse por el arte contemporáneo porque quería estudiar lo que estaba pasando en el aquí y el ahora. ¿Qué es lo que sucede en el aquí y el ahora?

De Diego durante la rueda de prensa de presentación de la exposición.
Francis Tsang/Museo Nacional Thyssen-Bornemisza

Probablemente el aquí y ahora sigue siendo igual de fascinante que en los 80, un momento abierto a todo, pero muchas veces pienso que, a lo mejor, lo que ahora no está abierto a todo son mis ojos. Bretón decía que él solo lamentaba, al hacerse viejo, haber perdido la mirada de la juventud. Yo tengo como sustituto la mirada de mis estudiantes. Sin embargo… aunque no estoy en su contra, creo que deberíamos hacer un uso más racional de los mass media y las redes, porque nos están quitando muchas cosas. La memoria, por ejemplo. El otro día estaba con mi familia y ninguno nos acordábamos de una frase que decía siempre mi madre. Seguimos sin acordarnos. Y eso no lo vamos a encontrar en Google.

Somos una sociedad que se mueve hacia la amnesia. En esa especie de recordar solo lo que se quiere que recordemos, se nos va un poco el pasado, y el pasado es muy importante porque, aunque no construya el futuro, nos da una pista de lo que el futuro, si no puede ser, al menos deberíamos recordar que fue, ¿no? Creo que un problema del aquí y ahora es que hemos perdido el sentido histórico. Si tú no te acuerdas de que eso ya ha pasado, o no lo sabes, piensas que acabas de descubrirlo y a lo mejor no es así. Y no pasa nada porque no lo acabes de descubrir, a lo mejor lo estás releyendo y eso está fenomenal, pero es bueno saberlo.

Además, la inmediatez de la información a veces crea una esclavitud absoluta. Parece que todo está a mano, pero finalmente cuando hacemos una búsqueda está lo que el algoritmo quiere que esté en cada momento. Por eso creo que este aquí y ahora es menos excitante que el de los 80, pero insisto, a lo mejor la menos excitante soy yo.

Está habiendo en redes, y en la vida real, una homogeneización de las estéticas: el algoritmo precisamente premia cuando te pareces a una estética ya creada y hay mucho de lo mismo todo el rato.

Totalmente. Porque en lugar de buscar imágenes en libros que a su vez se habían buscado en museos, pongo por caso, las buscamos en internet. Y si vas a la búsqueda directa de lo que quieres, no hay problema. Pero si pones, yo qué sé, “cuadros de Picasso con un niño”, a todo el mundo le va a salir lo mismo.

Ha dicho usted que “cualquier cosa que uno se pone a estudiar acaba resultando interesantísima”. Desde su perspectiva como docente, ¿cómo se anima a los estudiantes a interesarse por algo que, de entrada, no les apetezca investigar?

Yo intento siempre dinamizarlos. Y como soy una persona muy entusiasta consigo hacer que piensen. Por ejemplo, en los últimos años me he dado cuenta de que, con esta polarización horrible en la que vivimos, uno tiene que ser capaz de polemizar, en el buen sentido. Así que cogemos textos y dividimos la clase entre los que van a defender el texto y quienes van a estar en contra. Estos roles van a llegar a ellos por sorteo, así que uno puede estar defendiendo algo en lo que no cree y tiene que poder hacerlo, porque debe ser capaz de ver cómo el otro llega a pensar algo con lo que no estamos de acuerdo. Cosas como esta son buenas para hacerles pensar, pero tienen que hacerse echándole entusiasmo al tema.

Me pidieron consejo antes de despedirnos este semestre y les dije que intentasen aprender todo lo que pudiesen. Esa idea no debe abandonarnos. Cada día que uno se levanta es una buena noticia, una buena noticia para aprender en general y para aprender para enseñar. A mí no siempre me gustó la historia del arte, a mí me gusta contar historias y que me las cuenten, y resulta que la historia del arte es un lugar fantástico para ello.

También les digo que tienen que tener empuje. Pero son una generación a la que se martillea con el desánimo. Si uno piensa que todo va muy mal y que todo va a seguir yendo muy mal, pues hombre, llegamos a un punto en el que no quieren esforzarse, porque para qué. Antes me enfadaba con las personas equivocadas, con ellos, pero son víctimas de lo que les están diciendo. Conviene tener a una generación joven desesperanzada, porque así el algoritmo lo maneja todo con más facilidad. Eso es algo que entre todos deberíamos intentar revertir, aunque no sé cómo. Yo intento decirles que el futuro es una cosa que uno va construyendo, que no está escrito. Son graciosos, pero me gustaría que además de graciosos fueran felices.


¿Quiere recibir más artículos como este? Suscríbase a Suplemento Cultural y reciba la actualidad cultural y una selección de los mejores artículos de historia, literatura, cine, arte o música, seleccionados por nuestra editora de Cultura Claudia Lorenzo.


The Conversation

ref. Estrella de Diego: ‘En el arte, uno tiene que revisar la historia y darse cuenta de que se puede cambiar el modo de verla’ – https://theconversation.com/estrella-de-diego-en-el-arte-uno-tiene-que-revisar-la-historia-y-darse-cuenta-de-que-se-puede-cambiar-el-modo-de-verla-272530