Enseigner le français langue étrangère : faut-il « gommer » les accents ?

Source: The Conversation – France (in French) – By Grégory Miras, Professeur des Universités en didactique des langues, Université de Lorraine

Apprendre une nouvelle langue, c’est s’initier à de nouvelles sonorités et façons de prononcer. Mais cela suppose-t-il de gommer son accent ? La recherche montre qu’enseigner le français en tant que langue étrangère ne consiste pas forcément à imposer un modèle unique mais s’enrichit de la diversité de ses locuteurs. Explications.


Pourquoi entend-on si peu d’accents dans les médias français ? C’est une question qui a interrogé l’Institut national de l’audiovisuel (INA) à l’occasion des derniers Rendez-vous de l’histoire, organisés à Blois, en octobre 2025. Le mythe d’une langue « standard » s’oppose à la diversité des parlers français dits régionaux, de la francophonie et plus largement à la pratique du français dans le monde.

Ce constat invite à s’interroger sur la manière dont l’enseignement du français dans différents pays prend en compte la variété des accents des apprenants. Quelle place la prononciation tient-elle dans l’apprentissage du français comme langue étrangère ? Comment son approche évolue-t-elle à l’heure de l’IA ?

Exercices de prononciation et « surdité » phonologique

La didactique de la prononciation a particulièrement évolué au cours du temps au regard des technologies disponibles permettant à la phonétique, l’étude des sons, de se perfectionner. Enrica Galazzi, professeure à l’Université catholique du Sacré-Cœur (Italie), souligne que, même si la phonétique expérimentale allait devenir essentielle pour l’étude de la parole, sa naissance à la fin du XIXe siècle a été accueillie avec méfiance par les chercheurs français de l’époque. L’usage d’appareils scientifiques semblait alors mystérieux et suscitait la prudence, alors même que cette approche reposait sur un projet profondément humaniste.

Très tôt, l’étude systématique des sons de la parole dans une vision comparée s’est focalisée sur les difficultés rencontrées par les locuteurs d’une langue qui apprennent le français, par exemple de l’espagnol au français. Ces travaux vont permettre de sensibiliser à ce que le chercheur Nikolaï Troubetzkoy a appelé le « filtre » ou la « surdité » phonologique. Cette dernière fait référence à la difficulté à percevoir et donc à produire de nouveaux sons d’une langue étrangère.

Cependant, cette approche a partiellement été remise en question par des modèles ultérieurs qui démontrent – de manière contre-intuitive – qu’il est parfois plus difficile d’acquérir des sons qui se rapprochent de ceux de sa langue première plutôt que ceux qui sont très différents. Toutefois, la plupart des manuels de prononciation en français langue étrangère continuent de se focaliser sur des exercices de répétition qui postulent que répéter permet d’apprendre.

« Joey Can’t Learn French », (série Friends).

En parallèle, d’autres méthodes ont mis l’accent sur des techniques spécifiques : association des voyelles et de couleurs, modulation des gestes du corps pour aider à l’articulation ou à l’intonation, répétition rapide de texte en même temps qu’un locuteur, etc.

De récentes méta-analyses ont montré que l’enseignement de la prononciation en langue étrangère est globalement efficace, surtout lorsqu’il est sur le temps long, accompagné de retours formatifs individualisés et mené par des enseignants avec un recours raisonné aux technologies numériques.

Toutefois, les études se concentrent encore majoritairement sur des sons isolés (des voyelles ou des consonnes), ne permettant pas de s’assurer d’une capacité à réinvestir ce travail dans des interactions en situation réelle. Produire des phonèmes ne garantit pas la capacité à être compris et à faire vivre le discours.

Être à l’écoute de la diversité des accents

En parallèle de ces techniques de correction, certains chercheurs en appellent à une médiation de la prononciation qui partirait de l’apprenant lui-même et des ses envies plutôt que d’imposer un seul modèle à atteindre, souvent celui imaginaire du « natif ».

Il s’agit de reconnaître que chaque individu qui apprend le français devient un locuteur légitime de cette langue et contribue donc à enrichir l’éventail des accents de la francophonie. Il peut donc déterminer son propre objectif en termes d’accents. Des auteurs comme Jacques Maurais défendent l’idée de la nécessité d’accepter toute la diversité en francophonie pour se décentrer d’une norme standardisée de la France hexagonale.

En effet, loin de compliquer la communication entre francophones (toute personne qui parle français), ces perspectives pourraient élargir les capacités du français à constituer un pont entre de nombreuses langues, et de nombreux individus.




À lire aussi :
« L’envers des mots » : Glottophobie


Dans sa thèse de doctorat, Aleksandra D. Savenkova a montré qu’il était possible d’intégrer des variations régionales du français (Sud-Ouest, Québec, Mauritanie, Guadeloupe, etc.) dans l’enseignement du français langue étrangère en Roumanie, même chez des débutants. Il est important de noter que des chercheurs comme Munro et Derwing ont démontré que tout ce qui contribue à la perception d’un accent dans une langue étrangère n’affecte pas forcément l’intelligibilité (capacité à transcrire ce qui est dit) ou la compréhensibilité (le sentiment d’effort pour comprendre).

Ils défendent l’idée de mieux éduquer tous les locuteurs à percevoir la diversité dans les langues plutôt que de se focaliser sur la seule correction de celui qui parle. Cela peut prendre, par exemple, la forme d’exercices d’écoute dans différentes langues présentant une variété d’accents. Le cerveau apprend ainsi à réduire le poids cognitif de la variation et facilite donc la compréhension.

Quelle place pour l’intelligence artificielle ?

La didactique de la prononciation est impactée par l’intelligence artificielle (IA) au même titre que les autres domaines. La plupart des plateformes d’apprentissage en ligne promettent de travailler sur votre prononciation via des modèles de reconnaissance de la parole offrant un retour formatif en temps réel.

Or ces modèles – majoritairement privés – ne permettent pas de savoir ce qui s’y cache en termes d’algorithme et de données d’entraînement. En effet, très souvent ce sont des modèles de voix à texte – une transcription de l’oral. Le retour formatif est fait à partir d’une comparaison de l’audio ainsi transcrit avec un modèle lui aussi écrit.

Par ailleurs, les IA génératives sont des technologies humaines qui produisent des biais liés à des erreurs reproduisant ainsi certaines discriminations, incluant celles sur l’accent.

Si les outils technologiques ont toujours été un support d’aide à l’individualisation pédagogique, ils ne peuvent constituer le centre de l’enseignement et l’apprentissage. C’est d’autant plus vrai pour la prononciation qui nécessite de co-construire l’intelligibilité et la compréhensibilité entre deux partenaires d’une même danse.

« Les multiples prononciations de la lettre R » (TV5 Monde Info, mars 2024).

Actuellement, les recherches sur le langage tendent à mieux valoriser le fait que les locuteurs plurilingues mélangent les langues qu’ils maitrisent (le translanguaging) et qu’ils disposent d’un éventail de sons qu’ils mobilisent en fonction de leurs interlocuteurs et des contextes (la pluriphonie). Cela va donc dans le sens de faire entrer la diversité des accents dans les classes, les manuels et les applications de nos téléphones.

Penser la diversité des prononciations et des accents, c’est aussi réfléchir aux rapports de pouvoir entre les personnes. Mélanger les langues n’est pas neutre : le français, langue dominante marquée par une histoire coloniale, peut parfois affaiblir des langues minorisées ou menacées. Valoriser la diversité des sons des langues, c’est donc permettre à chacun d’être légitime dans le français qu’il apprend ou d’autres langues qu’il parle.


Cet article est publié en partenariat avec la Délégation générale à la langue française et aux langues de France du ministère de la Culture.

The Conversation

Grégory Miras ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Enseigner le français langue étrangère : faut-il « gommer » les accents ? – https://theconversation.com/enseigner-le-francais-langue-etrangere-faut-il-gommer-les-accents-267483

La selección: adolescencia de chicas, adolescencia de chicos

Source: The Conversation – (in Spanish) – By Eva Catalán, Editora de Educación, The Conversation

Tanatat/Shutterstock

Está claro que no todos damos la misma importancia a nuestro aspecto físico, pero también que es un factor bastante clave de nuestro bienestar mental. Imaginemos lo fundamental que puede llegar a ser verse y sentirse bien para un adolescente, en esa etapa en la que la aceptación de los iguales es tan vital, cuando la opinión de nuestra abuela (que siempre nos encuentra los más guapos) deja de resultar tan convincente.

Y ahora situémonos en el mundo mental y el contexto real de una chica adolescente de hoy. A las inseguridades que conllevan los cambios físicos y emocionales de la pubertad se une un bombardeo mediático y publicitario mucho más agresivo, cuantitativa y cualitativamente, de lo que adultos de otras generaciones hemos experimentado.

No es la misma presión que la que reciben los chicos. Tampoco influye igual en la construcción de la sexualidad de unos y otros el consumo de pornografía en la adolescencia. Estos contenidos, a los que cada vez más se accede mucho antes de tener la capacidad de gestionarlos, enseñan a las jóvenes “que el reconocimiento social depende de su capacidad de exposición, generando una socialización basada en la autosexualización. La pornografía no solo moldea cómo los varones aprenden a desear, sino cómo las adolescentes aprenden a ser deseadas”. Así nos lo explica Mario Ramírez de la UNIR, después de revisar las últimas investigaciones.

Y todo esto tiene un efecto. Las chicas sufren más que los chicos a partir de la pubertad. Duermen peor. Experimentan más ansiedad y depresión, perciben menos control sobre sus cuerpos y sus sentimientos, se juzgan con más dureza y se gustan menos. Tras un estudio con más de 10 000 adolescentes españoles, los investigadores de la universidad de Zaragoza Alejandro Legaz Arrese y Carmen Mayolas-Pi, y Joaquin Reverter Masia, de la Universitat de Lleida, llegan a la siguiente conclusión: “La pubertad femenina llega antes y con cambios hormonales más intensos(…). Pero estos cambios son naturales y ocurren en ambos sexos; no son la causa ni la solución por sí solos. La diferencia está en cómo se viven y qué significan esos cambios en un entorno social lleno de expectativas sobre el cuerpo femenino”.

Hablan de un contexto marcado por presión estética, la exposición continua a redes sociales y las expectativas de “ser perfecta” en múltiples dimensiones. “La pubertad”, explican, “se convierte así en un cruce biológico y cultural particularmente exigente para ellas”. Y además, esta brecha en el bienestar mental no desaparece con los años: las mujeres adultas siguen presentando peores niveles de sueño, mayor ansiedad y depresión, y más insatisfacción corporal que los hombres.

La adolescencia parece el momento más oportuno para establecer las bases de una relación sana con la propia imagen, física y mental. ¿Podemos ayudar los adultos? Sí, si prestamos atención a los mensajes que chicos y chicas reciben, a los influencers que siguen, ofreciendo alternativas positivas, comentando con ellos los mensajes y las imágenes que ofrecen. El deporte es una manera excelente de mejorar el bienestar en la adolescencia, al igual que enseñar a resolver conflictos de manera constructiva e incluir la educación emocional en la escuela: tanto para chicos como para chicas. Hay mucho que se puede hacer desde diferentes ámbitos para que las chicas no estén condenadas a sufrir más simplemente por el hecho de serlo.

The Conversation

ref. La selección: adolescencia de chicas, adolescencia de chicos – https://theconversation.com/la-seleccion-adolescencia-de-chicas-adolescencia-de-chicos-269199

Enseigner le français langue étrangère : un monde aux mille accents

Source: The Conversation – in French – By Grégory Miras, Professeur des Universités en didactique des langues, Université de Lorraine

Apprendre une nouvelle langue, c’est s’initier à de nouvelles sonorités et façons de prononcer. Mais cela suppose-t-il de gommer son accent ? La recherche montre qu’enseigner le français en tant que langue étrangère ne consiste pas forcément à imposer un modèle unique mais s’enrichit de la diversité de ses locuteurs. Explications.


Pourquoi entend-on si peu d’accents dans les médias français ? C’est une question qui a interrogé l’Institut national de l’audiovisuel (INA) à l’occasion des derniers Rendez-vous de l’histoire, organisés à Blois, en octobre 2025. Le mythe d’une langue « standard » s’oppose à la diversité des parlers français dits régionaux, de la francophonie et plus largement à la pratique du français dans le monde.

Ce constat invite à s’interroger sur la manière dont l’enseignement du français dans différents pays prend en compte la variété des accents des apprenants. Quelle place la prononciation tient-elle dans l’apprentissage du français comme langue étrangère ? Comment son approche évolue-t-elle à l’heure de l’IA ?

Exercices de prononciation et « surdité » phonologique

La didactique de la prononciation a particulièrement évolué au cours du temps au regard des technologies disponibles permettant à la phonétique, l’étude des sons, de se perfectionner. Enrica Galazzi, professeure à l’Université catholique du Sacré-Cœur (Italie), souligne que, même si la phonétique expérimentale allait devenir essentielle pour l’étude de la parole, sa naissance à la fin du XIXe siècle a été accueillie avec méfiance par les chercheurs français de l’époque. L’usage d’appareils scientifiques semblait alors mystérieux et suscitait la prudence, alors même que cette approche reposait sur un projet profondément humaniste.

Très tôt, l’étude systématique des sons de la parole dans une vision comparée s’est focalisée sur les difficultés rencontrées par les locuteurs d’une langue qui apprennent le français, par exemple de l’espagnol au français. Ces travaux vont permettre de sensibiliser à ce que le chercheur Nikolaï Troubetzkoy a appelé le « filtre » ou la « surdité » phonologique. Cette dernière fait référence à la difficulté à percevoir et donc à produire de nouveaux sons d’une langue étrangère.

Cependant, cette approche a partiellement été remise en question par des modèles ultérieurs qui démontrent – de manière contre-intuitive – qu’il est parfois plus difficile d’acquérir des sons qui se rapprochent de ceux de sa langue première plutôt que ceux qui sont très différents. Toutefois, la plupart des manuels de prononciation en français langue étrangère continuent de se focaliser sur des exercices de répétition qui postulent que répéter permet d’apprendre.

« Joey Can’t Learn French », (série Friends).

En parallèle, d’autres méthodes ont mis l’accent sur des techniques spécifiques : association des voyelles et de couleurs, modulation des gestes du corps pour aider à l’articulation ou à l’intonation, répétition rapide de texte en même temps qu’un locuteur, etc.

De récentes méta-analyses ont montré que l’enseignement de la prononciation en langue étrangère est globalement efficace, surtout lorsqu’il est sur le temps long, accompagné de retours formatifs individualisés et mené par des enseignants avec un recours raisonné aux technologies numériques.

Toutefois, les études se concentrent encore majoritairement sur des sons isolés (des voyelles ou des consonnes), ne permettant pas de s’assurer d’une capacité à réinvestir ce travail dans des interactions en situation réelle. Produire des phonèmes ne garantit pas la capacité à être compris et à faire vivre le discours.

Être à l’écoute de la diversité des accents

En parallèle de ces techniques de correction, certains chercheurs en appellent à une médiation de la prononciation qui partirait de l’apprenant lui-même et des ses envies plutôt que d’imposer un seul modèle à atteindre, souvent celui imaginaire du « natif ».

Il s’agit de reconnaître que chaque individu qui apprend le français devient un locuteur légitime de cette langue et contribue donc à enrichir l’éventail des accents de la francophonie. Il peut donc déterminer son propre objectif en termes d’accents. Des auteurs comme Jacques Maurais défendent l’idée de la nécessité d’accepter toute la diversité en francophonie pour se décentrer d’une norme standardisée de la France hexagonale.

En effet, loin de compliquer la communication entre francophones (toute personne qui parle français), ces perspectives pourraient élargir les capacités du français à constituer un pont entre de nombreuses langues, et de nombreux individus.




À lire aussi :
« L’envers des mots » : Glottophobie


Dans sa thèse de doctorat, Aleksandra D. Savenkova a montré qu’il était possible d’intégrer des variations régionales du français (Sud-Ouest, Québec, Mauritanie, Guadeloupe, etc.) dans l’enseignement du français langue étrangère en Roumanie, même chez des débutants. Il est important de noter que des chercheurs comme Munro et Derwing ont démontré que tout ce qui contribue à la perception d’un accent dans une langue étrangère n’affecte pas forcément l’intelligibilité (capacité à transcrire ce qui est dit) ou la compréhensibilité (le sentiment d’effort pour comprendre).

Ils défendent l’idée de mieux éduquer tous les locuteurs à percevoir la diversité dans les langues plutôt que de se focaliser sur la seule correction de celui qui parle. Cela peut prendre, par exemple, la forme d’exercices d’écoute dans différentes langues présentant une variété d’accents. Le cerveau apprend ainsi à réduire le poids cognitif de la variation et facilite donc la compréhension.

Quelle place pour l’intelligence artificielle ?

La didactique de la prononciation est impactée par l’intelligence artificielle (IA) au même titre que les autres domaines. La plupart des plateformes d’apprentissage en ligne promettent de travailler sur votre prononciation via des modèles de reconnaissance de la parole offrant un retour formatif en temps réel.

Or ces modèles – majoritairement privés – ne permettent pas de savoir ce qui s’y cache en termes d’algorithme et de données d’entraînement. En effet, très souvent ce sont des modèles de voix à texte – une transcription de l’oral. Le retour formatif est fait à partir d’une comparaison de l’audio ainsi transcrit avec un modèle lui aussi écrit.

Par ailleurs, les IA génératives sont des technologies humaines qui produisent des biais liés à des erreurs reproduisant ainsi certaines discriminations, incluant celles sur l’accent.

Si les outils technologiques ont toujours été un support d’aide à l’individualisation pédagogique, ils ne peuvent constituer le centre de l’enseignement et l’apprentissage. C’est d’autant plus vrai pour la prononciation qui nécessite de co-construire l’intelligibilité et la compréhensibilité entre deux partenaires d’une même danse.

« Les multiples prononciations de la lettre R » (TV5 Monde Info, mars 2024).

Actuellement, les recherches sur le langage tendent à mieux valoriser le fait que les locuteurs plurilingues mélangent les langues qu’ils maitrisent (le translanguaging) et qu’ils disposent d’un éventail de sons qu’ils mobilisent en fonction de leurs interlocuteurs et des contextes (la pluriphonie). Cela va donc dans le sens de faire entrer la diversité des accents dans les classes, les manuels et les applications de nos téléphones.

Penser la diversité des prononciations et des accents, c’est aussi réfléchir aux rapports de pouvoir entre les personnes. Mélanger les langues n’est pas neutre : le français, langue dominante marquée par une histoire coloniale, peut parfois affaiblir des langues minorisées ou menacées. Valoriser la diversité des sons des langues, c’est donc permettre à chacun d’être légitime dans le français qu’il apprend ou d’autres langues qu’il parle.

The Conversation

Grégory Miras ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Enseigner le français langue étrangère : un monde aux mille accents – https://theconversation.com/enseigner-le-francais-langue-etrangere-un-monde-aux-mille-accents-267483

How number systems shape our thinking and what it means for learning, language and culture

Source: The Conversation – Canada – By Jean-Charles Pelland, Postdoctoral Researcher, Department of Psychosocial Science, University of Bergen

Most of us have little trouble working out how many millilitres are in 2.4 litres of water (it’s 2,400). But the same can’t be said when we’re asked how many minutes are in 2.4 hours (it’s 144).

That’s because the Indo-Arabic numerals we often use to represent numbers are base-10, while the system we often use to measure time is base-60.

Expressing time in decimal notation leads to an interaction between these two bases, which can have implications at both the cognitive and cultural level.

Such base interactions and their consequences are among the important topics covered in a new issue of the Philosophical Transactions of the Royal Society journal, which I co-edited with colleagues Andrea Bender (University of Bergen), Mary Walworth (French National Centre for Scientific Research) and Simon J. Greenhill (University of Auckland).

The themed issue brings together work from anthropology, linguistics, philosophy and psychology to examine how humans conceptualize numbers and the numeral systems we build around them.

What are bases, and why do they matter?

Despite using numeral bases on a daily basis, few of us have reflected on the nature of these cognitive tools. As I explain in my contribution to the issue, bases are special numbers in the numeral systems we use.

Because our memories aren’t unlimited, we can’t represent each number with its own unique label. Instead, we use a small set of numerals to build larger ones, like “three hundred forty-two.”

That’s why most numeral systems are structured around a compositional anchor — a special number with a name that serves as a building block to form names for other numbers. Bases are anchors that exploit powers of a special number to form complex numerical expressions.

The English language, for example, uses a decimal system, meaning it uses the powers of 10 to compose numerals. So we compose “three hundred and forty-two” using three times the second power of 10 (100), four times the first power of 10 (10) and two times the zeroth power of 10 (one).

This base structure allows us to represent numbers of all sizes without overloading our cognitive resources.

Languages affect how we count

Despite the abstract nature of numbers, the degree to which numeral systems transparently reflect their bases has very concrete implications — and not just when we tell time. Languages with less transparent rules will take longer to learn, longer to process and can lead to more calculation and dictation errors.

Take French numerals, for example. While languages like French, English and Mandarin all share the same base of 10, most dialects of French have what could politely be called a quirky way of representing numbers in the 70-99 range.




Read more:
How counting by 10 helps children learn about the meaning of numbers


Seventy is soixante-dix in French, meaning “six times 10 plus 10,” while 80 uses 20 as an anchor and becomes quatre-vingts, meaning “four twenties” (or “four twenty,” depending on the context). And 90 is quatre vingt dix, meaning “four twenty ten.”

French is far from being alone in being quirky with its numerals. In German, numbers from 10 to 99 are expressed with the ones before the tens, but numbers over 100 switch back to saying the largest unit first.

Even in English, the fact that “twelve” is said instead of “ten two” hides the decimal rules at play. Such irregularities spread far beyond languages.

How bases shape learning and thought

Base-related oddities are spread out across the globe and have very real implications for how easily children learn what numbers are and how they interact with objects such as blocks, and for how efficiently adults manipulate notations.

For example, one study found that lack of base transparency slows down the acquisition of some numerical abilities in children, while another found similar negative effects on how quickly they learn how to count.

Another study found that children from base-transparent languages were quicker to use large blocks worth 10 units to represent larger numbers (for example, expressing 32 using three large blocs and two small ones) than children with base-related irregularities.

While Mandarin’s perfectly transparent decimal structure can simplify learning, a new research method suggests that children may find it easier to learn what numbers are if they are exposed to systems with compositional anchors that are smaller than 10.

In general, how we represent bases has very concrete cognitive implications, including how easily we can learn number systems and which types of systems will tend to be used in which contexts.

A group of people in white protective suits and head protectors stand in front of a robotic spacecraft
Technicians lower the Mars Climate Orbiter onto its work stand in the Spacecraft Assembly and Encapsulation Facility-2 in 1998.
(NASA)

At a cultural level, base representation influences our ability to collaborate with scientists across disciplines and across cultures. This was starkly illustrated by the infamous Mars Climate Orbiter incident, when a mix-up between metric and imperial units caused a $327 million spacecraft to crash into Mars in 1999.

Why understanding bases matters

Numeracy — the ability to understand and use numbers — is a crucial part of our modern lives. It has implications for our quality of life and for our ability to make informed decisions in domains like health and finances.

For example, being more familiar with numbers will influence how easily we can choose between retirement plans, how we consider trade-offs between side-effects and benefits when choosing between medications or how well we understand how probabilities apply to our investments.

And yet many struggle to learn what numbers are, with millions suffering from math anxiety. Developing better methods for helping people learn how to manipulate numbers can therefore help millions of people improve their lives.

Research on the cognitive and cultural implications of bases collected in the Philosophical Transactions of the Royal Society journal can help make progress towards our understanding of how we think about numbers, marking an important step towards making numbers more accessible to everyone.

The Conversation

Jean-Charles Pelland’s work has been made possible by financial support from the ‘QUANTA: Evolution of Cognitive Tools for Quantification’ project, which has received funding from the European Research Council (ERC) under the European Union’s Horizon 2020 research and innovation programme (grant agreement No 951388).

ref. How number systems shape our thinking and what it means for learning, language and culture – https://theconversation.com/how-number-systems-shape-our-thinking-and-what-it-means-for-learning-language-and-culture-268168

The Running Man is the most fun you’ll have at the cinema this year

Source: The Conversation – UK – By Matt Jacobsen, Senior Lecturer in Film History in the School of Society and Environment, Queen Mary University of London

Nearly four decades after Arnold Schwarzenegger’s muscle-bound version sprinted across screens, The Running Man returns to cinemas. In Edgar Wright’s hands, this adaptation is a sharper, smarter reflection of a culture that still can’t look away from spectacle.

Following The Long Walk, this is the second film adaptation in 2025 of a Stephen King novel originally published under the pseudonym Richard Bachman. Both films are set in a near-future America under a totalitarian regime whose oppressed population glue themselves to violent televised contests.

Schwarzenegger’s dreadful version of The Running Man in 1987 used the title of King’s novel and the concept of deadly game shows in a future America – but the similarities ended there. Director Edgar Wright’s hugely entertaining new adaptation is more faithful to the plot of King’s book, if not the tone.




Read more:
How Stephen King’s Bachman stories are fuelling 2025’s dark cinematic moments


In The Running Man, America is effectively run by television syndicate The Network. They keep the population entertained and obedient through life-and-death TV game shows. Participants in the most popular show play a game of hide-and-seek against a team of armed hunters. The public are promised cash rewards if they report a sighting of the contestant that leads to their capture and killing.

Ben Richards (Glenn Powell) is a blue-collar worker who wants to compete to win money for his sick daughter’s medication. The film follows Richards as he encounters eccentric citizens (with cameos by Michael Cera, William H Macy and an unhinged Sandra Dickinson) who are either keen to help or hinder him as he flees north from New York City along the east coast of America.

Trailer for The Running Man.

The Running Man’s opening scenes vividly show a stratified America, a vast poverty gap dividing the complacent ultra rich from a working class without basic comfort and sustenance. Richards, like many of King’s Bachman book protagonists (and King himself when writing the first draft of this novel in 1972) is driven by a deep-seated rage at the injustices in the American system.

The Network’s oily executive Dan Killian (a typically brilliant Josh Brolin) knows Richards will make great cathartic TV for an impotent, rage-filled population – he’s “the angriest man he’s ever seen”. The overarching theme is that the populace likes it this way and can’t imagine an alternative. The Network’s programming offers a satisfying pound of flesh to their frenzied viewers, whose primal urges are kept at bay by the spectacle of violence. As Killian hammily asserts, for Americans: “Bloodlust is our birthright!”

Tuning into current debates, The Network heavily edits its programmes with use of seamless AI. The film suggests the population is uninterested in whether their entertainment and news are authentic or faked. As clearly doctored footage of Richards is screened, the crowd bays aggressively for his blood. In the film’s final act, there is the suggestion that this fervour could be redirected with hostility towards the hand that feeds.




Read more:
‘AI actor’ Tilly Norwood is dividing Hollywood – but real acting requires humanity


The film’s early depiction of the technology saturated sprawl of New York City is a superbly realised absurdist vision of an oppressive media-run state. It strongly evokes the style and tone of influential weekly British Science Fiction comic 2000 AD (1977-present), with its towering, neon-lit concrete structures. The overpowered and excessively violent police force particularly resembles the futuristic satire of the comic’s most famous character, Judge Dredd.

Wright and frequent collaborator Simon Pegg have expressed their admiration for the comic and its amplified visions of contemporary politics and society. Like 2000 AD, The Running Man is social commentary that delivers its message through aggressive, fast-paced action and explosive violence.

Edgar Wright and genre cinema

This is a great year for King adaptations, and while The Long Walk’s publicity campaign promoted his name heavily, The Running Man features Wright’s name and rising star Powell with no mention of the writer. This choice is likely to avoid misconceptions that this could be a horror film. Rather this is a breathless, hyper-kinetic action film that, like the smaller scale Baby Driver (2017) showcases Wright’s ability to beautifully direct explosive car chases and gun battles.

At the heart of Wright’s films is a love of genre cinema. In his last film, Last Night in Soho (2021), he paid tribute to gothic London films and to the cinematic myth of the swinging 60s. Here he shifts gears and celebrates the uncomplicated pleasures of the high-speed thrills of 1980s and 1990s action films in the vein of Die Hard (1988). It is an interpretation of King’s work that replaces the dour, bitter tragedy of the source material with a satirical, cartoonish absurdism.

This comedic approach works superbly in the film’s first half but can’t quite sustain the more serious critiques of American politics and media culture that the script tries to deliver in the final act.

The Running Man loses tension and nuance in its second half, especially with the late introduction of poorly conceived character Amelia Williams (Emilia Jones). She’s a young woman and member of society’s comfortable class who is embroiled in Richards’ escape plans. Her encounter with Richards leads her unconvincingly to reflect on her privilege and the injustices of her society.

The film wants viewers to imagine that there is potential for the entitled and complacent to reflect and for resistance against totalitarian control to blossom with the right catalyst. This is a deliberate choice to run counter to King’s original nihilistic vision. But it does not ring true in the face of what we’ve been shown about the film’s grim world. The final act messaging feels rote and unearned. Richards delivers a clunky, didactic dialogue that sits at odds with the film’s more interesting questions around the nature of violent spectacle and human nature – and our own enjoyment of the film’s violence.

Taken as a feather-light, fugitive-on-the-run film, this is an extraordinarily entertaining piece of mainstream action cinema. If you overlook messy plotting in the final act, it’s the most fun you are likely to have in the cinema this year. As a more focused and coherent critique of the threat of totalitarianism and media dominance, however, The Long Walk has the distinct edge over this film. Those looking for a more revealing social commentary may be left disappointed.


Looking for something good? Cut through the noise with a carefully curated selection of the latest releases, live events and exhibitions, straight to your inbox every fortnight, on Fridays. Sign up here.


The Conversation

Matt Jacobsen does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. The Running Man is the most fun you’ll have at the cinema this year – https://theconversation.com/the-running-man-is-the-most-fun-youll-have-at-the-cinema-this-year-269314

How China’s latest aircraft carrier will challenge western maritime dominance

Source: The Conversation – UK – By Basil Germond, Professor of International Security, School of Global Affairs, Lancaster University

China’s new Fujian aircraft carrier, unveiled recently by president Xi Jinping with great fanfare, has been hailed by Chinese state media as a major milestone in the country’s naval modernisation programme and a key development in the counry’s aspirations to become a maritime power.

In the context of Beijing’s sustained seapower strategy, the long-term implications for the security and leadership of the global maritime order are certainly significant and enduring.

The launch means China now has three aircraft carriers in service and is capable of maintaining a continuous carrier presence at sea. And there have been reports of satellite images which suggest construction has already begun on China’s fourth carrier.

This will increase Beijing’s ability to preventatively deploy warships to faraway locations it considers important. It gives China the potential to control the airspace wherever their battle group is operating, as well as the ability to project air power in more distant theatres of conflict.

The new carrier also means China can launch heavier and specialist aircraft, for example with airborne early-warning systems and fighter jets equipped with greater fuel and payload capacity.

This expands Beijing’s operational options. It elevates China into a select group of four nations (US, UK, France, China) capable of independently operating a carrier battle group with the capacity to generate substantial strategic advantages from the sea.

Among this group, however, the US remains far ahead. It enjoys a significant lead in terms of carrier fleet size, technological sophistication, operational experience, global reach and sustained carrier strike capabilities.

Aircraft carriers are obviously key naval assets in confrontations between comparable nations in open ocean environments – known as “blue-water engagements”. But they are also important in controlling the maritime battlespace – particularly through air superiority – and in projecting power ashore.

The Fujian does not dramatically shift the global balance of power in China’s favour. But its enhanced land-attack capabilities nonetheless expand Beijing’s operational toolkit, allowing a more flexible and assertive naval strategy.

A strong symbolic power

Since the second world war, aircraft carriers have replaced battleships as the capital ships, the principal and most powerful warships in any country’s navy that are designed to form the core of a fleet and deliver decisive combat power.

Such capital ships carry strong symbolic weight. They signal a state’s ability to mobilise the resources required to procure, sustain and operate such complex platforms, as well as its intent to function as an ocean-going naval power.

In this light, China’s aircraft carrier programme has considerable symbolic resonance. It reflects both Beijing’s intrinsic naval capabilities and its extrinsic power – that is, its increasingly elevated status within the international pecking order.

China’s comprehensive seapower strategy

China’s carrier programme needs to be understood as part of Beijing’s wider seapower strategy. Unlike other authoritarian states such as Russia or Iran, the power base of China’s regime is much more dependent on international trade and so on freedom of navigation. Consequently, China does not seek to disrupt the global maritime order. It wants to lead it and initiate a new cycle of global dominance.

To that end, Beijing is not only expanding its naval power but, perhaps more significantly, its civilian seapower. This includes a robust shipbuilding industry, a large and growing merchant marine registered as Chinese. And it has made substantial direct investments in critical western infrastructure, such as ports.




Read more:
Maritime power shapes the world order – and is undergoing a sea change


Many of these investments have been made via private Chinese firms which maintain close ties with the state. This gives Beijing additional leverage to exercise civilian seapower to further its political interests. For example, it can use Chinese shipping companies to circumvent western sanctions on Russia, or interfere in European ports owned by Chinese firms.

In the South China Sea, Beijing aggressively uses its fishing fleet, backed by its coastguard and navy to achieve a degree of control over contested areas it considers to have economic or strategic importance.

So the commissioning of the Fujian is more than a technical milestone for the Chinese navy – it is a signal of intent. It reinforces China’s growing capacity and willingness to shape the maritime domain. As part of a broader seapower strategy, it reflects Beijing’s ambition not just to contribute to, but to lead, the global maritime order.

The Conversation

Basil Germond does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. How China’s latest aircraft carrier will challenge western maritime dominance – https://theconversation.com/how-chinas-latest-aircraft-carrier-will-challenge-western-maritime-dominance-269406

Por qué perdimos el hábito de dormir en dos turnos y cómo modificó nuestra percepción del tiempo

Source: The Conversation – (in Spanish) – By Darren Rhodes, Lecturer in Cognitive Psychology and Environmental Temporal Cognition Lab Director, Keele University, Keele University

Albert Joseph Moore/Shutterstock

El sueño continuo es un hábito moderno, no un fruto natural de nuestra evolución. Y eso ayuda a explicar por qué muchos de nosotros seguimos despertándonos a las 3 de la madrugada y nos preguntamos si algo va mal. Puede ser útil saber que se trata de una experiencia profundamente humana.

Durante la mayor parte de la historia de la humanidad, dormir ocho horas seguidas no era lo habitual. En cambio, la gente solía descansar en dos turnos cada noche, a menudo denominados “primer sueño” y “segundo sueño”. Cada uno de estos periodos duraba varias horas, separadas por un intervalo de vigilia de una hora o más en mitad de la noche. Los registros históricos de Europa, África, Asia y otros lugares describen cómo, al caer la noche, las familias se acostaban temprano y luego se despertaban alrededor de la medianoche durante un rato antes de volver a dormir hasta el amanecer.

Dividir la noche en dos partes probablemente cambió la percepción del tiempo. El intervalo de silencio daba a las noches un punto medio claro, lo que puede hacer que las largas tardes de invierno parezcan menos continuas y sean más fáciles de soportar.

El intervalo de medianoche no era tiempo muerto, sino tiempo consciente, que determinaba cómo se experimentan las largas noches. Algunas personas se levantaban para ocuparse de tareas como avivar el fuego o cuidar de los animales. Otras se quedaban en la cama para rezar o reflexionar sobre los sueños que acababan de tener. Las cartas y los diarios de la época preindustrial mencionan que la gente aprovechaba las horas de tranquilidad para leer, escribir o incluso socializar tranquilamente con la familia o los vecinos. Y muchas parejas aprovechaban este despertar de medianoche para tener relaciones íntimas.

La literatura de épocas tan lejanas como la de Homero y Virgilio contiene referencias a una “hora que pone fin al primer sueño”, lo cual indica lo habitual que era la noche de dos turnos.

Cómo perdimos el “segundo sueño”

La desaparición del segundo sueño se produjo a lo largo de los dos últimos siglos debido a profundos cambios sociales. La iluminación artificial es uno de ellos. En los siglos XVIII y XIX, las lámparas de aceite, la iluminación de gas y, finalmente, la luz eléctrica comenzaron a convertir la noche en un tiempo de vigilia más aprovechable. En lugar de acostarse poco después de la puesta del sol, la gente empezó a quedarse despierta hasta más tarde bajo la luz de las lámparas.

Desde el punto de vista biológico, la luz brillante por la noche también modificó nuestros relojes internos (nuestro ritmo circadiano) e hizo que nuestros cuerpos fueran menos propensos a despertarse después de unas pocas horas de sueño. El momento en que se expone a la luz es importante. La luz normal de una habitación antes de acostarse suprime y retrasa la melatonina, lo que a su vez retarda la llegada del sueño.

La Revolución Industrial transformó no solo la forma de trabajar de las personas, sino también la forma de dormir. Los horarios de las fábricas fomentaban un único bloque de descanso. A principios del siglo XX, la idea de ocho horas ininterrumpidas había sustituido al ritmo centenario de dos periodos de sueño.

En estudios del sueño de varias semanas de duración que simulan las largas noches de invierno en la oscuridad y prescinden de los relojes o la luz del atardecer, las personas que participan suelen acabar adoptando dos periodos de sueño con un intervalo de vigilia tranquilo. Un estudio de 2017 sobre una comunidad agrícola de Madagascar sin electricidad descubrió que la mayoría de las personas seguían durmiendo en dos segmentos, levantándose alrededor de la medianoche.

Mujer durmiendo en un sofá con un vestido de seda.
¿Soñando con un segundo sueño?
John Singer Sargent/Shutterstock

Inviernos largos y oscuros

La luz regula nuestro reloj interno e influye en la rapidez con la que percibimos el paso del tiempo. Cuando esas señales se desvanecen, como en invierno o bajo la luz artificial, nos desorientamos.

En invierno, la luz matutina más tardía y más débil dificulta la sincronización circadiana. Esa luz de la mañana es especialmente importante para regular los ritmos circadianos porque contiene una mayor cantidad de luz azul, que es la longitud de onda más eficaz para estimular la producción de cortisol por parte del cuerpo y suprimir la melatonina.

En laboratorios de aislamiento temporal e investigaciones en cuevas, las personas estudiadas han vivido durante semanas sin luz natural ni relojes, o incluso en oscuridad constante. Pues bien, muchos individuos contaron mal el paso de los días, lo que demuestra lo fácil que es perder la noción del tiempo sin señales luminosas.

Distorsiones similares se producen en el invierno polar, donde la ausencia de amaneceres y atardeceres puede hacer que el tiempo parezca suspendido. Las personas nativas de latitudes altas y los residentes de larga duración con rutinas estables suelen adaptarse mejor a los ciclos de luz polares que los visitantes de corta duración, pero esto varía según la población y el contexto. Los residentes se adaptan mejor cuando su comunidad comparte un horario diario regular, por ejemplo. Y un estudio de 1993 sobre la población islandesa y sus descendientes que emigraron a Canadá reveló que estas personas presentaban índices inusualmente bajos de trastorno afectivo estacional en invierno. El estudio sugirió que la genética podría ayudar a esta población a lidiar con el largo invierno ártico.

Las investigaciones del Laboratorio de Cognición Temporal Ambiental de la Universidad de Keele (Inglaterra), del que soy director, muestran lo fuerte que es este vínculo entre la luz, el estado de ánimo y la percepción del tiempo. En una realidad virtual de 360 grados, los participantes vieron seis clips con escenas del Reino Unido y Suecia de unos dos minutos de duración. Estos voluntarios consideraron que las grabaciones duraban más en las escenas nocturnas o con poca luz que en las escenas diurnas o con más luz. El efecto fue más pronunciado en los participantes que declararon tener un estado de ánimo bajo.

Una nueva perspectiva sobre el insomnio

Los médicos especialistas en sueño señalan que los despertares breves son normales y suelen producirse en las transiciones entre fases, incluida la fase cercana al sueño REM, que se asocia con sueños vívidos. Lo importante es cómo respondemos.

La percepción de la duración en el cerebro es elástica: la ansiedad, el aburrimiento o la escasez de luz tienden a alargar el tiempo, mientras que el compromiso y la calma pueden comprimirlo. Sin ese intermedio en el que antiguamente nos levantábamos y hacíamos algo o charlábamos con nuestra pareja, despertarse a las 3 de la madrugada a menudo hace que el tiempo discurra con lentitud. En este contexto, la atención se centra en el paso del tiempo y los minutos que pasan pueden parecer más largos.

La terapia cognitivo-conductual para el insomnio (TCC-I) aconseja a las personas que se levanten de la cama después de unos 20 minutos tras despertarse, realicen una actividad tranquila con luz tenue, como leer, y luego vuelvan cuando tengan sueño.

Los expertos en sueño también sugieren tapar el reloj y dejar de medir el tiempo cuando se tiene dificultad para dormir. Aceptar con calma el estado de vigilia, junto con la comprensión de cómo nuestra mente percibe el tiempo, puede ser la forma más segura de volver a descansar.

The Conversation

Darren Rhodes no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Por qué perdimos el hábito de dormir en dos turnos y cómo modificó nuestra percepción del tiempo – https://theconversation.com/por-que-perdimos-el-habito-de-dormir-en-dos-turnos-y-como-modifico-nuestra-percepcion-del-tiempo-269513

Experiencias inmersivas de entretenimiento: disfrutar del ‘streaming’ más allá de las películas y las series

Source: The Conversation – (in Spanish) – By José Enrique Guerrero Pérez, Profesor Titular de Universidad, especializado en producción y gestión de contenidos audiovisuales de entretenimiento, Universidad de Navarra

Fotograma de _Las guerreras K-pop_. Cortesía de Netflix

Netflix, Prime Video o Movistar+ se han convertido en protagonistas de nuestro día a día y, también, en gastos fijos mensuales. Hace unos años, el boom de las plataformas de streaming inauguró una época que nos prometía un paraíso de entretenimiento audiovisual casi ilimitado. Desde entonces, la pregunta “¿Qué vemos esta noche?” se ha replicado por todos los hogares con una viralidad sorprendente.

Sin embargo, esa edad de oro vivida tras la pandemia ha dado paso a una jungla competitiva. Existe un abrumador exceso de oferta de contenidos que ha generado auténticos estragos y dificultades en el sector. La verdadera batalla ya no se libra por tener el catálogo más amplio, sino por conquistar el bien más escaso y preciado: el tiempo y la atención de la audiencia (que se traducen en ingresos).

Este espejismo de abundancia infinita ha colisionado con dos realidades infranqueables: nuestras limitadas horas de ocio y el ajustado presupuesto de los hogares. Las plataformas lo saben y su reacción ha marcado el fin de una era. Las subidas de precios, las restricciones a las cuentas compartidas y la normalización de la publicidad son síntomas de un modelo que necesitaba reinventarse.

No obstante, a pesar de las dificultades, según el Barómetro OTT de GECA (2025), más del 70 % de los usuarios mantiene suscripciones a varios servicios y su consumo se incrementa en los periodos de vacaciones, cuando se dispone de más tiempo libre. El hogar y el televisor destacan como el lugar y el dispositivo de visionado preferentes.

Pantalla en la que se ven los logotipos de diferentes plataformas de streaming.
¿Cuántas plataformas tenemos en casa?
Ivan Marc/Shutterstock

Un presente marcado por las alianzas estratégicas

En este nuevo entorno, la estrategia más habitual consiste en dejar de mirar a los competidores como rivales y considerarlos aliados. Las plataformas han entendido que no vivimos tiempos para llaneros solitarios y han comenzado a forjar alianzas. La exclusividad de los contenidos ya no parece ser suficiente para alcanzar la sostenibilidad. Por ejemplo, el acuerdo comercial de Disney+ con Atresmedia (Atresplayer) demuestra que se ha pasado de la guerra del streaming a la supervivencia colaborativa. De este modo, se están creando ecosistemas donde diferentes marcas coexisten y se integran para ofrecer paquetes más atractivos y variados.

En el contexto global, estas alianzas estratégicas han servido para que empresas de diferentes industrias, como la audiovisual y la musical, colaboren de forma transversal. Así lo demuestra el acuerdo entre Netflix y Spotify, que lleva los videopódcasts más exitosos de la segunda al catálogo de la primera. Este caso materializa la colaboración entre dos gigantes del streaming y demuestra la compleja posición competitiva en la que quedan las marcas locales.

De modo paralelo al fenómeno que viven los operadores de televisión tradicionales, que ahora ofrecen sus contenidos también bajo demanda, las firmas de streaming cada vez se parecen más a la televisión lineal.

Algunos elementos que parecían obsoletos han regresado con fuerza: proliferan los canales lineales online –muchos de ellos gratuitos y financiados con anuncios (FAST TV: Free Ad-Supported Television)–, se generaliza el estreno semanal de capítulos siguiendo las pautas de la serialidad televisiva, se apuesta por la publicidad y, sobre todo, por la magia del directo. Tal es la relevancia de este último en el futuro inmediato del streaming que Netflix está desarrollando una herramienta para permitir el voto en tiempo real, potenciando la interactividad.

El fenómeno de los eventos deportivos en streaming o la emisión en directo de Operación Triunfo en Prime Video reflejan esta nueva realidad. La primera temporada del talent show musical en la plataforma, en 2023, se convirtió en el estreno más visto de su historia.

La segunda edición de 2025 también ha demostrado que la televisión-evento es el arma perfecta para generar conversación social y atraer a las generaciones más jóvenes, como la Z. Su éxito radica en una fórmula híbrida: la emoción del directo amplificada por un canal gratuito en YouTube y una conversación constante en redes como TikTok. Así se crea un puente perfecto entre la televisión de siempre y el lenguaje audiovisual de los nuevos públicos y medios interactivos.

Historias que escapan de la pantalla

La reconversión de las marcas de streaming en empresas sostenibles no se consigue únicamente desde los parámetros clásicos del negocio de la televisión, sino que es necesario trascenderlo. El objetivo es conseguir que las historias escapen de la pantalla y se integren en nuestras vidas a través de experiencias inmersivas que fidelicen (engagement). Aquí es donde la diversificación se convierte en una herramienta increíblemente poderosa.

Diseño en el que se dibujan muchos de los personajes de Stranger Things.
Stranger Things es más que una serie para Netflix, es una propiedad intelectual.
Netflix

Por ejemplo, Netflix ha expandido sus universos de ficción a los videojuegos para móviles. Ahora es posible jugar en los mundos de series populares como Stranger Things o Black Mirror, y que interactuemos con el televisor en pasatiempos grupales al estilo de los juegos de toda la vida.

Esta expansión va aún más lejos cuando los protagonistas de títulos de ficción se convierten en iconos, como es el caso de Las guerreras K-pop. Se han transformado en un fenómeno de éxito global y han dado el salto a la industria musical y a la del videojuego. Así, las cantantes coreanas son, ahora, personajes del famoso Fortnite.

Además, la banda sonora de la película también ha protagonizado esta expansión transmedia. Las canciones del grupo de animación lideran las principales listas de éxitos musicales, como el Billboard o Los 40 Principales. Una banda musical ficticia se ha encarnado en un grupo de verdaderas cantantes (HUNTR/X) que acude a los shows televisivos de más audiencia, como The Tonight Show de Jimmy Fallon (NBC) en Estados Unidos. Aún está por ver cómo se materializa su gira mundial y si coexisten en los escenarios las protagonistas virtuales y las humanas, originando un fenómeno absolutamente novedoso.

HUNTR/X actúa en The Tonight Show with Jimmy Fallon.

Debido al éxito, estas cantantes guerreras cuentan con réplicas que causan furor por todo el mundo. Gracias a HUNTR/X, el k-pop (pop coreano) ya no es solo un fenómeno de adolescentes y jóvenes. También se ha popularizado entre las audiencias infantiles, ampliando su público potencial y el potencial comercial del merchandising.

En resumen, la estrategia no consiste en comercializar una única película, un juego o una suscripción. La clave está en construir marcas globales, generar ingresos recurrentes por royalties y alimentar un fenómeno fan que mantenga vivo el éxito con su fidelidad. Todo ello potenciado por una inteligencia artificial cada vez más presente e invisible en todos los ámbitos de la industria del entretenimiento. La IA trae la promesa de servicios audiovisuales hiperpersonalizados que no solo se ven, sino que se viven. Pasaremos de preguntarnos “¿qué vemos esta noche? a “¿qué experimentamos esta noche?”.

The Conversation

Enrique Guerrero recibe fondos de Ministerio de Ciencia, Innovación y Universidades del Gobierno de España para el proyecto de investigación “La calidad como factor esencial para un modelo de negocio sostenible en las plataformas de streaming” (PID2023-150258NB-I00).

ref. Experiencias inmersivas de entretenimiento: disfrutar del ‘streaming’ más allá de las películas y las series – https://theconversation.com/experiencias-inmersivas-de-entretenimiento-disfrutar-del-streaming-mas-alla-de-las-peliculas-y-las-series-268159

Qué es y qué no es desertificación

Source: The Conversation – (in Spanish) – By Jaime Martínez Valderrama, Científico Titular, Estación Experimental de Zonas Áridas (EEZA – CSIC)

El regadío se identifica tanto como un problema de desertificación como una barrera contra el mismo. Esta doble concepción puede integrarse en uno de los clásicos síndromes de desertificación. Se trata de un caso de desarrollo socioeconómico que deriva en la sobreexplotación de los recursos hídricos. Julia Martínez, CC BY-SA

En 2027 se cumplirán cien años desde que se empleó por primera vez el término desertificación. Durante este siglo se han logrado diversos avances conceptuales y de concienciación sobre ese grave problema socioambiental, además de algunas propuestas solventes. Sin embargo, prevalecen diversas confusiones que impiden el desarrollo de soluciones verdaderamente efectivas. Una de ellas es la identificación de lo qué es desertificación, cuestión que ha obstaculizado, por ejemplo, la localización del problema.

El proyecto Atlas de la Desertificación de España, financiado por la Fundación Biodiversidad, aborda de lleno este reto, presentando mapas de desertificación y una batería de casos de estudio que ahondan en diversas situaciones, algunas habitualmente identificadas con este problema y otras muy alejadas de ella.

Paisaje agrícola de regadío
Regadío agroindustrial en Campo de Cartagena (Región de Murcia).
Jaime Martínez Valderrama, CC BY-SA

Ni la aridez, ni los desiertos, ni las calimas son desertificación

Como imagen de la desertificación se suelen presentar casos que nada tienen que ver con el problema. Así, es habitual mostrar las típicas formaciones acarcavadas bajo un titular que sugiere que el desierto avanza. Son varios los errores acumulados en estas noticias. Esas geoformas –como las que encontramos en las Bardenas Reales (Navarra y Aragón) o el Campo de Tabernas (Almería)– se denominan malpaís por el hecho de que su incómoda orografía ha imposibilitado históricamente su aprovechamiento, con lo que no han podido ser degradadas por la actividad humana (uno de los requisitos para que haya desertificación).

Además, la desertificación es un problema in situ, no una amenaza externa a modo de meteorito que arrasa un territorio. Del mismo modo, el polvo sahariano que nos visita en forma de calimas cada vez con más frecuencia se asocia con la desertificación, pero se trata de un problema de otra índole. Las sequías y las zonas áridas son otras de las erróneas equiparaciones a este complejo fenómeno socioambiental.

Paisaje con montículos característico de las Bardenas Reales
Situado entre Navarra y Aragón, las Bardenas Reales (418 km²) son el área más extensa con formaciones de tierras baldías en la península ibérica. La actividad erosiva está ligada a las fases de incisión cuaternarias de los ríos Aragón y Ebro.
Estela Nadal-Romero, CC BY-SA

Los sospechosos habituales

Una segunda familia de casos, habitualmente presentes en las listas de paisajes o síndromes de desertificación, tienen que ver con la agricultura. Se trata de cultivos que debido a su intensificación y malas prácticas desencadenan procesos de erosión, contaminación de suelos y aguas, o degradación de masas de agua, con las consecuentes repercusiones en la biodiversidad.

Ejemplos de ellos son diversos cultivos leñosos (olivar, almendro y vid) o las frutas y hortalizas (cultivos tropicales, invernaderos, cítricos, etc.). Estos “paisajes de la desertificación”, tal como se denominan en la Estrategia Nacional de Lucha contra la Desertificación (ENLD), representan al mismo tiempo soluciones económicas para muchas regiones, lo que dificulta enormemente su reconversión.

No resulta sencillo reconducir la agricultura intensiva en los alrededores del Parque Nacional de Doñana cuando constituye la principal vía de ingresos de muchas personas. Comprender en profundidad los mecanismos implicados –tanto socioeconómicos como biofísicos– es fundamental para que el desarrollo económico no sea efímero, sino verdaderamente sostenible.




Leer más:
Guerra del agua entre Doñana y las explotaciones agrícolas y turísticas


Donde reina la ambigüedad

En España, como en otros países de su entorno, se ha producido un éxodo rural que ha desencadenado unas dinámicas y apaciguado otras. Lo que vemos desde las ciudades es un paisaje más verde, consecuencia de que ya no utilizamos leña para calentarnos y cocinar, de que gran parte de la ganadería ha sido estabulada y muchos cultivos, abandonados.

Muchas zonas, previamente degradadas, tan solo son capaces de albergar matorrales; en otras se producen incendios debido a la acumulación de material inflamable. Por otra parte, pese al aumento de la superficie forestal, pocas masas boscosas se parecen a las originales. Hay especies invasoras y bosques que se secan.




Leer más:
Por qué la expansión de bosques y matorrales no es una buena noticia


El abandono del territorio es un paisaje de desertificación llamativo: contraviene la norma de que la degradación ocurre por sobreexplotación de los recursos, no por subexplotación.

Por otra parte, los incendios forman parte de la regeneración y evolución del paisaje natural, y apagarlos precipitadamente causa más daños que beneficios.

Los matorrales se siguen considerando como hábitats degradados, cuando en muchas zonas áridas son la única posibilidad real del territorio para albergar vegetación. Sus funciones ecológicas no son nada desdeñables.
Jaime Martínez Valderrama, CC BY-SA

Considerar que una densa masa de matorrales sea degradación no encaja con su papel protector frente a la erosión, su fijación de carbono o la facilitación de fases más avanzadas de ocupación.

Quizás no sea tan buena idea que el ganado desaparezca por completo. Si lo gestionamos adecuadamente y lo movemos puede ayudar a mejorar el entorno y crear fuentes de riqueza alternativas. En el fondo, puede ser una pieza más de la gestión forestal, que a su vez es un engranaje de la planificación territorial.

Todas estas afirmaciones son ciertas según el contexto, por lo que cuesta mucho decir si son o no desertificación. La cuestión es bastante más compleja, y depende de sus sinergias y condicionantes.

Jugando al despiste

Para complicar el panorama entran en juego otros dos casos que distorsionan nuestra percepción de la desertificación. En muchas ocasiones la degradación ocurrió hace demasiado tiempo como para considerar que un paisaje que observamos era otro mucho más brioso.

La tala de árboles y los posteriores episodios de erosión han convertido hermosas sierras cubiertas de bosques en estériles pendientes polvorientas. Los dispersos matorrales que las cubren pasan, a ojos de las generaciones que las conocen por primera vez, por áridas sierras que siempre fueron así.

Por último, tenemos el caso en el que el desplazamiento es espacial. El comercio global mueve mercancías de una punta del planeta a otra y, a rebufo, la degradación salta de un continente a otro. Así, la mencionada estabulación del ganado reduce la presión sobre el territorio, pero ha supuesto que se talen miles de hectáreas de bosques primarios para cultivar soja, la base de los piensos que alimentan a esa ganadería. Esa exportación de degradación elimina paisajes de desertificación en unos territorios, pero crea profundas heridas en otros.




Leer más:
El crecimiento demográfico de las regiones menos fértiles del planeta, motor de la desertificación


Paisajes de desertificación, una herramienta esencial

Las situaciones analizadas permiten actualizar los paisajes de desertificación identificados inicialmente en el proyecto SURMODES, posteriormente incorporados al Programa de Acción Nacional de Lucha contra la Desertificación (PAND) y a la ENLD.

Los paisajes resultan especialmente útiles por su escala espacial, que coincide con la de los procesos de desertificación. Además, facilitan la comprensión del problema al sintetizar, de forma cualitativa, las interacciones entre los factores socioeconómicos y biofísicos. Esta descripción –y, sobre todo, la reflexión sobre las verdaderas causas de su desarrollo, los motores del fenómeno y sus efectos– puede contribuir a establecer las bases para diseñar soluciones eficaces y sostenibles.

The Conversation

Jaime Martínez Valderrama recibe fondos de Fundación Biodiversidad.

Javier Martí Talavera recibe fondos de Fundación Biodiversidad.

Jorge Olcina Cantos recibe fondos de Fundación Biodiversidad.

Juanma Cintas recibe fondos de CSIC.

ref. Qué es y qué no es desertificación – https://theconversation.com/que-es-y-que-no-es-desertificacion-261197

Detección de mentiras y neurotecnologías: ¿más cerca de la “verdad”?

Source: The Conversation – (in Spanish) – By Miquel Julià-Pijoan, Profesor de Derecho Procesal, UNED – Universidad Nacional de Educación a Distancia

Roman Samborskyi/Shutterstock

En los últimos años, han proliferado estudios empíricos basados en la medición de la actividad cerebral para leer la mente. A través de las neurotecnologías –sistemas de inteligencia artificial alimentados con datos cerebrales–, se anuncia la posibilidad de acceder a los pensamientos, las intenciones o, incluso, las memorias de las personas. Una promesa que, aunque todavía se mueve entre la ciencia y la ficción, plantea desafíos profundos para el ámbito jurídico.

Usando el polígrafo en un caso judicial de 1937.
Biblioteca Nacional de Francia.

Esta posibilidad no ha pasado desapercibida en el mundo del derecho. Desde hace siglos, la justicia ha buscado herramientas que permitan saber si alguien miente en un juicio. Las antiguas ordalías –prueba ritual medieval en que se invocaba el juicio de Dios–, el polígrafo o el análisis del lenguaje no verbal son solo algunos ejemplos de esa ambición persistente por descubrir la verdad a través de medios externos. Ninguna de estas técnicas, sin embargo, ha contado con un respaldo empírico sólido que garantice su validez o fiabilidad.

Una forma de leer la mente

Sin embargo, las técnicas neurocientíficas parecen abrir una vía prometedora, al estar en condiciones de superar los límites y falibilidades de otros sistemas que han ido apareciendo a lo largo de la historia. La clave radica en que la fuente de medición se sitúa lo más próxima posible a la información que se desea obtener. Dicho de otra forma: ya no se trata de medir si alguien suda, se sonroja o se muestra nervioso, sino de observar la actividad neuronal que podría reflejar lo que sabe o recuerda. Algo que, de confirmarse, sería extraordinario.

Con un método así, los declarantes en un proceso judicial no podrían ocultar, distorsionar o falsear lo que cuentan. La aplicación de esta tecnología permitiría reconstruir con más precisión los hechos y, así, conocer lo que realmente ocurrió. Este es uno de los principales objetivos del proceso judicial y, en particular, de la actividad probatoria.

El antecedente de la prueba P300

Aunque pueda parecer futurista, la aplicación de técnicas basadas en la actividad cerebral no es completamente nueva en el ámbito judicial español. Desde 2014, algunos jueces admitieron la práctica de la denominada prueba P300, que registra las señales eléctricas del cerebro mediante electroencefalografía. Se basa en el hecho de que el cerebro modifica dichas señales eléctricas cuando se enfrenta a un estímulo visual que le evoca un recuerdo.

El método consiste en mostrar a los investigados imágenes o palabras relacionadas con un hecho delictivo. Si el cerebro reacciona con una señal eléctrica concreta –la llamada “onda P300”–, se interpreta que el sujeto reconoce la información presentada.

En varios casos, esta técnica se empleó para intentar localizar los cuerpos de víctimas desaparecidas, como Marta del Castillo. Sin embargo, los resultados alcanzados en los procesos judiciales no fueron concluyentes. Al contrario, pesan sobre esa prueba muchas dudas sobre su validez y fiabilidad.

¿Se puede detectar la mentira desde la memoria?

Precisamente, para evitar que técnicas sin un respaldo empírico sólido influyan en decisiones judiciales –y puedan conducir a condenas erróneas–, resulta fundamental analizar con detenimiento qué pueden medir realmente estas tecnologías.

Una de las cuestiones relevantes, si se pretende utilizar este instrumento en los tribunales de justicia, es si puede conocerse la verdad de unos hechos mediante el análisis de las memorias de sus testigos. Actualmente, sabemos que la memoria humana no funciona como una cámara de vídeo, no es una copia fiel de la realidad. Y es que los recuerdos son maleables: pueden alterarse (contaminarse) con el paso del tiempo, por la influencia de los medios, por preguntas sugestivas o, simplemente, por volver a contar (o rememorar internamente) lo sucedido varias veces.

Esta permeabilidad característica de la memoria puede dar lugar a falsos recuerdos, que combinan experiencias auténticas con información adquirida después, que puede no corresponderse con la realidad.

Lo más preocupante es que los falsos recuerdos pueden ser indistinguibles de los verdaderos, tanto para quien los tiene como para quien los evalúa. Hasta ahora, la neurociencia no ha identificado un marcador cerebral capaz de diferenciarlos de manera concluyente.

Entonces ¿qué detectan estas pruebas?

Si no se puede distinguir entre recuerdos reales y falsos, ¿qué mide exactamente la neurotecnología?

Los experimentos se basan en una idea sencilla: mentir exige un mayor esfuerzo cognitivo que decir la verdad. Implica suprimir una respuesta espontánea, inventar otra en su lugar y controlar la reacción con el interlocutor a fin de que no se dé cuenta de la mentira (engaño motivado). En teoría, ese esfuerzo extra se refleja en el cerebro.

Así, las técnicas empleadas con tal propósito no se basan el análisis del contenido de la memoria, sino en los patrones cerebrales asociados al esfuerzo de mentir. El problema es que este modelo tiene limitaciones: por ejemplo, si una persona está muy acostumbrada a mentir, dicho esfuerzo se reduce y la técnica deja de ser fiable.

Más que leer la mente, estas herramientas trabajan con una representación muy limitada de lo que significa mentir –engañar–. Su interpretación, por tanto, requiere una gran prudencia. La aparente objetividad de los datos neurocientíficos puede inducir a una “ilusión de certeza” peligrosa en el contexto judicial, donde las consecuencias de un error pueden ser irreversibles.

Aunque los titulares sobre la posibilidad de “detectar mentiras en el cerebro” resulten cautivadores, la realidad científica es mucho más compleja. Los expertos coinciden en que aún estamos lejos de poder acceder a los pensamientos de una persona o determinar con precisión si dice la verdad o no.

Así que, por ahora, la justicia sigue sin disponer de un método fiable para leer la mente o para descubrir la falsedad en los tribunales. Después de todo, seguimos donde estábamos: frente a la eterna dificultad de conocer con certeza qué es verdad y qué no dentro de la mente humana.

The Conversation

Miquel Julià-Pijoan no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Detección de mentiras y neurotecnologías: ¿más cerca de la “verdad”? – https://theconversation.com/deteccion-de-mentiras-y-neurotecnologias-mas-cerca-de-la-verdad-265496