Ces champignons qui brillent dans la nuit : la bioluminescence fongique décryptée

Source: The Conversation – in French – By Romain Garrouste, Chercheur à l’Institut de systématique, évolution, biodiversité (ISYEB), Muséum national d’histoire naturelle (MNHN)

Mycena cf chlorophos est un champignon totalement lumineux : chapeau, lamelles et mycelieum. Parc National de Cuc Phuong, Vietnam Romain Garrouste, Fourni par l’auteur

Alors que s’ouvre l’exposition En voie d’illumination : Lumières de la Nature au Jardin des Plantes de Paris, plongez dans le monde fascinant des champignons bioluminescents.


Il y a des rencontres qui illuminent littéralement vos nuits. Un de ces derniers soirs d’automne, au détour d’un jardin du sud de la France et à la faveur du changement d’heure, j’ai remarqué une étrange lueur verte, douce, presque irréelle, au pied d’une vieille souche. Non, je ne rêvais pas : c’était bien un champignon qui luisait dans le noir. Il ne s’agissait pas d’un gadget tombé d’un sac d’enfant ou d’un reflet de la Lune, mais bien d’un organisme vivant, émettant sa propre lumière. Bienvenue dans le monde fascinant des champignons bioluminescents.

Une lumière naturelle… et vivante

La bioluminescence est la production naturelle de lumière par un être vivant, sans illumination préalable et en cela diffère de la fluorescence ou de la phosphorescence qui ont besoin d’une source de lumière. On la connaît chez certains poissons abyssaux, des requins, des crevettes, du plancton ou chez les lucioles.

Mais les champignons, eux aussi, ont ce « superpouvoir ». Plus de 90 espèces sont aujourd’hui connues dans le monde, surtout en zones tropicales humidescmais certaines, comme l’Omphalotus illudens, sont présentes chez nous, en Europe, et même dans les jardins du sud de la France où l’on trouve aussi Omphalotus olearius, souvent inféodé à l’Olivier mais pas uniquement. L’entomologiste Jean Henri Fabre la connaissait bien et cela a constitué sa première publication en 1856 sur les champignons.

Une chimie simple, une magie complexe

La lumière fongique ne produit pas chaleur, elle est constante et le plus souvent verte. Elle provient d’une réaction chimique impliquant une molécule appelée luciférine, de l’oxygène, et une enzyme, la luciférase. Cette réaction produit de la lumière dans le vert (vers 520 nm). Le mécanisme, bien que désormais mieux compris, reste fascinant : une lumière sans électricité, sans feu, et pourtant visible à l’œil nu, dans le silence du sous-bois. La bioluminescence est donc une forme de chimioluminescence, puisqu’elle dépend d’une réaction chimique.

Chez les champignons, cette lumière n’est pas toujours visible partout : parfois seules les lamelles, d’autres fois le mycélium (le réseau souterrain de filaments) sont luminescents, ou les deux. Beaucoup d’espèces sont par contre fluorescentes aux UV. Comme nous l’avons dit la fluorescence diffère de la bioluminescence par la nécessité d’avoir une source lumineuse d’excitation qui va provoquer une luminescence dans une longueur d’onde différente. Ce sont des phénomènes très différents même s’ils sont souvent associés chez les organismes.

Pourquoi un champignon brille-t-il ?

Pourquoi un organisme qui ne bouge pas et n’a pas d’yeux se donnerait-il la peine d’émettre de la lumière ? Plusieurs hypothèses ont été proposées comme attirer des insectes nocturnes pour disperser les spores, à l’image d’une enseigne clignotante dans la forêt. Une autre hypothèse est un effet secondaire métabolique, sans rôle adaptatif (ça fait moins rêver, mais cela reste peu probable). La dissuasion de prédateurs (insectes, petits rongeurs) grâce à cette signature visuelle inhabituelle a été également étudiée.

Une étude publiée dans Current Biology a montré que des insectes sont effectivement attirés par la lumière de certains champignons, renforçant l’idée d’une stratégie de dissémination.

Le champignon Omphalotus illudens.
I. G. Safonov (IGSafonov) at Mushroom Observer, CC BY

L’espèce que vous avez peut-être déjà trouvé dans votre jardin, Omphalotus illudens (ou encore O. olearius dans le sud de la France) est remarquable à plus d’un titre. D’abord, parce qu’elle est toxique : ne vous fiez pas à sa belle couleur orangée et son odeur suave de sous-bois. Ensuite, parce qu’elle émet une lumière verte depuis ses lames, bien visible dans le noir complet. Ce phénomène est observable à l’œil nu si l’on s’éloigne des sources lumineuses parasites.

Ce champignon est de plus en plus étudié pour comprendre les variations génétiques liées à la bioluminescence entre espèces fongiques, et rechercher des molécules d’intérêt dans leur métabolisme, comme l’illudine, l’une des molécules à la base de leur toxicité, intéressante pour ses propriétés anticancéreuse.

Lumière sur la nature

Photographier ces champignons est un défi passionnant : il faut une longue pose, souvent au-delà de 30 secondes, un environnement très sombre, et parfois, un peu de chance. Mais l’image qui en résulte est souvent saisissante : un halo lumineux semblant flotter dans l’obscurité, témoin de la vitalité nocturne des sous-bois.

J’ai relevé le défi une fois de plus, comme la toute première fois dans une forêt du Vietnam sur une autre espèce ou récemment sur des litières en Guyane. Le défi est en fait double, détecter le phénomène et le photographier ensuite comme un témoignage fugace, un caractère discret qui disparaît à la mort de l’organisme.

Pour étudier ces phénomènes notre unité de recherche s’est dotée d’une plate-forme originale d’imagerie et d’analyse des phénomènes lumineux dans le vivant mais aussi pour explorer la géodiversité, par exemple dans les fossiles (pour la fluorescence) : le laboratoire de photonique 2D/3D de la biodiversité. Entre le vivant lors d’expéditions ou de missions de terrains pas forcément lointaine et les collections du MNHN, le registre de l’exploration de ces phénomènes est immense et nous l’avons juste commencé.

Bioluminescence et écologie fongique

Outre son effet esthétique, la bioluminescence pourrait aussi être un marqueur de l’activité biologique : elle reflète le métabolisme actif de certains champignons en croissance, leur interaction avec le bois, la température, l’humidité. Certains chercheurs envisagent même d’utiliser ces espèces comme indicateurs écologiques.

Alors la prochaine fois que vous sortez de nuit, observez les bords des sentiers, les vieux troncs en décomposition… car parfois, la nature éclaire son propre théâtre. Et si un champignon vous fait de l’œil fluorescent, n’ayez pas peur : il est plus poétique que dangereux… sauf si vous le cuisinez. Mais n’oubliez pas d’éteindre votre lampe et d’aller loin des sources de pollution lumineuses.

The Conversation

Romain Garrouste a reçu des financements de : MNHN. CNRS, Sorbonne Université, IPEV, LABEx BCDiv, LABEx CEBA, MTE, MRAE, National Geographic, Institut de la Transition Environnementale et Institut de l’Océan (Sorbonne Univ.)

ref. Ces champignons qui brillent dans la nuit : la bioluminescence fongique décryptée – https://theconversation.com/ces-champignons-qui-brillent-dans-la-nuit-la-bioluminescence-fongique-decryptee-268937

Mort à 97 ans, James Watson incarna à la fois le meilleur et le pire de la science

Source: The Conversation – in French – By Andor J. Kiss, Director of the Center for Bioinformatics and Functional Genomics, Miami University

James Dewey Watson est mort à l’âge de 97 ans, a annoncé le 7 novembre 2025 le Cold Spring Harbor Laborator. Co-découvreur de la structure de l’ADN et prix Nobel en 1962, a marqué à jamais la biologie moderne. Mais son héritage scientifique est indissociable des controverses qui ont entouré sa carrière et sa personnalité.


James Dewey Watson était un biologiste moléculaire américain, surtout connu pour avoir remporté conjointement le prix Nobel de physiologie ou de médecine en 1962 grâce à la découverte de la structure de l’ADN et de son rôle dans le transfert d’informations au sein des organismes vivants. L’importance de cette découverte ne saurait être exagérée. Elle a permis de comprendre le fonctionnement des gènes et donné naissance aux domaines de la biologie moléculaire et de la phylogénétique évolutive. Elle a inspiré et influencé ma carrière de scientifique ainsi que mes activités de directeur d’un centre de recherche en bioinformatique et en génomique fonctionnelle.

Personnalité provocatrice et controversée, il transforma la manière de transmettre la science. Il reste le premier lauréat du prix Nobel à offrir au grand public un aperçu étonnamment personnel et brut du monde impitoyable et compétitif de la recherche scientifique. James D. Watson est décédé le 6 novembre 2025 à l’âge de 97 ans.

La quête du gène selon Watson

Watson entra à l’université de Chicago à l’âge de 15 ans, avec l’intention initiale de devenir ornithologue. Après avoir lu le recueil de conférences publiques d’Erwin Schrödinger sur la chimie et la physique du fonctionnement cellulaire, intitulé What is Life ?, il se passionna pour la question de la composition des gènes – le plus grand mystère de la biologie à l’époque.

Les chromosomes, un mélange de protéines et d’ADN, étaient déjà identifiés comme les molécules de l’hérédité. Mais la plupart des scientifiques pensaient alors que les protéines, composées de vingt éléments constitutifs différents, étaient les meilleures candidates, contrairement à l’ADN qui n’en possédait que quatre. Lorsque l’expérience d’Avery-MacLeod-McCarty, en 1944, démontra que l’ADN était bien la molécule porteuse de l’hérédité, l’attention se concentra immédiatement sur la compréhension de cette substance.

Watson obtint son doctorat en zoologie à l’université de l’Indiana en 1950, puis passa une année à Copenhague pour y étudier les virus. En 1951, il rencontra le biophysicien Maurice Wilkins lors d’une conférence. Au cours de l’exposé de Wilkins sur la structure moléculaire de l’ADN, Watson découvrit les premières cristallographie par rayons X de l’ADN. Cette révélation le poussa à rejoindre Wilkins au laboratoire Cavendish de l’université de Cambridge pour tenter d’en percer le secret de la structure. C’est là que Watson fit la connaissance du physicien devenu biologiste Francis Crick, avec qui il noua immédiatement une profonde affinité scientifique.

Peu après, Watson et Crick publièrent leurs travaux fondateurs sur la structure de l’ADN dans la revue Nature en 1953. Deux autres articles parurent dans le même numéro, l’un coécrit par Wilkins, l’autre par la chimiste et cristallographe aux rayons X Rosalind Franklin.

C’est Franklin qui réalisa les cristallographies par rayons X de l’ADN contenant les données cruciales pour résoudre la structure de la molécule. Son travail, combiné à celui des chercheurs du laboratoire Cavendish, conduisit à l’attribution du prix Nobel de physiologie ou de médecine de 1962 à Watson, Crick et Wilkins.

Le prix et la controverse

Bien qu’ils aient eu connaissance des précieuses images de diffraction des rayons X de Franklin, diffusées dans un rapport interne du laboratoire Cavendish, ni Watson ni Crick ne mentionnèrent ses contributions dans leur célèbre article publié en 1953 dans Nature. En 1968, Watson publia un livre relatant les événements entourant la découverte de la structure de l’ADN tels qu’il les avait vécus, dans lequel il minimise le rôle de Franklin et la désigne avec des termes sexistes. Dans l’épilogue, il reconnaît finalement ses contributions, mais sans lui accorder le plein mérite de sa participation à la découverte.




À lire aussi :
Rosalind Franklin : la scientifique derrière la découverte de la structure de l’ADN, bien trop longtemps invisibilisée


Certains historiens ont soutenu que l’une des raisons invoquées pour ne pas reconnaître officiellement le rôle de Franklin tenait au fait que son travail n’avait pas encore été publié et qu’il était considéré comme une « connaissance partagée » au sein du laboratoire Cavendish, où les chercheurs travaillant sur la structure de l’ADN échangeaient couramment leurs données. Cependant, l’appropriation des résultats de Franklin et leur intégration dans une publication officielle sans autorisation ni mention de son nom sont aujourd’hui largement reconnues comme un exemple emblématique de comportement déplorable, tant du point de vue de l’éthique scientifique que dans la manière dont les femmes étaient traitées par leurs collègues masculins dans les milieux professionnels.

Au cours des décennies qui ont suivi l’attribution du prix Nobel à Watson, Crick et Wilkins, certains ont érigé Rosalind Franklin en icône féministe. On ignore si elle aurait approuvé cette image, car il est difficile de savoir ce qu’elle aurait ressenti face à sa mise à l’écart du Nobel et face au portrait peu flatteur que Watson lui consacra dans son récit des événements. Ce qui est désormais incontestable, c’est que sa contribution fut décisive et essentielle, et qu’elle est aujourd’hui largement reconnue comme une collaboratrice à part entière dans la découverte de la structure de l’ADN.

Une prise de conscience collective

Comment les attitudes et les comportements envers les jeunes collègues et les collaborateurs ont-ils évolué depuis ce prix Nobel controversé ? Dans de nombreux cas, les universités, les institutions de recherche, les organismes financeurs et les revues à comité de lecture ont mis en place des politiques formelles visant à identifier et reconnaître de manière transparente le travail et les contributions de tous les chercheurs impliqués dans un projet. Bien que ces politiques ne fonctionnent pas toujours parfaitement, le milieu scientifique a évolué pour fonctionner de manière plus inclusive. Cette transformation s’explique sans doute par la prise de conscience qu’un individu seul ne peut que rarement s’attaquer à des problèmes scientifiques complexes et les résoudre. Et lorsqu’un conflit survient, il existe désormais davantage de mécanismes officiels permettant de chercher réparation ou médiation.

Des cadres de résolution des différends existent dans les directives de publication des revues scientifiques, ainsi que dans celles des associations professionnelles et des institutions. Il existe également une revue intitulée Accountability in Research, « consacrée à l’examen et à l’analyse critique des pratiques et des systèmes visant à promouvoir l’intégrité dans la conduite de la recherche ». Les recommandations destinées aux chercheurs, aux institutions et aux organismes de financement sur la manière de structurer l’attribution des auteurs et la responsabilité scientifique constituent un progrès significatif en matière d’équité, de procédures éthiques et de normes de recherche.

J’ai moi-même connu des expériences à la fois positives et négatives au cours de ma carrière : j’ai parfois été inclus comme coauteur dès mes années de licence, mais aussi écarté de projets de financement ou retiré d’une publication à mon insu, alors que mes contributions étaient conservées. Il est important de noter que la plupart de ces expériences négatives se sont produites au début de ma carrière, sans doute parce que certains collaborateurs plus âgés pensaient pouvoir agir ainsi en toute impunité.

Il est également probable que ces expériences négatives se produisent moins souvent aujourd’hui, car je formule désormais clairement mes attentes en matière de co-signature dès le début d’une collaboration. Je suis mieux préparé et j’ai désormais la possibilité de refuser certaines collaborations.

Je soupçonne que cette évolution reflète ce que d’autres ont vécu, et qu’elle est très probablement amplifiée pour les personnes issues de groupes sous-représentés dans les sciences. Malheureusement, les comportements inappropriés, y compris le harcèlement sexuel, persistent encore dans ce milieu. La communauté scientifique a encore beaucoup de chemin à parcourir – tout comme la société dans son ensemble.

Après avoir co-découvert la structure de l’ADN, James Watson poursuivit ses recherches sur les virus à l’université Harvard et prit la direction du Cold Spring Harbor Laboratory, qu’il contribua à revitaliser et à développer considérablement, tant sur le plan de ses infrastructures que de son personnel et de sa réputation internationale. Lorsque le Projet génome humain était encore à ses débuts, Watson s’imposa comme un choix évident pour en assurer la direction et en accélérer le développement, avant de se retirer après un long conflit portant sur la possibilité de breveter le génome humain et les gènes eux-mêmes – Watson s’y opposait fermement.

En dépit du bien immense qu’il a accompli au cours de sa vie, l’héritage de Watson est entaché par sa longue série de propos publics racistes et sexistes, ainsi que par ses dénigrements répétés, tant personnels que professionnels, à l’encontre de Rosalind Franklin. Il est également regrettable que lui et Crick aient choisi de ne pas reconnaître pleinement tous ceux qui ont contribué à leur grande découverte aux moments décisifs.

The Conversation

Andor J. Kiss ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Mort à 97 ans, James Watson incarna à la fois le meilleur et le pire de la science – https://theconversation.com/mort-a-97-ans-james-watson-incarna-a-la-fois-le-meilleur-et-le-pire-de-la-science-269460

Réagir face au danger mortel : témoignages de l’attentat au Bataclan le 13 novembre 2015

Source: The Conversation – in French – By Guillaume Dezecache, Directeur de recherche en sciences de la durabilité, psychologie et sciences comportementales, Institut de recherche pour le développement (IRD)

Comment un groupe réagit-il face à un danger de mort ? L’analyse des témoignages de 32 victimes de l’attentat du Bataclan du 13 novembre 2015 montre que les comportements d’entraide, de réconfort émotionnel ou de soutien physique ont été nombreux. Cette stratégie de défense collective est souvent plus efficace que celle du « chacun pour soi ».


Le soir du 13 novembre 2015, six attentats quasi simultanés avaient ensanglanté les abords du Stade de France à Saint-Denis (Seine-Saint-Denis), des terrasses des dixième et onzième arrondissements de Paris ainsi que l’enceinte, la fosse et les coursives du Bataclan (XIᵉ). Dans cette célèbre salle de concert, trois individus armés de fusils d’assaut font feu, tuent 90 personnes et en blessent plusieurs dizaines.

Dans un contexte marqué par de nombreux attentats en France, en Europe et ailleurs, le CNRS avait souhaité, fin novembre 2015, financer des projets de recherche permettant notamment d’appréhender les répercussions sociétales de ces nombreux événements meurtriers. Avec des collègues psychiatres, neuroscientifiques et psychologues sociaux, nous nous sommes penchés sur la question de ce que deviennent les conduites sociales (la façon dont nous nous comportons avec et face à autrui) lorsque la survie est en jeu.

Cette question est cruciale pour préparer au mieux les communautés aux situations d’urgence, et notamment pour articuler les dispositifs de secours institutionnels avec la tendance des populations à prendre les devants en se protégeant mutuellement dans l’attente ou à la place des secours.

Les comportements « antisociaux » sont rares

Depuis les années 1960 et grâce notamment aux travaux des sociologues du Disaster Research Center de l’Ohio State University (États-Unis), nous savons que la « panique » (définie comme un intense affect négatif, une croyance qu’un danger est présent mais qu’on peut en réchapper, et une motivation à atteindre la sécurité à tout prix) est rare. Évidemment, les personnes qui se sentent mortellement menacées ont peur et fuient. Mais elles le font sans volonté de nuire à autrui. Face au danger mortel, de tels comportements dits « antisociaux » (une action qui a un effet résolument délétère sur autrui) sont ainsi sans doute peu courants. Un survivant à l’attentat de Londres en 2005 raconte notamment « qu’il n’a constaté aucun comportement non coopératif », qu’il a « juste vu certaines personnes tellement absorbées par leurs propres émotions qu’elles étaient davantage concentrées sur elles-mêmes », mais « personne qui ne coopérait pas » ; il n’avait d’ailleurs « constaté aucun mauvais comportement ».

De fait, les comportements prosociaux (entraide, réconfort émotionnel, soutien physique) sont nombreux. Un témoin de la bousculade mortelle lors de la Love Parade de 2010 à Duisbourg (Allemagne) raconte qu’une personne (probablement décédée) l’avait sauvé de la mort en maintenant son bras au-dessus de sa tête, de façon à la protéger des piétinements.

Pourquoi nous montrerions-nous plutôt prosociaux face au danger mortel ? Selon la littérature scientifique, il y aurait trois grandes raisons à cela : d’abord, les normes sociales de l’ordinaire (ne pas marcher sur les autres, respecter leur intimité physique, protéger les personnes blessées, etc.) sont si importantes dans la vie quotidienne qu’elles sont maintenues. De même, la réponse au danger perçu est largement affiliative : face au danger, nous cherchons ce qui est sûr, par le rapprochement voire le contact physique. Enfin, le fait de se trouver avec d’autres face à un élément menaçant crée un sentiment de « destin commun » qui favorise des normes de protection du groupe.

Ces explications ont leur mérite, mais ne nous satisfont pas en ce qu’elles semblent présupposer que les réponses sociales au danger ne dépendent pas également des circonstances matérielles dans lesquelles se trouvent les individus. Serions-nous tout aussi prosociaux si nous avions d’abord l’occasion de nous échapper ? Faut-il se sentir en sécurité physique même minimale avant de vouloir aider autrui ? La prosocialité est-elle la réponse spontanée ou met-elle du temps à émerger ? Nous souhaitions, par un travail empirique, mieux comprendre la dynamique des réponses sociales face au danger mortel.

Une recherche menée avec les rescapés du Bataclan

Entre juin et novembre 2016, nous avons eu l’occasion de rencontrer individuellement trente-deux rescapé·e·s de l’attentat du Bataclan, approché·e·s grâce à nos contacts avec deux associations de victimes des attentats du 13-Novembre.

Après nous être assurés que chacun·e des participant·e·s se sentait en capacité de revivre par le récit sa soirée au Bataclan, nous avons discuté avec elles et eux autour d’un questionnaire portant sur leur position dans l’enceinte du Bataclan, leur perception de la menace, les comportements d’autrui et leurs propres comportements à trois moments clés de l’attentat : le moment où ils ont compris que quelque chose de grave se produisait ; lorsqu’ils prenaient conscience qu’il s’agissait d’une attaque terroriste ; enfin, les suites de l’attentat. Puisque certain·e·s participant·e·s ne se retrouvaient pas dans une telle partition du récit (nous disant notamment qu’elles ou ils n’avaient jamais pris conscience qu’il s’agissait d’un attentat), nous avons très vite abandonné l’idée d’analyser la temporalité des comportements prosociaux – à savoir s’ils émergeaient précocement ou tardivement face au danger.

Pour autant, nous avons pu analyser le rôle des contraintes spatiales et matérielles sur 426 actions sociales (réconfort autrui, pousser quelqu’un, appeler à l’aide, etc.) provenant des 32 participant·e·s (environ 13 épisodes narrés par participant·e), à savoir si elles étaient réalisées lorsqu’il était possible de s’échapper et si les agents de l’action étaient alors protégés par une paroi.

Que nous ont raconté les participant·e·s ? Évidemment, on nous a raconté l’usage de la force et des coudes pour se frayer un chemin jusqu’à la sortie.

Un participant nous a dit :

« On s’est levés, et il y a eu un mouvement de foule à ce moment-là […] on s’est fait un petit peu marcher dessus… »

On nous a aussi raconté des paroles difficiles échangées ainsi que des ordres donnés de manière violente et brutale :

« Y’a un mec (un autre spectateur) qui est arrivé derrière la porte […] et j’entendais : “Si tu n’ouvres pas la porte, je vais te b*, je vais te b*, tu vas le regretter toute ta vie, je vais te… tu vas mourir, je vais te’…” Il était complètement fou. »

Enfin, on nous a parlé de négligence des autres :

« La menace est toujours là […] je lâche la main de mon mari, enfin, le truc hyper égoïste […] je me barre et voilà. Et… euh ben, je marche sur des corps, mais je peux pas faire autrement. […] Les corps, les corps qui sont dans le hall, euh, je je, bah pour moi ils sont morts, mais je vais pas vérifier s’ils sont morts ou pas… »

Cependant, on nous a plus souvent raconté le réconfort donné aux autres :

« Je me retrouve allongée par terre, avec des gens empilés donc, je me retrouve avec un couple en face de moi, avec le mari qui couvre sa femme, et elle [est] terrorisée, et euh… […] je lui parle et je lui dis “Pleure pas… pleure pas… comment tu t’appelles ?” »

Il y eut également des transmissions d’information importante pour la survie d’autrui, en dépit du risque de se faire repérer par un terroriste :

« Quand je me suis retourné, y’avait un des assaillants […] qui était en train d’achever des gens au sol. […] Quand il a levé son arme pour recharger, j’ai demandé… et j’ai dit aux gens “Cassez-vous ! Cassez-vous, il recharge”. Et ma compagne me tenait la main elle était en pleurs, je lui ai dit “Tu te casses !” »

Des personnes témoignent de la collaboration physique :

« Ils tenaient la porte, ils ont arraché le néon, ils se sont occupés de la blessée, lui ont donné de l’eau. »

Notre analyse de la distribution des actions sociales en fonction de la position des participant·e·s suggère que les actions prosociales apparaissent plus fréquemment lorsque les individus ne peuvent pas fuir et bénéficient d’une protection minimale. Les contraintes physiques – murs, recoins, impossibilité de fuite – façonnent un espace d’action où les individus, privés d’alternatives, se tournent les uns vers les autres. La prosocialité devient alors une stratégie de survie collective, lorsque d’autres options ne sont pas ou plus aussi disponibles.

Face au danger, nous ressentons un fort besoin d’affiliation et de contact physique, davantage à l’égard des personnes qui nous sont familières, mais aussi sans doute avec le tout-venant. De fait aussi, des facteurs matériels nous empêchent parfois de nous échapper, nous obligeant à faire avec les autres. Cela tombe bien, la présence d’autres personnes est aussi souvent très rassurante.

La prosocialité face au danger peut donc être envisagée comme une stratégie de défense collective fondée sur un principe plus élémentaire : l’interdépendance. Lorsque nos chances de survie sont liées à celles des autres, agir pour soi revient à agir pour autrui – et inversement.

The Conversation

Guillaume Dezecache a reçu des financements du programme CNRS Attentats-Recherche.

ref. Réagir face au danger mortel : témoignages de l’attentat au Bataclan le 13 novembre 2015 – https://theconversation.com/reagir-face-au-danger-mortel-temoignages-de-lattentat-au-bataclan-le-13-novembre-2015-269000

Enseigner le français langue étrangère : faut-il « gommer » les accents ?

Source: The Conversation – France (in French) – By Grégory Miras, Professeur des Universités en didactique des langues, Université de Lorraine

Apprendre une nouvelle langue, c’est s’initier à de nouvelles sonorités et façons de prononcer. Mais cela suppose-t-il de gommer son accent ? La recherche montre qu’enseigner le français en tant que langue étrangère ne consiste pas forcément à imposer un modèle unique mais s’enrichit de la diversité de ses locuteurs. Explications.


Pourquoi entend-on si peu d’accents dans les médias français ? C’est une question qui a interrogé l’Institut national de l’audiovisuel (INA) à l’occasion des derniers Rendez-vous de l’histoire, organisés à Blois, en octobre 2025. Le mythe d’une langue « standard » s’oppose à la diversité des parlers français dits régionaux, de la francophonie et plus largement à la pratique du français dans le monde.

Ce constat invite à s’interroger sur la manière dont l’enseignement du français dans différents pays prend en compte la variété des accents des apprenants. Quelle place la prononciation tient-elle dans l’apprentissage du français comme langue étrangère ? Comment son approche évolue-t-elle à l’heure de l’IA ?

Exercices de prononciation et « surdité » phonologique

La didactique de la prononciation a particulièrement évolué au cours du temps au regard des technologies disponibles permettant à la phonétique, l’étude des sons, de se perfectionner. Enrica Galazzi, professeure à l’Université catholique du Sacré-Cœur (Italie), souligne que, même si la phonétique expérimentale allait devenir essentielle pour l’étude de la parole, sa naissance à la fin du XIXe siècle a été accueillie avec méfiance par les chercheurs français de l’époque. L’usage d’appareils scientifiques semblait alors mystérieux et suscitait la prudence, alors même que cette approche reposait sur un projet profondément humaniste.

Très tôt, l’étude systématique des sons de la parole dans une vision comparée s’est focalisée sur les difficultés rencontrées par les locuteurs d’une langue qui apprennent le français, par exemple de l’espagnol au français. Ces travaux vont permettre de sensibiliser à ce que le chercheur Nikolaï Troubetzkoy a appelé le « filtre » ou la « surdité » phonologique. Cette dernière fait référence à la difficulté à percevoir et donc à produire de nouveaux sons d’une langue étrangère.

Cependant, cette approche a partiellement été remise en question par des modèles ultérieurs qui démontrent – de manière contre-intuitive – qu’il est parfois plus difficile d’acquérir des sons qui se rapprochent de ceux de sa langue première plutôt que ceux qui sont très différents. Toutefois, la plupart des manuels de prononciation en français langue étrangère continuent de se focaliser sur des exercices de répétition qui postulent que répéter permet d’apprendre.

« Joey Can’t Learn French », (série Friends).

En parallèle, d’autres méthodes ont mis l’accent sur des techniques spécifiques : association des voyelles et de couleurs, modulation des gestes du corps pour aider à l’articulation ou à l’intonation, répétition rapide de texte en même temps qu’un locuteur, etc.

De récentes méta-analyses ont montré que l’enseignement de la prononciation en langue étrangère est globalement efficace, surtout lorsqu’il est sur le temps long, accompagné de retours formatifs individualisés et mené par des enseignants avec un recours raisonné aux technologies numériques.

Toutefois, les études se concentrent encore majoritairement sur des sons isolés (des voyelles ou des consonnes), ne permettant pas de s’assurer d’une capacité à réinvestir ce travail dans des interactions en situation réelle. Produire des phonèmes ne garantit pas la capacité à être compris et à faire vivre le discours.

Être à l’écoute de la diversité des accents

En parallèle de ces techniques de correction, certains chercheurs en appellent à une médiation de la prononciation qui partirait de l’apprenant lui-même et des ses envies plutôt que d’imposer un seul modèle à atteindre, souvent celui imaginaire du « natif ».

Il s’agit de reconnaître que chaque individu qui apprend le français devient un locuteur légitime de cette langue et contribue donc à enrichir l’éventail des accents de la francophonie. Il peut donc déterminer son propre objectif en termes d’accents. Des auteurs comme Jacques Maurais défendent l’idée de la nécessité d’accepter toute la diversité en francophonie pour se décentrer d’une norme standardisée de la France hexagonale.

En effet, loin de compliquer la communication entre francophones (toute personne qui parle français), ces perspectives pourraient élargir les capacités du français à constituer un pont entre de nombreuses langues, et de nombreux individus.




À lire aussi :
« L’envers des mots » : Glottophobie


Dans sa thèse de doctorat, Aleksandra D. Savenkova a montré qu’il était possible d’intégrer des variations régionales du français (Sud-Ouest, Québec, Mauritanie, Guadeloupe, etc.) dans l’enseignement du français langue étrangère en Roumanie, même chez des débutants. Il est important de noter que des chercheurs comme Munro et Derwing ont démontré que tout ce qui contribue à la perception d’un accent dans une langue étrangère n’affecte pas forcément l’intelligibilité (capacité à transcrire ce qui est dit) ou la compréhensibilité (le sentiment d’effort pour comprendre).

Ils défendent l’idée de mieux éduquer tous les locuteurs à percevoir la diversité dans les langues plutôt que de se focaliser sur la seule correction de celui qui parle. Cela peut prendre, par exemple, la forme d’exercices d’écoute dans différentes langues présentant une variété d’accents. Le cerveau apprend ainsi à réduire le poids cognitif de la variation et facilite donc la compréhension.

Quelle place pour l’intelligence artificielle ?

La didactique de la prononciation est impactée par l’intelligence artificielle (IA) au même titre que les autres domaines. La plupart des plateformes d’apprentissage en ligne promettent de travailler sur votre prononciation via des modèles de reconnaissance de la parole offrant un retour formatif en temps réel.

Or ces modèles – majoritairement privés – ne permettent pas de savoir ce qui s’y cache en termes d’algorithme et de données d’entraînement. En effet, très souvent ce sont des modèles de voix à texte – une transcription de l’oral. Le retour formatif est fait à partir d’une comparaison de l’audio ainsi transcrit avec un modèle lui aussi écrit.

Par ailleurs, les IA génératives sont des technologies humaines qui produisent des biais liés à des erreurs reproduisant ainsi certaines discriminations, incluant celles sur l’accent.

Si les outils technologiques ont toujours été un support d’aide à l’individualisation pédagogique, ils ne peuvent constituer le centre de l’enseignement et l’apprentissage. C’est d’autant plus vrai pour la prononciation qui nécessite de co-construire l’intelligibilité et la compréhensibilité entre deux partenaires d’une même danse.

« Les multiples prononciations de la lettre R » (TV5 Monde Info, mars 2024).

Actuellement, les recherches sur le langage tendent à mieux valoriser le fait que les locuteurs plurilingues mélangent les langues qu’ils maitrisent (le translanguaging) et qu’ils disposent d’un éventail de sons qu’ils mobilisent en fonction de leurs interlocuteurs et des contextes (la pluriphonie). Cela va donc dans le sens de faire entrer la diversité des accents dans les classes, les manuels et les applications de nos téléphones.

Penser la diversité des prononciations et des accents, c’est aussi réfléchir aux rapports de pouvoir entre les personnes. Mélanger les langues n’est pas neutre : le français, langue dominante marquée par une histoire coloniale, peut parfois affaiblir des langues minorisées ou menacées. Valoriser la diversité des sons des langues, c’est donc permettre à chacun d’être légitime dans le français qu’il apprend ou d’autres langues qu’il parle.


Cet article est publié en partenariat avec la Délégation générale à la langue française et aux langues de France du ministère de la Culture.

The Conversation

Grégory Miras ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Enseigner le français langue étrangère : faut-il « gommer » les accents ? – https://theconversation.com/enseigner-le-francais-langue-etrangere-faut-il-gommer-les-accents-267483

La selección: adolescencia de chicas, adolescencia de chicos

Source: The Conversation – (in Spanish) – By Eva Catalán, Editora de Educación, The Conversation

Tanatat/Shutterstock

Está claro que no todos damos la misma importancia a nuestro aspecto físico, pero también que es un factor bastante clave de nuestro bienestar mental. Imaginemos lo fundamental que puede llegar a ser verse y sentirse bien para un adolescente, en esa etapa en la que la aceptación de los iguales es tan vital, cuando la opinión de nuestra abuela (que siempre nos encuentra los más guapos) deja de resultar tan convincente.

Y ahora situémonos en el mundo mental y el contexto real de una chica adolescente de hoy. A las inseguridades que conllevan los cambios físicos y emocionales de la pubertad se une un bombardeo mediático y publicitario mucho más agresivo, cuantitativa y cualitativamente, de lo que adultos de otras generaciones hemos experimentado.

No es la misma presión que la que reciben los chicos. Tampoco influye igual en la construcción de la sexualidad de unos y otros el consumo de pornografía en la adolescencia. Estos contenidos, a los que cada vez más se accede mucho antes de tener la capacidad de gestionarlos, enseñan a las jóvenes “que el reconocimiento social depende de su capacidad de exposición, generando una socialización basada en la autosexualización. La pornografía no solo moldea cómo los varones aprenden a desear, sino cómo las adolescentes aprenden a ser deseadas”. Así nos lo explica Mario Ramírez de la UNIR, después de revisar las últimas investigaciones.

Y todo esto tiene un efecto. Las chicas sufren más que los chicos a partir de la pubertad. Duermen peor. Experimentan más ansiedad y depresión, perciben menos control sobre sus cuerpos y sus sentimientos, se juzgan con más dureza y se gustan menos. Tras un estudio con más de 10 000 adolescentes españoles, los investigadores de la universidad de Zaragoza Alejandro Legaz Arrese y Carmen Mayolas-Pi, y Joaquin Reverter Masia, de la Universitat de Lleida, llegan a la siguiente conclusión: “La pubertad femenina llega antes y con cambios hormonales más intensos(…). Pero estos cambios son naturales y ocurren en ambos sexos; no son la causa ni la solución por sí solos. La diferencia está en cómo se viven y qué significan esos cambios en un entorno social lleno de expectativas sobre el cuerpo femenino”.

Hablan de un contexto marcado por presión estética, la exposición continua a redes sociales y las expectativas de “ser perfecta” en múltiples dimensiones. “La pubertad”, explican, “se convierte así en un cruce biológico y cultural particularmente exigente para ellas”. Y además, esta brecha en el bienestar mental no desaparece con los años: las mujeres adultas siguen presentando peores niveles de sueño, mayor ansiedad y depresión, y más insatisfacción corporal que los hombres.

La adolescencia parece el momento más oportuno para establecer las bases de una relación sana con la propia imagen, física y mental. ¿Podemos ayudar los adultos? Sí, si prestamos atención a los mensajes que chicos y chicas reciben, a los influencers que siguen, ofreciendo alternativas positivas, comentando con ellos los mensajes y las imágenes que ofrecen. El deporte es una manera excelente de mejorar el bienestar en la adolescencia, al igual que enseñar a resolver conflictos de manera constructiva e incluir la educación emocional en la escuela: tanto para chicos como para chicas. Hay mucho que se puede hacer desde diferentes ámbitos para que las chicas no estén condenadas a sufrir más simplemente por el hecho de serlo.

The Conversation

ref. La selección: adolescencia de chicas, adolescencia de chicos – https://theconversation.com/la-seleccion-adolescencia-de-chicas-adolescencia-de-chicos-269199

Enseigner le français langue étrangère : un monde aux mille accents

Source: The Conversation – in French – By Grégory Miras, Professeur des Universités en didactique des langues, Université de Lorraine

Apprendre une nouvelle langue, c’est s’initier à de nouvelles sonorités et façons de prononcer. Mais cela suppose-t-il de gommer son accent ? La recherche montre qu’enseigner le français en tant que langue étrangère ne consiste pas forcément à imposer un modèle unique mais s’enrichit de la diversité de ses locuteurs. Explications.


Pourquoi entend-on si peu d’accents dans les médias français ? C’est une question qui a interrogé l’Institut national de l’audiovisuel (INA) à l’occasion des derniers Rendez-vous de l’histoire, organisés à Blois, en octobre 2025. Le mythe d’une langue « standard » s’oppose à la diversité des parlers français dits régionaux, de la francophonie et plus largement à la pratique du français dans le monde.

Ce constat invite à s’interroger sur la manière dont l’enseignement du français dans différents pays prend en compte la variété des accents des apprenants. Quelle place la prononciation tient-elle dans l’apprentissage du français comme langue étrangère ? Comment son approche évolue-t-elle à l’heure de l’IA ?

Exercices de prononciation et « surdité » phonologique

La didactique de la prononciation a particulièrement évolué au cours du temps au regard des technologies disponibles permettant à la phonétique, l’étude des sons, de se perfectionner. Enrica Galazzi, professeure à l’Université catholique du Sacré-Cœur (Italie), souligne que, même si la phonétique expérimentale allait devenir essentielle pour l’étude de la parole, sa naissance à la fin du XIXe siècle a été accueillie avec méfiance par les chercheurs français de l’époque. L’usage d’appareils scientifiques semblait alors mystérieux et suscitait la prudence, alors même que cette approche reposait sur un projet profondément humaniste.

Très tôt, l’étude systématique des sons de la parole dans une vision comparée s’est focalisée sur les difficultés rencontrées par les locuteurs d’une langue qui apprennent le français, par exemple de l’espagnol au français. Ces travaux vont permettre de sensibiliser à ce que le chercheur Nikolaï Troubetzkoy a appelé le « filtre » ou la « surdité » phonologique. Cette dernière fait référence à la difficulté à percevoir et donc à produire de nouveaux sons d’une langue étrangère.

Cependant, cette approche a partiellement été remise en question par des modèles ultérieurs qui démontrent – de manière contre-intuitive – qu’il est parfois plus difficile d’acquérir des sons qui se rapprochent de ceux de sa langue première plutôt que ceux qui sont très différents. Toutefois, la plupart des manuels de prononciation en français langue étrangère continuent de se focaliser sur des exercices de répétition qui postulent que répéter permet d’apprendre.

« Joey Can’t Learn French », (série Friends).

En parallèle, d’autres méthodes ont mis l’accent sur des techniques spécifiques : association des voyelles et de couleurs, modulation des gestes du corps pour aider à l’articulation ou à l’intonation, répétition rapide de texte en même temps qu’un locuteur, etc.

De récentes méta-analyses ont montré que l’enseignement de la prononciation en langue étrangère est globalement efficace, surtout lorsqu’il est sur le temps long, accompagné de retours formatifs individualisés et mené par des enseignants avec un recours raisonné aux technologies numériques.

Toutefois, les études se concentrent encore majoritairement sur des sons isolés (des voyelles ou des consonnes), ne permettant pas de s’assurer d’une capacité à réinvestir ce travail dans des interactions en situation réelle. Produire des phonèmes ne garantit pas la capacité à être compris et à faire vivre le discours.

Être à l’écoute de la diversité des accents

En parallèle de ces techniques de correction, certains chercheurs en appellent à une médiation de la prononciation qui partirait de l’apprenant lui-même et des ses envies plutôt que d’imposer un seul modèle à atteindre, souvent celui imaginaire du « natif ».

Il s’agit de reconnaître que chaque individu qui apprend le français devient un locuteur légitime de cette langue et contribue donc à enrichir l’éventail des accents de la francophonie. Il peut donc déterminer son propre objectif en termes d’accents. Des auteurs comme Jacques Maurais défendent l’idée de la nécessité d’accepter toute la diversité en francophonie pour se décentrer d’une norme standardisée de la France hexagonale.

En effet, loin de compliquer la communication entre francophones (toute personne qui parle français), ces perspectives pourraient élargir les capacités du français à constituer un pont entre de nombreuses langues, et de nombreux individus.




À lire aussi :
« L’envers des mots » : Glottophobie


Dans sa thèse de doctorat, Aleksandra D. Savenkova a montré qu’il était possible d’intégrer des variations régionales du français (Sud-Ouest, Québec, Mauritanie, Guadeloupe, etc.) dans l’enseignement du français langue étrangère en Roumanie, même chez des débutants. Il est important de noter que des chercheurs comme Munro et Derwing ont démontré que tout ce qui contribue à la perception d’un accent dans une langue étrangère n’affecte pas forcément l’intelligibilité (capacité à transcrire ce qui est dit) ou la compréhensibilité (le sentiment d’effort pour comprendre).

Ils défendent l’idée de mieux éduquer tous les locuteurs à percevoir la diversité dans les langues plutôt que de se focaliser sur la seule correction de celui qui parle. Cela peut prendre, par exemple, la forme d’exercices d’écoute dans différentes langues présentant une variété d’accents. Le cerveau apprend ainsi à réduire le poids cognitif de la variation et facilite donc la compréhension.

Quelle place pour l’intelligence artificielle ?

La didactique de la prononciation est impactée par l’intelligence artificielle (IA) au même titre que les autres domaines. La plupart des plateformes d’apprentissage en ligne promettent de travailler sur votre prononciation via des modèles de reconnaissance de la parole offrant un retour formatif en temps réel.

Or ces modèles – majoritairement privés – ne permettent pas de savoir ce qui s’y cache en termes d’algorithme et de données d’entraînement. En effet, très souvent ce sont des modèles de voix à texte – une transcription de l’oral. Le retour formatif est fait à partir d’une comparaison de l’audio ainsi transcrit avec un modèle lui aussi écrit.

Par ailleurs, les IA génératives sont des technologies humaines qui produisent des biais liés à des erreurs reproduisant ainsi certaines discriminations, incluant celles sur l’accent.

Si les outils technologiques ont toujours été un support d’aide à l’individualisation pédagogique, ils ne peuvent constituer le centre de l’enseignement et l’apprentissage. C’est d’autant plus vrai pour la prononciation qui nécessite de co-construire l’intelligibilité et la compréhensibilité entre deux partenaires d’une même danse.

« Les multiples prononciations de la lettre R » (TV5 Monde Info, mars 2024).

Actuellement, les recherches sur le langage tendent à mieux valoriser le fait que les locuteurs plurilingues mélangent les langues qu’ils maitrisent (le translanguaging) et qu’ils disposent d’un éventail de sons qu’ils mobilisent en fonction de leurs interlocuteurs et des contextes (la pluriphonie). Cela va donc dans le sens de faire entrer la diversité des accents dans les classes, les manuels et les applications de nos téléphones.

Penser la diversité des prononciations et des accents, c’est aussi réfléchir aux rapports de pouvoir entre les personnes. Mélanger les langues n’est pas neutre : le français, langue dominante marquée par une histoire coloniale, peut parfois affaiblir des langues minorisées ou menacées. Valoriser la diversité des sons des langues, c’est donc permettre à chacun d’être légitime dans le français qu’il apprend ou d’autres langues qu’il parle.

The Conversation

Grégory Miras ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Enseigner le français langue étrangère : un monde aux mille accents – https://theconversation.com/enseigner-le-francais-langue-etrangere-un-monde-aux-mille-accents-267483

How number systems shape our thinking and what it means for learning, language and culture

Source: The Conversation – Canada – By Jean-Charles Pelland, Postdoctoral Researcher, Department of Psychosocial Science, University of Bergen

Most of us have little trouble working out how many millilitres are in 2.4 litres of water (it’s 2,400). But the same can’t be said when we’re asked how many minutes are in 2.4 hours (it’s 144).

That’s because the Indo-Arabic numerals we often use to represent numbers are base-10, while the system we often use to measure time is base-60.

Expressing time in decimal notation leads to an interaction between these two bases, which can have implications at both the cognitive and cultural level.

Such base interactions and their consequences are among the important topics covered in a new issue of the Philosophical Transactions of the Royal Society journal, which I co-edited with colleagues Andrea Bender (University of Bergen), Mary Walworth (French National Centre for Scientific Research) and Simon J. Greenhill (University of Auckland).

The themed issue brings together work from anthropology, linguistics, philosophy and psychology to examine how humans conceptualize numbers and the numeral systems we build around them.

What are bases, and why do they matter?

Despite using numeral bases on a daily basis, few of us have reflected on the nature of these cognitive tools. As I explain in my contribution to the issue, bases are special numbers in the numeral systems we use.

Because our memories aren’t unlimited, we can’t represent each number with its own unique label. Instead, we use a small set of numerals to build larger ones, like “three hundred forty-two.”

That’s why most numeral systems are structured around a compositional anchor — a special number with a name that serves as a building block to form names for other numbers. Bases are anchors that exploit powers of a special number to form complex numerical expressions.

The English language, for example, uses a decimal system, meaning it uses the powers of 10 to compose numerals. So we compose “three hundred and forty-two” using three times the second power of 10 (100), four times the first power of 10 (10) and two times the zeroth power of 10 (one).

This base structure allows us to represent numbers of all sizes without overloading our cognitive resources.

Languages affect how we count

Despite the abstract nature of numbers, the degree to which numeral systems transparently reflect their bases has very concrete implications — and not just when we tell time. Languages with less transparent rules will take longer to learn, longer to process and can lead to more calculation and dictation errors.

Take French numerals, for example. While languages like French, English and Mandarin all share the same base of 10, most dialects of French have what could politely be called a quirky way of representing numbers in the 70-99 range.




Read more:
How counting by 10 helps children learn about the meaning of numbers


Seventy is soixante-dix in French, meaning “six times 10 plus 10,” while 80 uses 20 as an anchor and becomes quatre-vingts, meaning “four twenties” (or “four twenty,” depending on the context). And 90 is quatre vingt dix, meaning “four twenty ten.”

French is far from being alone in being quirky with its numerals. In German, numbers from 10 to 99 are expressed with the ones before the tens, but numbers over 100 switch back to saying the largest unit first.

Even in English, the fact that “twelve” is said instead of “ten two” hides the decimal rules at play. Such irregularities spread far beyond languages.

How bases shape learning and thought

Base-related oddities are spread out across the globe and have very real implications for how easily children learn what numbers are and how they interact with objects such as blocks, and for how efficiently adults manipulate notations.

For example, one study found that lack of base transparency slows down the acquisition of some numerical abilities in children, while another found similar negative effects on how quickly they learn how to count.

Another study found that children from base-transparent languages were quicker to use large blocks worth 10 units to represent larger numbers (for example, expressing 32 using three large blocs and two small ones) than children with base-related irregularities.

While Mandarin’s perfectly transparent decimal structure can simplify learning, a new research method suggests that children may find it easier to learn what numbers are if they are exposed to systems with compositional anchors that are smaller than 10.

In general, how we represent bases has very concrete cognitive implications, including how easily we can learn number systems and which types of systems will tend to be used in which contexts.

A group of people in white protective suits and head protectors stand in front of a robotic spacecraft
Technicians lower the Mars Climate Orbiter onto its work stand in the Spacecraft Assembly and Encapsulation Facility-2 in 1998.
(NASA)

At a cultural level, base representation influences our ability to collaborate with scientists across disciplines and across cultures. This was starkly illustrated by the infamous Mars Climate Orbiter incident, when a mix-up between metric and imperial units caused a $327 million spacecraft to crash into Mars in 1999.

Why understanding bases matters

Numeracy — the ability to understand and use numbers — is a crucial part of our modern lives. It has implications for our quality of life and for our ability to make informed decisions in domains like health and finances.

For example, being more familiar with numbers will influence how easily we can choose between retirement plans, how we consider trade-offs between side-effects and benefits when choosing between medications or how well we understand how probabilities apply to our investments.

And yet many struggle to learn what numbers are, with millions suffering from math anxiety. Developing better methods for helping people learn how to manipulate numbers can therefore help millions of people improve their lives.

Research on the cognitive and cultural implications of bases collected in the Philosophical Transactions of the Royal Society journal can help make progress towards our understanding of how we think about numbers, marking an important step towards making numbers more accessible to everyone.

The Conversation

Jean-Charles Pelland’s work has been made possible by financial support from the ‘QUANTA: Evolution of Cognitive Tools for Quantification’ project, which has received funding from the European Research Council (ERC) under the European Union’s Horizon 2020 research and innovation programme (grant agreement No 951388).

ref. How number systems shape our thinking and what it means for learning, language and culture – https://theconversation.com/how-number-systems-shape-our-thinking-and-what-it-means-for-learning-language-and-culture-268168

The Running Man is the most fun you’ll have at the cinema this year

Source: The Conversation – UK – By Matt Jacobsen, Senior Lecturer in Film History in the School of Society and Environment, Queen Mary University of London

Nearly four decades after Arnold Schwarzenegger’s muscle-bound version sprinted across screens, The Running Man returns to cinemas. In Edgar Wright’s hands, this adaptation is a sharper, smarter reflection of a culture that still can’t look away from spectacle.

Following The Long Walk, this is the second film adaptation in 2025 of a Stephen King novel originally published under the pseudonym Richard Bachman. Both films are set in a near-future America under a totalitarian regime whose oppressed population glue themselves to violent televised contests.

Schwarzenegger’s dreadful version of The Running Man in 1987 used the title of King’s novel and the concept of deadly game shows in a future America – but the similarities ended there. Director Edgar Wright’s hugely entertaining new adaptation is more faithful to the plot of King’s book, if not the tone.




Read more:
How Stephen King’s Bachman stories are fuelling 2025’s dark cinematic moments


In The Running Man, America is effectively run by television syndicate The Network. They keep the population entertained and obedient through life-and-death TV game shows. Participants in the most popular show play a game of hide-and-seek against a team of armed hunters. The public are promised cash rewards if they report a sighting of the contestant that leads to their capture and killing.

Ben Richards (Glenn Powell) is a blue-collar worker who wants to compete to win money for his sick daughter’s medication. The film follows Richards as he encounters eccentric citizens (with cameos by Michael Cera, William H Macy and an unhinged Sandra Dickinson) who are either keen to help or hinder him as he flees north from New York City along the east coast of America.

Trailer for The Running Man.

The Running Man’s opening scenes vividly show a stratified America, a vast poverty gap dividing the complacent ultra rich from a working class without basic comfort and sustenance. Richards, like many of King’s Bachman book protagonists (and King himself when writing the first draft of this novel in 1972) is driven by a deep-seated rage at the injustices in the American system.

The Network’s oily executive Dan Killian (a typically brilliant Josh Brolin) knows Richards will make great cathartic TV for an impotent, rage-filled population – he’s “the angriest man he’s ever seen”. The overarching theme is that the populace likes it this way and can’t imagine an alternative. The Network’s programming offers a satisfying pound of flesh to their frenzied viewers, whose primal urges are kept at bay by the spectacle of violence. As Killian hammily asserts, for Americans: “Bloodlust is our birthright!”

Tuning into current debates, The Network heavily edits its programmes with use of seamless AI. The film suggests the population is uninterested in whether their entertainment and news are authentic or faked. As clearly doctored footage of Richards is screened, the crowd bays aggressively for his blood. In the film’s final act, there is the suggestion that this fervour could be redirected with hostility towards the hand that feeds.




Read more:
‘AI actor’ Tilly Norwood is dividing Hollywood – but real acting requires humanity


The film’s early depiction of the technology saturated sprawl of New York City is a superbly realised absurdist vision of an oppressive media-run state. It strongly evokes the style and tone of influential weekly British Science Fiction comic 2000 AD (1977-present), with its towering, neon-lit concrete structures. The overpowered and excessively violent police force particularly resembles the futuristic satire of the comic’s most famous character, Judge Dredd.

Wright and frequent collaborator Simon Pegg have expressed their admiration for the comic and its amplified visions of contemporary politics and society. Like 2000 AD, The Running Man is social commentary that delivers its message through aggressive, fast-paced action and explosive violence.

Edgar Wright and genre cinema

This is a great year for King adaptations, and while The Long Walk’s publicity campaign promoted his name heavily, The Running Man features Wright’s name and rising star Powell with no mention of the writer. This choice is likely to avoid misconceptions that this could be a horror film. Rather this is a breathless, hyper-kinetic action film that, like the smaller scale Baby Driver (2017) showcases Wright’s ability to beautifully direct explosive car chases and gun battles.

At the heart of Wright’s films is a love of genre cinema. In his last film, Last Night in Soho (2021), he paid tribute to gothic London films and to the cinematic myth of the swinging 60s. Here he shifts gears and celebrates the uncomplicated pleasures of the high-speed thrills of 1980s and 1990s action films in the vein of Die Hard (1988). It is an interpretation of King’s work that replaces the dour, bitter tragedy of the source material with a satirical, cartoonish absurdism.

This comedic approach works superbly in the film’s first half but can’t quite sustain the more serious critiques of American politics and media culture that the script tries to deliver in the final act.

The Running Man loses tension and nuance in its second half, especially with the late introduction of poorly conceived character Amelia Williams (Emilia Jones). She’s a young woman and member of society’s comfortable class who is embroiled in Richards’ escape plans. Her encounter with Richards leads her unconvincingly to reflect on her privilege and the injustices of her society.

The film wants viewers to imagine that there is potential for the entitled and complacent to reflect and for resistance against totalitarian control to blossom with the right catalyst. This is a deliberate choice to run counter to King’s original nihilistic vision. But it does not ring true in the face of what we’ve been shown about the film’s grim world. The final act messaging feels rote and unearned. Richards delivers a clunky, didactic dialogue that sits at odds with the film’s more interesting questions around the nature of violent spectacle and human nature – and our own enjoyment of the film’s violence.

Taken as a feather-light, fugitive-on-the-run film, this is an extraordinarily entertaining piece of mainstream action cinema. If you overlook messy plotting in the final act, it’s the most fun you are likely to have in the cinema this year. As a more focused and coherent critique of the threat of totalitarianism and media dominance, however, The Long Walk has the distinct edge over this film. Those looking for a more revealing social commentary may be left disappointed.


Looking for something good? Cut through the noise with a carefully curated selection of the latest releases, live events and exhibitions, straight to your inbox every fortnight, on Fridays. Sign up here.


The Conversation

Matt Jacobsen does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. The Running Man is the most fun you’ll have at the cinema this year – https://theconversation.com/the-running-man-is-the-most-fun-youll-have-at-the-cinema-this-year-269314

How China’s latest aircraft carrier will challenge western maritime dominance

Source: The Conversation – UK – By Basil Germond, Professor of International Security, School of Global Affairs, Lancaster University

China’s new Fujian aircraft carrier, unveiled recently by president Xi Jinping with great fanfare, has been hailed by Chinese state media as a major milestone in the country’s naval modernisation programme and a key development in the counry’s aspirations to become a maritime power.

In the context of Beijing’s sustained seapower strategy, the long-term implications for the security and leadership of the global maritime order are certainly significant and enduring.

The launch means China now has three aircraft carriers in service and is capable of maintaining a continuous carrier presence at sea. And there have been reports of satellite images which suggest construction has already begun on China’s fourth carrier.

This will increase Beijing’s ability to preventatively deploy warships to faraway locations it considers important. It gives China the potential to control the airspace wherever their battle group is operating, as well as the ability to project air power in more distant theatres of conflict.

The new carrier also means China can launch heavier and specialist aircraft, for example with airborne early-warning systems and fighter jets equipped with greater fuel and payload capacity.

This expands Beijing’s operational options. It elevates China into a select group of four nations (US, UK, France, China) capable of independently operating a carrier battle group with the capacity to generate substantial strategic advantages from the sea.

Among this group, however, the US remains far ahead. It enjoys a significant lead in terms of carrier fleet size, technological sophistication, operational experience, global reach and sustained carrier strike capabilities.

Aircraft carriers are obviously key naval assets in confrontations between comparable nations in open ocean environments – known as “blue-water engagements”. But they are also important in controlling the maritime battlespace – particularly through air superiority – and in projecting power ashore.

The Fujian does not dramatically shift the global balance of power in China’s favour. But its enhanced land-attack capabilities nonetheless expand Beijing’s operational toolkit, allowing a more flexible and assertive naval strategy.

A strong symbolic power

Since the second world war, aircraft carriers have replaced battleships as the capital ships, the principal and most powerful warships in any country’s navy that are designed to form the core of a fleet and deliver decisive combat power.

Such capital ships carry strong symbolic weight. They signal a state’s ability to mobilise the resources required to procure, sustain and operate such complex platforms, as well as its intent to function as an ocean-going naval power.

In this light, China’s aircraft carrier programme has considerable symbolic resonance. It reflects both Beijing’s intrinsic naval capabilities and its extrinsic power – that is, its increasingly elevated status within the international pecking order.

China’s comprehensive seapower strategy

China’s carrier programme needs to be understood as part of Beijing’s wider seapower strategy. Unlike other authoritarian states such as Russia or Iran, the power base of China’s regime is much more dependent on international trade and so on freedom of navigation. Consequently, China does not seek to disrupt the global maritime order. It wants to lead it and initiate a new cycle of global dominance.

To that end, Beijing is not only expanding its naval power but, perhaps more significantly, its civilian seapower. This includes a robust shipbuilding industry, a large and growing merchant marine registered as Chinese. And it has made substantial direct investments in critical western infrastructure, such as ports.




Read more:
Maritime power shapes the world order – and is undergoing a sea change


Many of these investments have been made via private Chinese firms which maintain close ties with the state. This gives Beijing additional leverage to exercise civilian seapower to further its political interests. For example, it can use Chinese shipping companies to circumvent western sanctions on Russia, or interfere in European ports owned by Chinese firms.

In the South China Sea, Beijing aggressively uses its fishing fleet, backed by its coastguard and navy to achieve a degree of control over contested areas it considers to have economic or strategic importance.

So the commissioning of the Fujian is more than a technical milestone for the Chinese navy – it is a signal of intent. It reinforces China’s growing capacity and willingness to shape the maritime domain. As part of a broader seapower strategy, it reflects Beijing’s ambition not just to contribute to, but to lead, the global maritime order.

The Conversation

Basil Germond does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. How China’s latest aircraft carrier will challenge western maritime dominance – https://theconversation.com/how-chinas-latest-aircraft-carrier-will-challenge-western-maritime-dominance-269406

Por qué perdimos el hábito de dormir en dos turnos y cómo modificó nuestra percepción del tiempo

Source: The Conversation – (in Spanish) – By Darren Rhodes, Lecturer in Cognitive Psychology and Environmental Temporal Cognition Lab Director, Keele University, Keele University

Albert Joseph Moore/Shutterstock

El sueño continuo es un hábito moderno, no un fruto natural de nuestra evolución. Y eso ayuda a explicar por qué muchos de nosotros seguimos despertándonos a las 3 de la madrugada y nos preguntamos si algo va mal. Puede ser útil saber que se trata de una experiencia profundamente humana.

Durante la mayor parte de la historia de la humanidad, dormir ocho horas seguidas no era lo habitual. En cambio, la gente solía descansar en dos turnos cada noche, a menudo denominados “primer sueño” y “segundo sueño”. Cada uno de estos periodos duraba varias horas, separadas por un intervalo de vigilia de una hora o más en mitad de la noche. Los registros históricos de Europa, África, Asia y otros lugares describen cómo, al caer la noche, las familias se acostaban temprano y luego se despertaban alrededor de la medianoche durante un rato antes de volver a dormir hasta el amanecer.

Dividir la noche en dos partes probablemente cambió la percepción del tiempo. El intervalo de silencio daba a las noches un punto medio claro, lo que puede hacer que las largas tardes de invierno parezcan menos continuas y sean más fáciles de soportar.

El intervalo de medianoche no era tiempo muerto, sino tiempo consciente, que determinaba cómo se experimentan las largas noches. Algunas personas se levantaban para ocuparse de tareas como avivar el fuego o cuidar de los animales. Otras se quedaban en la cama para rezar o reflexionar sobre los sueños que acababan de tener. Las cartas y los diarios de la época preindustrial mencionan que la gente aprovechaba las horas de tranquilidad para leer, escribir o incluso socializar tranquilamente con la familia o los vecinos. Y muchas parejas aprovechaban este despertar de medianoche para tener relaciones íntimas.

La literatura de épocas tan lejanas como la de Homero y Virgilio contiene referencias a una “hora que pone fin al primer sueño”, lo cual indica lo habitual que era la noche de dos turnos.

Cómo perdimos el “segundo sueño”

La desaparición del segundo sueño se produjo a lo largo de los dos últimos siglos debido a profundos cambios sociales. La iluminación artificial es uno de ellos. En los siglos XVIII y XIX, las lámparas de aceite, la iluminación de gas y, finalmente, la luz eléctrica comenzaron a convertir la noche en un tiempo de vigilia más aprovechable. En lugar de acostarse poco después de la puesta del sol, la gente empezó a quedarse despierta hasta más tarde bajo la luz de las lámparas.

Desde el punto de vista biológico, la luz brillante por la noche también modificó nuestros relojes internos (nuestro ritmo circadiano) e hizo que nuestros cuerpos fueran menos propensos a despertarse después de unas pocas horas de sueño. El momento en que se expone a la luz es importante. La luz normal de una habitación antes de acostarse suprime y retrasa la melatonina, lo que a su vez retarda la llegada del sueño.

La Revolución Industrial transformó no solo la forma de trabajar de las personas, sino también la forma de dormir. Los horarios de las fábricas fomentaban un único bloque de descanso. A principios del siglo XX, la idea de ocho horas ininterrumpidas había sustituido al ritmo centenario de dos periodos de sueño.

En estudios del sueño de varias semanas de duración que simulan las largas noches de invierno en la oscuridad y prescinden de los relojes o la luz del atardecer, las personas que participan suelen acabar adoptando dos periodos de sueño con un intervalo de vigilia tranquilo. Un estudio de 2017 sobre una comunidad agrícola de Madagascar sin electricidad descubrió que la mayoría de las personas seguían durmiendo en dos segmentos, levantándose alrededor de la medianoche.

Mujer durmiendo en un sofá con un vestido de seda.
¿Soñando con un segundo sueño?
John Singer Sargent/Shutterstock

Inviernos largos y oscuros

La luz regula nuestro reloj interno e influye en la rapidez con la que percibimos el paso del tiempo. Cuando esas señales se desvanecen, como en invierno o bajo la luz artificial, nos desorientamos.

En invierno, la luz matutina más tardía y más débil dificulta la sincronización circadiana. Esa luz de la mañana es especialmente importante para regular los ritmos circadianos porque contiene una mayor cantidad de luz azul, que es la longitud de onda más eficaz para estimular la producción de cortisol por parte del cuerpo y suprimir la melatonina.

En laboratorios de aislamiento temporal e investigaciones en cuevas, las personas estudiadas han vivido durante semanas sin luz natural ni relojes, o incluso en oscuridad constante. Pues bien, muchos individuos contaron mal el paso de los días, lo que demuestra lo fácil que es perder la noción del tiempo sin señales luminosas.

Distorsiones similares se producen en el invierno polar, donde la ausencia de amaneceres y atardeceres puede hacer que el tiempo parezca suspendido. Las personas nativas de latitudes altas y los residentes de larga duración con rutinas estables suelen adaptarse mejor a los ciclos de luz polares que los visitantes de corta duración, pero esto varía según la población y el contexto. Los residentes se adaptan mejor cuando su comunidad comparte un horario diario regular, por ejemplo. Y un estudio de 1993 sobre la población islandesa y sus descendientes que emigraron a Canadá reveló que estas personas presentaban índices inusualmente bajos de trastorno afectivo estacional en invierno. El estudio sugirió que la genética podría ayudar a esta población a lidiar con el largo invierno ártico.

Las investigaciones del Laboratorio de Cognición Temporal Ambiental de la Universidad de Keele (Inglaterra), del que soy director, muestran lo fuerte que es este vínculo entre la luz, el estado de ánimo y la percepción del tiempo. En una realidad virtual de 360 grados, los participantes vieron seis clips con escenas del Reino Unido y Suecia de unos dos minutos de duración. Estos voluntarios consideraron que las grabaciones duraban más en las escenas nocturnas o con poca luz que en las escenas diurnas o con más luz. El efecto fue más pronunciado en los participantes que declararon tener un estado de ánimo bajo.

Una nueva perspectiva sobre el insomnio

Los médicos especialistas en sueño señalan que los despertares breves son normales y suelen producirse en las transiciones entre fases, incluida la fase cercana al sueño REM, que se asocia con sueños vívidos. Lo importante es cómo respondemos.

La percepción de la duración en el cerebro es elástica: la ansiedad, el aburrimiento o la escasez de luz tienden a alargar el tiempo, mientras que el compromiso y la calma pueden comprimirlo. Sin ese intermedio en el que antiguamente nos levantábamos y hacíamos algo o charlábamos con nuestra pareja, despertarse a las 3 de la madrugada a menudo hace que el tiempo discurra con lentitud. En este contexto, la atención se centra en el paso del tiempo y los minutos que pasan pueden parecer más largos.

La terapia cognitivo-conductual para el insomnio (TCC-I) aconseja a las personas que se levanten de la cama después de unos 20 minutos tras despertarse, realicen una actividad tranquila con luz tenue, como leer, y luego vuelvan cuando tengan sueño.

Los expertos en sueño también sugieren tapar el reloj y dejar de medir el tiempo cuando se tiene dificultad para dormir. Aceptar con calma el estado de vigilia, junto con la comprensión de cómo nuestra mente percibe el tiempo, puede ser la forma más segura de volver a descansar.

The Conversation

Darren Rhodes no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Por qué perdimos el hábito de dormir en dos turnos y cómo modificó nuestra percepción del tiempo – https://theconversation.com/por-que-perdimos-el-habito-de-dormir-en-dos-turnos-y-como-modifico-nuestra-percepcion-del-tiempo-269513