Paris grapples with the remembrance of terrorist attacks, from 1974 to November 13, 2015

Source: The Conversation – France in French (3) – By Sarah Gensburger, Directrice de recherche au CNRS, Centre de Sociologie des Organisations Sciences Po Paris, Sciences Po

Since 1974, almost 150 terrorist attacks have either taken place in or departed from Paris. The sinister list includes the attacks against the synagogue on Copernic Street (1980), the Jo Goldenberg restaurant on Rosiers Street in the Marais district (1982), the Tati shop in the rue de Rennes high street (1986), as well as two bomb explosions on the RER B commuter train at Saint-Michel (1995) and Port-Royal (1996) stations. However, only a few attacks continue to be recollected in urban memory. Why have so many fallen into oblivion?

On November 13, 10 years after the Islamist terrorist attacks in Paris and its northern suburb of Saint-Denis, the French capital’s mayor will open a garden in tribute to the victims, located on Saint-Gervais Square at the back of city hall. Well-tended and original, the new memorial site comes after the plaques that were placed in front of the targeted locations of the attacks in November 2016. Some of the names of the victims have already been honoured in other spaces. This is the case, for example, of Lola Saline and Ariane Theiller, who used to work in the publishing industry and whose names adorn a plaque in the interior hall of the National Book Centre in the 7th arrondissement.

The attacks of November 13 have profoundly transformed the Parisian public space. While commemorative plaques are now more numerous and almost systematic, they also shed light on the memory lapses surrounding most of the terrorist attacks that have taken place in the capital since 1974.

Collective memory and oblivion

In Paris, there are now more than 15 plaques commemorating the various attacks that have taken place in the city and paying tribute to their victims. Spread across seven arrondissements, they commemorate the attacks of October 3, 1980 against the synagogue on rue Copernic (16th arrondissement); August 9, 1982 against the kosher restaurant Jo Goldenberg on rue des Rosiers (4th arrondissement); September 17, 1986 against the Tati store on rue de Rennes (6th arrondissement); and the two explosions that targeted the RER B commuter train on July 25, 1995 at Saint-Michel station (5th arrondissement) and December 3, 1996 at Port-Royal station (5th arrondissement).

The rest of these plaques refer to attacks in January, 2015 (11th and 12th arrondissements), and, above all, November 2015 (10th and 11th arrondissements), with the exception of those commemorating the attack that killed Xavier Jugelé on April 20, 2017 on the Champs-Élysées (8th arrondissement), and the attack that killed Ronan Gosnet on May 12, 2018 on rue Marsollier (2nd arrondissement).

Commemorative plaques for the November 13, 2015 attacks.
Fourni par l’auteur

While demonstrating a desire for commemoration, these examples of urban memory also highlight the real memory gap surrounding most of the terrorist attacks that have occurred in Paris in the contemporary period.

How the 1974 attack on the Drugstore Publicis paved the way for modern-day terrorism

The French state has designated 1974 as the starting point of contemporary terrorism. Indeed, this year has been retained as the start of the period that the permanent exhibition of the future Terrorism Memorial Museum aims to cover. And the “victims of terrorism”, who stand apart in France through their right to be awarded a special medal, are those affected by attacks that have occurred since 1974. This choice refers to the attack on the Drugstore Publicis Saint-Germain-des-Prés, which took place in Paris (on the Boulevard Saint-Germain, 6th arrondissement) on September 15 of that year. This chronological milestone is, of course, open to debate, as is any temporal division. However, it is taken here as a given.

Since 1974, historian Jenny Raflik-Grenouilleau has recorded nearly 150 attacks in Paris or originating in Paris in her preliminary research for the Terrorism Memorial Museum. Of this total, 130 attacks resulted in at least one injury and just over 80 resulted in the death of at least one victim. Depending on where one chooses to draw the line between what is worthy of commemoration – from deaths to property damage alone – there are more than 80 attacks and up to nearly 150 in Paris that could potentially have given rise to a permanent memorial in the public space.

The 17 existing plaques therefore concern only a very small minority of the terrorist acts that have taken place in the city. In this respect, the situation in Paris mirrors that described by Kenneth Foote in his pioneering study: plaques are both sources of memory and producers of oblivion. For example, the attack on the Drugstore Publicis Saint-Germain-des-Prés in 1974 left two people dead and thirty-four wounded. Although it is considered the starting point of the contemporary wave of terrorism, there is no plaque to remind passers-by, whether they are Parisians or tourists, many of whom pass through this busy crossroads in the Saint-Germain-des-Prés neighbourhood every day.

Selective narratives and invisible perpetrators

What do the few plaques in Paris that commemorate attacks there have in common?

Firstly, it appears that it is the deadliest attacks that are commemorated, foremost among which, of course, are those of November 13, 2015. All attacks that have claimed at least four lives are commemorated in public spaces. There is only one exception: the bomb attack by a revolutionary brigade in June 1976, which targeted a temporary employment agency to denounce job insecurity. The building’s concierge and her daughter, as well as two residents, were killed.

Only two attacks that resulted in a single death are commemorated: these are the most recent ones, which occurred in 2017 and 2018, and whose victims were named above.

Furthermore, the existing plaques only refer to attacks carried out by Islamist organisations (Armed Islamic Group, al-Qaida, Daesh, etc.) on the one hand, or attacks claimed in the name of defending the Palestinian cause on the other. In this respect, the existing plaques primarily reflect the infinitely more criminal nature of the attacks carried out by these groups, as well as their majority presence. Nevertheless, they consequently only show two sides of terrorism.

Diverse forms of terrorism, but a partial memory

And yet, there has been no shortage of variety since 1974. For example, memory of extreme left-wing terrorism and, to a lesser extent, of extreme right-wing terrorism is nowhere to be found in the public space – notwithstanding their importance in the 1970s and 1980s and the many injuries and deaths left in their wake.

Take, for example, the 1983 attack carried out by far-right group Action Directe at the restaurant Le Grand Véfour, which left Françoise Rudetzki seriously injured as she was having dinner. The event inspired Rudetzski to found SOS Attentats, an organisation that enabled public authorities to compensate terrorism victims. However, even today, there is not a word about the attack on the walls of the building in question in the 1st arrondissement.

The memory gap is all the more puzzling given that the justifications put forward for these invisible attacks have not disappeared. Between July 5 and 21, 1986, Action Directe carried out three successive bomb attacks. The attack on July 9 targeted the police anti-gang squad, killing one officer and injuring 22 others. In their claim, the perpetrators mentioned that they had sought to “avenge” Loïc Lefèvre, a young man killed by a member of the security forces in Paris four days earlier. In October 1988, this time it was Catholic fundamentalists who attacked the Saint-Michel cinema, which was screening Martin Scorsese’s film The Last Temptation of Christ, which they considered blasphemous. The attack injured 14 people. These two examples show how some of the attacks that have remained invisible in the public sphere nonetheless resonate with themes that are still very much present in contemporary public debate, from “police violence” to “freedom of expression”.

Finally, no plaque mentions the motivations of the perpetrators of the attack. Whether they were installed in 1989 or 2018, Paris’s plaques either pay tribute to “the victims of terrorism” or commemorate an “act of terrorism”, without further detail. Although, here too, there is an exception to this rule, which in turn allows us to reflect implicitly through a borderline case. The plaques commemorating the 1982 attack on the kosher restaurant Jo Goldenberg and the 2015 attack on the Hyper Casher supermarket on avenue de la Porte de Vincennes are the only ones to add an adjective, in this case “antisemitic”, to the mention of the attack, while the plaque hung on rue Copernic, which was targeted by a bomb in 1980, refers to “the heinous attack perpetrated against this synagogue”, thus specifying the reason for the attack. To date, only antisemitic attacks are named as such.

Commemorative plaque for the attack on the Jo Goldenberg restaurant on rue des Rosiers.
Fourni par l’auteur

Memorial practices in Parisian public spaces

Only a tiny fraction of the terrorist acts committed in Paris since 1974 are now marked for passers-by’s attention, producing, thereby, memory as well as oblivion. The question of how these reminders of the past are used in Parisian public spaces remains open.

While the issue is not specific to the commemoration of terrorist attacks, it is particularly acute in the case of plaques referring to them, since they refer to an event – “terrorism” – which, unlike a war marked by a beginning and an end, is an ongoing process that is difficult to consider as having ended. In 1996, when the public transport company, the RATP, was asked by the families of the victims of the RER B attack to have their names included on a plaque, it initially expressed its hesitations. It said it feared dangerous crowds on the narrow metro platform. These fears proved unfounded. Very few passengers actually look up to see the plaque.

In this respect, the new November 13, 2015 memorial garden creates a form of commemoration that leaves open the possibility of new ways of remembering, combining the uses of an urban park with participation in the preservation of memory.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Sarah Gensburger ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Paris grapples with the remembrance of terrorist attacks, from 1974 to November 13, 2015 – https://theconversation.com/paris-grapples-with-the-remembrance-of-terrorist-attacks-from-1974-to-november-13-2015-269237

Sarkozy interdit de contact avec Darmanin : l’indépendance de la justice renforcée ?

Source: The Conversation – France in French (3) – By Vincent Sizaire, Maître de conférence associé, membre du centre de droit pénal et de criminologie, Université Paris Nanterre

Nicolas Sarkozy a été mis en liberté sous contrôle judiciaire, lundi 10 novembre, par la Cour d’appel de Paris. Il n’a plus le droit de quitter le territoire, et ne doit pas entrer en contact avec les personnes liées à l’enquête ni avec le ministre de la justice Gérald Darmanin. Cette interdiction est liée à la visite que lui a rendu le ministre en prison, interprétée comme une pression exercée sur les magistrats. Le contrôle judiciaire de l’ancien président de la République va donc dans le sens d’une réaffirmation du principe d’indépendance des magistrats vis-à-vis du pouvoir exécutif. Au-delà de l’affaire Sarkozy, quelles sont les capacités d’influence du pouvoir exécutif sur la justice ?


Le 10 novembre 2025, la Cour d’appel de Paris a fait droit à la demande de mise en liberté de Nicolas Sarkozy. Contrairement à ce qu’on pourrait penser, cette décision n’est nullement le résultat des pressions diverses qui pèsent sur l’institution judiciaire depuis le prononcé de la condamnation de l’ancien chef de l’État. D’une part, la Cour d’appel a estimé que les conditions de la détention provisoire n’étaient pas réunies, aucun élément objectif ne laissant craindre que l’ancien chef de l’État soit tenté de prendre la fuite avant le jugement définitif de son affaire. D’autre part, et surtout, la Cour a assorti la mise en liberté d’un contrôle judiciaire strict, interdisant en particulier à M. Sarkozy tout contact avec le garde des sceaux Gérald Darmanin et avec son cabinet, considérant que de tels liens lui permettraient d’influer sur le cours de la procédure.

Ce faisant, la juridiction vient non seulement réaffirmer l’indépendance du pouvoir judiciaire, mais aussi apporter une réponse à la polémique soulevée par la visite du garde des sceaux, agissant à titre officiel, à l’ancien locataire de l’Élysée incarcéré, le 27 octobre. Cette démarche avait en effet suscité de nombreuses critiques au sein du monde judiciaire, à l’image des propos du procureur général de la Cour de cassation dénonçant un risque « d’obstacle à la sérénité et d’atteinte à l’indépendance des magistrats » ou, plus encore, de la plainte pour prise illégale d’intérêt déposée à l’encontre du ministre par un collectif d’avocats.

Le ministre de la justice peut-il rendre visite à un détenu ?

Au-delà de la polémique médiatique, c’est d’abord l’état de la relation entre le pouvoir exécutif et le pouvoir judiciaire – sensément séparés et indépendants – que cette visite interroge. Certes, les textes actuels permettent bien au ministre, au moins indirectement, d’y procéder. Le Code pénitentiaire reconnaît en effet à certains services de l’administration pénitentiaire le droit de procéder à des visites de contrôle du bon fonctionnement des établissements carcéraux. Dans la mesure où le ministre de la justice est à la tête de cette administration, rien ne lui interdit donc, en théorie, de procéder lui-même à de telles visites. Par ailleurs, toute personne détenue « peut demander à être entendue par les magistrats et fonctionnaires chargés de l’inspection ou de la visite de l’établissement, hors la présence de tout membre du personnel de l’établissement pénitentiaire ». Ainsi, le cadre juridique aujourd’hui applicable au contrôle des prisons n’interdit pas au garde des sceaux de visiter lui-même un établissement et de s’entretenir, à cette occasion, avec les personnes incarcérées.

Mais c’est justement un tel cadre qui, du point de vue de la séparation des pouvoirs, mérite d’être questionné. Faut-il le rappeler, c’est toujours en vertu d’une décision de l’autorité judiciaire qu’un individu peut être mis en prison, qu’il s’agisse d’un mandat de dépôt prononcé avant l’audience ou de la mise à exécution d’un jugement de condamnation définitif. C’est également l’autorité judiciaire, en la personne du juge d’application des peines, qui est seule compétente pour décider des mesures d’aménagement des peines d’emprisonnement (réduction de peines, semi-liberté, libération conditionnelle…). Et si la direction de l’administration pénitentiaire peut prendre seule certaines décisions (placement à l’isolement, changement d’établissement…), c’est sous le contrôle du juge administratif, non du ministre.

C’est pourquoi la visite dans un établissement carcéral du garde des sceaux, lequel – à la différence des fonctionnaires placés sous son autorité – est membre du pouvoir exécutif, est toujours porteuse d’un risque d’immixtion ou de pression, au moins indirecte, sur le pouvoir judiciaire. Tel est notamment le cas quand cette visite a pour seul objet d’accorder, sinon un soutien, du moins une attention particulière à un détenu parmi d’autres, quand les juges ont pour mission de traiter chacun d’entre eux sur un strict pied d’égalité.

À cet égard, il est intéressant de relever que les autres autorités habilitées – aux côtés des magistrats – à se rendre en prison ont, quant à elles, pour seule attribution de veiller au respect des droits fondamentaux de l’ensemble des personnes emprisonnées, à l’image du défenseur des droits et du contrôleur général des lieux de privation de liberté ou, encore, du comité de prévention de la torture du conseil de l’Europe.

Les leviers du pouvoir exécutif sur le pouvoir judiciaire

La polémique suscitée par la visite faite à l’ancien chef de l’État a ainsi le mérite de mettre en lumière à quel point le pouvoir exécutif dispose, encore aujourd’hui, de nombreux leviers pour intervenir plus ou moins directement dans le champ d’intervention du pouvoir judiciaire. Ainsi, ce qui est vrai pour l’exécution des peines l’est, plus encore, pour l’exercice de la police judiciaire, c’est-à-dire l’ensemble des actes ayant pour objet la constatation et l’élucidation des infractions pénales. Alors que l’ensemble des agents et officiers de police judiciaire sont en principe placés sous l’autorité exclusive du procureur de la République ou – lorsqu’il est saisi – du juge d’instruction, ils demeurent en pratique sous l’autorité du ministre de l’intérieur, seul compétent pour décider de leur avancement, de leurs mutations et, plus largement, de leurs conditions générales de travail. C’est en particulier le ministère qui décide, seul, de l’affectation des agents à tel ou tel service d’enquête, du nombre d’enquêteurs affectés à tel service et des moyens matériels qui leur sont alloués. En d’autres termes, les magistrats chargés des procédures pénales n’ont aucune prise sur les conditions concrètes dans lesquelles leurs instructions peuvent – ou non – être exécutées par les services de police.

Mais le pouvoir exécutif dispose d’autres leviers lui permettant d’exercer encore plus directement son influence sur le cours de la justice. Les magistrats du parquet sont ainsi placés sous la stricte subordination hiérarchique du garde des sceaux, seul compétent pour décider de leur affectation, de leur avancement, et des éventuelles sanctions disciplinaires prises à leur encontre.

Une situation de dépendance institutionnelle qui explique que, depuis plus de quinze ans, la Cour européenne des droits de l’homme considère que les procureurs français ne peuvent être regardés comme une autorité judiciaire au sens du droit européen. Si les magistrats du siège bénéficient quant à eux de réelles garanties d’indépendance, ils ne sont pas à l’abri de toute pression. Certes, ils sont inamovibles et le Conseil supérieur de la magistrature a le dernier mot sur les décisions disciplinaires et les mutations les concernant. Toutefois, si les juges ne peuvent être mutés contre leur gré, c’est le ministère qui reste compétent pour faire droit à leurs demandes de mutation, le Conseil n’intervenant que pour valider (ou non) les propositions faites par les services administratifs – à l’exception des présidents de tribunal et des magistrats à la Cour de cassation, qui sont directement nommés par le Conseil supérieur de la magistrature.

Des juridictions dépendantes du ministère pour leur budget

Par ailleurs, alors que le conseil d’État négocie et administre en toute indépendance le budget qui lui est confié pour la gestion des juridictions de l’ordre administratif, les juridictions judiciaires ne bénéficient quant à elles d’aucune autonomie budgétaire. Là encore, c’est le ministère de la justice qui, seul, négocie le budget alloué aux juridictions et prend les principales décisions quant à son utilisation, notamment en matière d’affectation des magistrats et des greffiers à telle ou telle juridiction et en matière immobilière. Le pouvoir exécutif dispose ainsi d’une influence considérable sur l’activité concrète des tribunaux et, en particulier, sur leur capacité à s’acquitter de leurs missions dans de bonnes conditions.

Au final, c’est peu dire qu’il existe de significatives marges de progression si l’on veut soustraire pleinement le pouvoir judiciaire à l’influence du pouvoir exécutif. Une émancipation qui, faut-il le rappeler, n’aurait pas pour fonction d’octroyer des privilèges aux magistrats, mais tendrait uniquement à assurer à tout justiciable – et, plus largement, à tout citoyen – la garantie d’une justice véritablement indépendante, à même d’assurer à chaque personne le plein respect de ses droits, quelle que soit sa situation sociale.

The Conversation

Vincent Sizaire ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Sarkozy interdit de contact avec Darmanin : l’indépendance de la justice renforcée ? – https://theconversation.com/sarkozy-interdit-de-contact-avec-darmanin-lindependance-de-la-justice-renforcee-269620

Pourquoi le cochon est-il devenu l’animal de référence pour les xénogreffes ?

Source: The Conversation – in French – By Coralie Thieulin, Enseignant chercheur en physique à l’ECE, docteure en biophysique, ECE Paris

Greffer l’organe d’un animal à un être humain n’est plus de la science-fiction. Ces dernières années, plusieurs patients ont reçu des cœurs, des reins ou même la peau d’un porc génétiquement modifié. Mais pourquoi choisir le cochon, plutôt qu’un autre animal ?


Le terme xénogreffe désigne la transplantation d’un tissu ou d’un organe provenant d’une espèce différente de celle du receveur, par exemple, d’un porc vers un humain. Elle se distingue de l’allogreffe, entre deux humains, et de l’autogreffe, utilisant les propres tissus du patient. L’objectif est de remédier à la pénurie chronique d’organes humains disponibles pour la transplantation, tout en garantissant la compatibilité et la sécurité du greffon.

En France, au 1er janvier 2025, 22 585 patients étaient inscrits sur la liste nationale d’attente pour une greffe, dont 11 666 en liste active. En 2024, 852 patients sont décédés en attendant une greffe.

La peau de porc, une pionnière des xénogreffes

C’est d’abord la peau qui a ouvert la voie. Depuis les années 1960, la peau de porc est utilisée comme pansement biologique temporaire pour les grands brûlés. Sa structure et son épaisseur sont étonnamment proches de celles de la peau humaine, ce qui permet une bonne adhérence et une protection efficace contre les infections et la déshydratation.

Contrairement à d’autres animaux (vache, mouton, lapin), la peau de porc présente un réseau de collagène (protéine structurelle présente dans le tissu conjonctif et responsable de la résistance et élasticité des tissus) et une densité cellulaire similaires à ceux de l’homme, limitant les réactions de rejet immédiat. Ces greffes ne sont toutefois que temporaires : le système immunitaire finit par les détruire. Néanmoins, elles offrent une protection temporaire avant une autogreffe ou une greffe humaine.

Une proximité biologique frappante

Au-delà de la peau, le cochon partage de nombreux points communs physiologiques avec l’être humain : taille des organes, rythme cardiaque, pression artérielle, composition du plasma, voire métabolisme. Le cœur d’un cochon adulte, par exemple, a des dimensions proches de celui d’un humain, ce qui en fait un candidat naturel pour les greffes.

D’autres espèces, comme les primates non humains, présentent une proximité génétique encore plus importante, mais leur utilisation soulève des questions éthiques et sanitaires beaucoup plus lourdes, sans parler de leur reproduction lente et de leur statut protégé.

Un animal compatible avec la médecine moderne

Au contraire, les cochons sont faciles à élever, atteignent rapidement leur taille adulte, et leurs organes peuvent être obtenus dans des conditions sanitaires contrôlées. Les lignées génétiquement modifiées, comme celles développées par la société américaine Revivicor, sont désormais dépourvues de certains gènes responsables du rejet hyper aigu, ce qui rend leurs organes plus « compatibles » avec le système immunitaire humain.

Les chercheurs ont aussi supprimé des virus « dormants » (qui ne s’activent pas) présents dans le génome du porc, réduisant le risque de transmission d’agents infectieux à l’Homme.

Du pansement biologique à la greffe d’organe

Après la peau, les chercheurs se tournent vers les reins, le cœur, le foie ou encore le pancréas. En 2024, des patients ont survécu plusieurs semaines avec un cœur de porc génétiquement modifié, une prouesse longtemps jugée impossible. Des essais ont également été menés avec des reins de porc, notamment chez des patients en état de mort cérébrale ou, plus récemment, chez un patient vivant. En revanche, les recherches sur le foie et le pancréas en sont encore au stade préclinique, menées uniquement chez l’animal. Ces avancées ne sont pas seulement symboliques : la pénurie mondiale de donneurs humains pousse la médecine à explorer des alternatives réalistes.

Cependant, le défi immunologique reste immense – même génétiquement modifiés, les organes porcins peuvent être rejetés par le système immunitaire humain – tout comme les enjeux éthiques liés notamment au bien-être animal

Le cochon s’est imposé non par hasard, mais parce qu’il représente un compromis entre proximité biologique, faisabilité et acceptabilité sociale. Si les essais confirment la sécurité et la durabilité des greffes, le porc pourrait bientôt devenir un allié inattendu mais essentiel de la médecine humaine.

The Conversation

Coralie Thieulin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Pourquoi le cochon est-il devenu l’animal de référence pour les xénogreffes ? – https://theconversation.com/pourquoi-le-cochon-est-il-devenu-lanimal-de-reference-pour-les-xenogreffes-267370

Ces champignons qui brillent dans la nuit : la bioluminescence fongique décryptée

Source: The Conversation – in French – By Romain Garrouste, Chercheur à l’Institut de systématique, évolution, biodiversité (ISYEB), Muséum national d’histoire naturelle (MNHN)

Mycena cf chlorophos est un champignon totalement lumineux : chapeau, lamelles et mycelieum. Parc National de Cuc Phuong, Vietnam Romain Garrouste, Fourni par l’auteur

Alors que s’ouvre l’exposition En voie d’illumination : Lumières de la Nature au Jardin des Plantes de Paris, plongez dans le monde fascinant des champignons bioluminescents.


Il y a des rencontres qui illuminent littéralement vos nuits. Un de ces derniers soirs d’automne, au détour d’un jardin du sud de la France et à la faveur du changement d’heure, j’ai remarqué une étrange lueur verte, douce, presque irréelle, au pied d’une vieille souche. Non, je ne rêvais pas : c’était bien un champignon qui luisait dans le noir. Il ne s’agissait pas d’un gadget tombé d’un sac d’enfant ou d’un reflet de la Lune, mais bien d’un organisme vivant, émettant sa propre lumière. Bienvenue dans le monde fascinant des champignons bioluminescents.

Une lumière naturelle… et vivante

La bioluminescence est la production naturelle de lumière par un être vivant, sans illumination préalable et en cela diffère de la fluorescence ou de la phosphorescence qui ont besoin d’une source de lumière. On la connaît chez certains poissons abyssaux, des requins, des crevettes, du plancton ou chez les lucioles.

Mais les champignons, eux aussi, ont ce « superpouvoir ». Plus de 90 espèces sont aujourd’hui connues dans le monde, surtout en zones tropicales humidescmais certaines, comme l’Omphalotus illudens, sont présentes chez nous, en Europe, et même dans les jardins du sud de la France où l’on trouve aussi Omphalotus olearius, souvent inféodé à l’Olivier mais pas uniquement. L’entomologiste Jean Henri Fabre la connaissait bien et cela a constitué sa première publication en 1856 sur les champignons.

Une chimie simple, une magie complexe

La lumière fongique ne produit pas chaleur, elle est constante et le plus souvent verte. Elle provient d’une réaction chimique impliquant une molécule appelée luciférine, de l’oxygène, et une enzyme, la luciférase. Cette réaction produit de la lumière dans le vert (vers 520 nm). Le mécanisme, bien que désormais mieux compris, reste fascinant : une lumière sans électricité, sans feu, et pourtant visible à l’œil nu, dans le silence du sous-bois. La bioluminescence est donc une forme de chimioluminescence, puisqu’elle dépend d’une réaction chimique.

Chez les champignons, cette lumière n’est pas toujours visible partout : parfois seules les lamelles, d’autres fois le mycélium (le réseau souterrain de filaments) sont luminescents, ou les deux. Beaucoup d’espèces sont par contre fluorescentes aux UV. Comme nous l’avons dit la fluorescence diffère de la bioluminescence par la nécessité d’avoir une source lumineuse d’excitation qui va provoquer une luminescence dans une longueur d’onde différente. Ce sont des phénomènes très différents même s’ils sont souvent associés chez les organismes.

Pourquoi un champignon brille-t-il ?

Pourquoi un organisme qui ne bouge pas et n’a pas d’yeux se donnerait-il la peine d’émettre de la lumière ? Plusieurs hypothèses ont été proposées comme attirer des insectes nocturnes pour disperser les spores, à l’image d’une enseigne clignotante dans la forêt. Une autre hypothèse est un effet secondaire métabolique, sans rôle adaptatif (ça fait moins rêver, mais cela reste peu probable). La dissuasion de prédateurs (insectes, petits rongeurs) grâce à cette signature visuelle inhabituelle a été également étudiée.

Une étude publiée dans Current Biology a montré que des insectes sont effectivement attirés par la lumière de certains champignons, renforçant l’idée d’une stratégie de dissémination.

Le champignon Omphalotus illudens.
I. G. Safonov (IGSafonov) at Mushroom Observer, CC BY

L’espèce que vous avez peut-être déjà trouvé dans votre jardin, Omphalotus illudens (ou encore O. olearius dans le sud de la France) est remarquable à plus d’un titre. D’abord, parce qu’elle est toxique : ne vous fiez pas à sa belle couleur orangée et son odeur suave de sous-bois. Ensuite, parce qu’elle émet une lumière verte depuis ses lames, bien visible dans le noir complet. Ce phénomène est observable à l’œil nu si l’on s’éloigne des sources lumineuses parasites.

Ce champignon est de plus en plus étudié pour comprendre les variations génétiques liées à la bioluminescence entre espèces fongiques, et rechercher des molécules d’intérêt dans leur métabolisme, comme l’illudine, l’une des molécules à la base de leur toxicité, intéressante pour ses propriétés anticancéreuse.

Lumière sur la nature

Photographier ces champignons est un défi passionnant : il faut une longue pose, souvent au-delà de 30 secondes, un environnement très sombre, et parfois, un peu de chance. Mais l’image qui en résulte est souvent saisissante : un halo lumineux semblant flotter dans l’obscurité, témoin de la vitalité nocturne des sous-bois.

J’ai relevé le défi une fois de plus, comme la toute première fois dans une forêt du Vietnam sur une autre espèce ou récemment sur des litières en Guyane. Le défi est en fait double, détecter le phénomène et le photographier ensuite comme un témoignage fugace, un caractère discret qui disparaît à la mort de l’organisme.

Pour étudier ces phénomènes notre unité de recherche s’est dotée d’une plate-forme originale d’imagerie et d’analyse des phénomènes lumineux dans le vivant mais aussi pour explorer la géodiversité, par exemple dans les fossiles (pour la fluorescence) : le laboratoire de photonique 2D/3D de la biodiversité. Entre le vivant lors d’expéditions ou de missions de terrains pas forcément lointaine et les collections du MNHN, le registre de l’exploration de ces phénomènes est immense et nous l’avons juste commencé.

Bioluminescence et écologie fongique

Outre son effet esthétique, la bioluminescence pourrait aussi être un marqueur de l’activité biologique : elle reflète le métabolisme actif de certains champignons en croissance, leur interaction avec le bois, la température, l’humidité. Certains chercheurs envisagent même d’utiliser ces espèces comme indicateurs écologiques.

Alors la prochaine fois que vous sortez de nuit, observez les bords des sentiers, les vieux troncs en décomposition… car parfois, la nature éclaire son propre théâtre. Et si un champignon vous fait de l’œil fluorescent, n’ayez pas peur : il est plus poétique que dangereux… sauf si vous le cuisinez. Mais n’oubliez pas d’éteindre votre lampe et d’aller loin des sources de pollution lumineuses.

The Conversation

Romain Garrouste a reçu des financements de : MNHN. CNRS, Sorbonne Université, IPEV, LABEx BCDiv, LABEx CEBA, MTE, MRAE, National Geographic, Institut de la Transition Environnementale et Institut de l’Océan (Sorbonne Univ.)

ref. Ces champignons qui brillent dans la nuit : la bioluminescence fongique décryptée – https://theconversation.com/ces-champignons-qui-brillent-dans-la-nuit-la-bioluminescence-fongique-decryptee-268937

Mort à 97 ans, James Watson incarna à la fois le meilleur et le pire de la science

Source: The Conversation – in French – By Andor J. Kiss, Director of the Center for Bioinformatics and Functional Genomics, Miami University

James Dewey Watson est mort à l’âge de 97 ans, a annoncé le 7 novembre 2025 le Cold Spring Harbor Laborator. Co-découvreur de la structure de l’ADN et prix Nobel en 1962, a marqué à jamais la biologie moderne. Mais son héritage scientifique est indissociable des controverses qui ont entouré sa carrière et sa personnalité.


James Dewey Watson était un biologiste moléculaire américain, surtout connu pour avoir remporté conjointement le prix Nobel de physiologie ou de médecine en 1962 grâce à la découverte de la structure de l’ADN et de son rôle dans le transfert d’informations au sein des organismes vivants. L’importance de cette découverte ne saurait être exagérée. Elle a permis de comprendre le fonctionnement des gènes et donné naissance aux domaines de la biologie moléculaire et de la phylogénétique évolutive. Elle a inspiré et influencé ma carrière de scientifique ainsi que mes activités de directeur d’un centre de recherche en bioinformatique et en génomique fonctionnelle.

Personnalité provocatrice et controversée, il transforma la manière de transmettre la science. Il reste le premier lauréat du prix Nobel à offrir au grand public un aperçu étonnamment personnel et brut du monde impitoyable et compétitif de la recherche scientifique. James D. Watson est décédé le 6 novembre 2025 à l’âge de 97 ans.

La quête du gène selon Watson

Watson entra à l’université de Chicago à l’âge de 15 ans, avec l’intention initiale de devenir ornithologue. Après avoir lu le recueil de conférences publiques d’Erwin Schrödinger sur la chimie et la physique du fonctionnement cellulaire, intitulé What is Life ?, il se passionna pour la question de la composition des gènes – le plus grand mystère de la biologie à l’époque.

Les chromosomes, un mélange de protéines et d’ADN, étaient déjà identifiés comme les molécules de l’hérédité. Mais la plupart des scientifiques pensaient alors que les protéines, composées de vingt éléments constitutifs différents, étaient les meilleures candidates, contrairement à l’ADN qui n’en possédait que quatre. Lorsque l’expérience d’Avery-MacLeod-McCarty, en 1944, démontra que l’ADN était bien la molécule porteuse de l’hérédité, l’attention se concentra immédiatement sur la compréhension de cette substance.

Watson obtint son doctorat en zoologie à l’université de l’Indiana en 1950, puis passa une année à Copenhague pour y étudier les virus. En 1951, il rencontra le biophysicien Maurice Wilkins lors d’une conférence. Au cours de l’exposé de Wilkins sur la structure moléculaire de l’ADN, Watson découvrit les premières cristallographie par rayons X de l’ADN. Cette révélation le poussa à rejoindre Wilkins au laboratoire Cavendish de l’université de Cambridge pour tenter d’en percer le secret de la structure. C’est là que Watson fit la connaissance du physicien devenu biologiste Francis Crick, avec qui il noua immédiatement une profonde affinité scientifique.

Peu après, Watson et Crick publièrent leurs travaux fondateurs sur la structure de l’ADN dans la revue Nature en 1953. Deux autres articles parurent dans le même numéro, l’un coécrit par Wilkins, l’autre par la chimiste et cristallographe aux rayons X Rosalind Franklin.

C’est Franklin qui réalisa les cristallographies par rayons X de l’ADN contenant les données cruciales pour résoudre la structure de la molécule. Son travail, combiné à celui des chercheurs du laboratoire Cavendish, conduisit à l’attribution du prix Nobel de physiologie ou de médecine de 1962 à Watson, Crick et Wilkins.

Le prix et la controverse

Bien qu’ils aient eu connaissance des précieuses images de diffraction des rayons X de Franklin, diffusées dans un rapport interne du laboratoire Cavendish, ni Watson ni Crick ne mentionnèrent ses contributions dans leur célèbre article publié en 1953 dans Nature. En 1968, Watson publia un livre relatant les événements entourant la découverte de la structure de l’ADN tels qu’il les avait vécus, dans lequel il minimise le rôle de Franklin et la désigne avec des termes sexistes. Dans l’épilogue, il reconnaît finalement ses contributions, mais sans lui accorder le plein mérite de sa participation à la découverte.




À lire aussi :
Rosalind Franklin : la scientifique derrière la découverte de la structure de l’ADN, bien trop longtemps invisibilisée


Certains historiens ont soutenu que l’une des raisons invoquées pour ne pas reconnaître officiellement le rôle de Franklin tenait au fait que son travail n’avait pas encore été publié et qu’il était considéré comme une « connaissance partagée » au sein du laboratoire Cavendish, où les chercheurs travaillant sur la structure de l’ADN échangeaient couramment leurs données. Cependant, l’appropriation des résultats de Franklin et leur intégration dans une publication officielle sans autorisation ni mention de son nom sont aujourd’hui largement reconnues comme un exemple emblématique de comportement déplorable, tant du point de vue de l’éthique scientifique que dans la manière dont les femmes étaient traitées par leurs collègues masculins dans les milieux professionnels.

Au cours des décennies qui ont suivi l’attribution du prix Nobel à Watson, Crick et Wilkins, certains ont érigé Rosalind Franklin en icône féministe. On ignore si elle aurait approuvé cette image, car il est difficile de savoir ce qu’elle aurait ressenti face à sa mise à l’écart du Nobel et face au portrait peu flatteur que Watson lui consacra dans son récit des événements. Ce qui est désormais incontestable, c’est que sa contribution fut décisive et essentielle, et qu’elle est aujourd’hui largement reconnue comme une collaboratrice à part entière dans la découverte de la structure de l’ADN.

Une prise de conscience collective

Comment les attitudes et les comportements envers les jeunes collègues et les collaborateurs ont-ils évolué depuis ce prix Nobel controversé ? Dans de nombreux cas, les universités, les institutions de recherche, les organismes financeurs et les revues à comité de lecture ont mis en place des politiques formelles visant à identifier et reconnaître de manière transparente le travail et les contributions de tous les chercheurs impliqués dans un projet. Bien que ces politiques ne fonctionnent pas toujours parfaitement, le milieu scientifique a évolué pour fonctionner de manière plus inclusive. Cette transformation s’explique sans doute par la prise de conscience qu’un individu seul ne peut que rarement s’attaquer à des problèmes scientifiques complexes et les résoudre. Et lorsqu’un conflit survient, il existe désormais davantage de mécanismes officiels permettant de chercher réparation ou médiation.

Des cadres de résolution des différends existent dans les directives de publication des revues scientifiques, ainsi que dans celles des associations professionnelles et des institutions. Il existe également une revue intitulée Accountability in Research, « consacrée à l’examen et à l’analyse critique des pratiques et des systèmes visant à promouvoir l’intégrité dans la conduite de la recherche ». Les recommandations destinées aux chercheurs, aux institutions et aux organismes de financement sur la manière de structurer l’attribution des auteurs et la responsabilité scientifique constituent un progrès significatif en matière d’équité, de procédures éthiques et de normes de recherche.

J’ai moi-même connu des expériences à la fois positives et négatives au cours de ma carrière : j’ai parfois été inclus comme coauteur dès mes années de licence, mais aussi écarté de projets de financement ou retiré d’une publication à mon insu, alors que mes contributions étaient conservées. Il est important de noter que la plupart de ces expériences négatives se sont produites au début de ma carrière, sans doute parce que certains collaborateurs plus âgés pensaient pouvoir agir ainsi en toute impunité.

Il est également probable que ces expériences négatives se produisent moins souvent aujourd’hui, car je formule désormais clairement mes attentes en matière de co-signature dès le début d’une collaboration. Je suis mieux préparé et j’ai désormais la possibilité de refuser certaines collaborations.

Je soupçonne que cette évolution reflète ce que d’autres ont vécu, et qu’elle est très probablement amplifiée pour les personnes issues de groupes sous-représentés dans les sciences. Malheureusement, les comportements inappropriés, y compris le harcèlement sexuel, persistent encore dans ce milieu. La communauté scientifique a encore beaucoup de chemin à parcourir – tout comme la société dans son ensemble.

Après avoir co-découvert la structure de l’ADN, James Watson poursuivit ses recherches sur les virus à l’université Harvard et prit la direction du Cold Spring Harbor Laboratory, qu’il contribua à revitaliser et à développer considérablement, tant sur le plan de ses infrastructures que de son personnel et de sa réputation internationale. Lorsque le Projet génome humain était encore à ses débuts, Watson s’imposa comme un choix évident pour en assurer la direction et en accélérer le développement, avant de se retirer après un long conflit portant sur la possibilité de breveter le génome humain et les gènes eux-mêmes – Watson s’y opposait fermement.

En dépit du bien immense qu’il a accompli au cours de sa vie, l’héritage de Watson est entaché par sa longue série de propos publics racistes et sexistes, ainsi que par ses dénigrements répétés, tant personnels que professionnels, à l’encontre de Rosalind Franklin. Il est également regrettable que lui et Crick aient choisi de ne pas reconnaître pleinement tous ceux qui ont contribué à leur grande découverte aux moments décisifs.

The Conversation

Andor J. Kiss ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Mort à 97 ans, James Watson incarna à la fois le meilleur et le pire de la science – https://theconversation.com/mort-a-97-ans-james-watson-incarna-a-la-fois-le-meilleur-et-le-pire-de-la-science-269460

Des accélérateurs de particules pour comprendre la cuisson parfaite des pâtes

Source: The Conversation – in French – By Andrea Scotti, Senior lecturer of Physical Chemistry, Lund University

Et si la physique des particules pouvait améliorer la cuisson des pâtes ? En scrutant leur structure à l’échelle atomique, des chercheurs ont compris comment le gluten maintient la fermeté des spaghettis et pourquoi les versions sans gluten restent si fragiles.


Que vous préfériez vos spaghettis al dente ou délicieusement fondants, il n’est pas toujours facile d’atteindre la perfection à la maison. Beaucoup d’entre nous ont déjà vu leurs pâtes se transformer en une bouillie beige – surtout lorsqu’il s’agit d’alternatives sans gluten.

Alors, quelle quantité d’eau et de sel faut-il vraiment utiliser, et combien de temps faut-il cuire les pâtes pour obtenir un résultat optimal ? Et surtout, comment adapter sa méthode de cuisson quand on utilise des pâtes sans gluten ? Une étude récente que mes collègues et moi avons menée, publiée dans Food Hydrocolloids, apporte des réponses en dévoilant la physique du processus de cuisson.

En nous tournant vers le Diamond Light Source, le synchrotron national du Royaume-Uni (un accélérateur de particules circulaire), nous avons étudié la diffusion des rayons X sur des pâtes afin d’en révéler la structure interne. Nous nous sommes ensuite rendus à Isis et à l’Institut Laue-Langevin, deux centres de recherche situés respectivement au Royaume-Uni et en France, pour analyser à l’aide de neutrons (qui, avec les protons, composent le noyau atomique) la microstructure des spaghettis classiques et sans gluten soumis à différentes conditions de cuisson.

L’étude montre comment la structure cachée des pâtes se modifie au cours de la cuisson, et pourquoi les versions sans gluten se comportent de manière si différente.

Ce dispositif nous a permis d’examiner la structure de l’amidon et du gluten dans les spaghettis à des échelles très fines, allant de plusieurs dizaines de fois le rayon d’un atome à plusieurs milliers de fois. Nous avons ainsi pu comparer les transformations qui s’opèrent dans les pâtes classiques et sans gluten selon diverses conditions de cuisson – par exemple lorsqu’elles sont trop cuites ou cuites sans sel.

Nos expériences nous ont permis de « voir » séparément les différents composants des pâtes. En mélangeant de l’eau normale et de « l’eau lourde » (qui contient un isotope appelé deutérium), nous pouvions rendre soit le gluten, soit l’amidon invisible au faisceau de neutrons. De cette manière, nous avons pu isoler efficacement chaque structure à tour de rôle et comprendre le rôle respectif de l’amidon et du gluten pendant la cuisson.

Le rôle du gluten et du sel

Notre étude montre que, dans les pâtes classiques, le gluten agit comme une armature solide qui maintient les granules d’amidon en place même pendant l’ébullition, ce qui confère aux pâtes leur fermeté et leur lenteur de digestion. Dans les pâtes sans gluten, en revanche, les granules d’amidon gonflent et s’effondrent plus facilement – ce qui explique leur texture pâteuse et leur dégradation plus rapide lorsque ce type de pâtes est cuit dans des conditions non optimales.

Nous avons également étudié l’effet du sel contenu dans l’eau de cuisson sur la structure des pâtes. Nous avons constaté que le sel ne se contente pas d’améliorer leur goût : il influence fortement la microstructure des spaghettis. Lorsque des pâtes classiques sont bouillies dans une eau salée, le gluten conserve sa structure, et les granules d’amidon sont moins altérés par le processus de cuisson.

Alors, quelle quantité de sel faut-il ajouter pour préserver la structure microscopique des pâtes ? Notre étude a révélé que l’idéal est de sept grammes de sel par litre d’eau, avec une quantité d’eau plus importante nécessaire pour de plus grandes portions de pâtes. Le temps de cuisson idéal est de dix minutes pour les pâtes classiques et onze minutes pour les pâtes sans gluten. À l’inverse, lorsque la concentration en sel était doublée, l’ordre interne se dégradait plus rapidement et la structure des granules d’amidon était significativement altérée par la cuisson.

Spaghetti is taken out of the pan with tongs
La quantité idéale est de 7 grammes de sel par litre d’eau.
Kalashnikov Dmitrii/Shutterstock

Pour les pâtes sans gluten, les conclusions étaient encore différentes en raison de l’absence de la protection offerte par le gluten. Même de petites quantités de sel ne pouvaient compenser cette absence. Les composés artificiels à base d’amidons transformés, utilisés par les fabricants pour remplacer le gluten, se dégradaient rapidement. L’exemple le plus extrême de cette dégradation est survenu lorsque les spaghettis sans gluten étaient cuits trop longtemps – par exemple treize minutes au lieu de onze – et dans une eau très salée.

La principale conclusion est donc que les pâtes sans gluten sont structurellement plus fragiles et moins tolérantes à une cuisson prolongée ou à une mauvaise proportion de sel.

Améliorer les alternatives sans gluten

Comprendre la structure des pâtes à des échelles aussi infimes, invisibles même au microscope, aidera à concevoir de meilleurs aliments sans gluten. L’objectif est notamment de créer des alternatives sans gluten plus résistantes aux mauvaises conditions de cuisson et dont la texture se rapproche davantage de celle des spaghettis classiques.

Les pâtes de blé classiques ont un faible indice glycémique, car le gluten ralentit la dégradation des granules d’amidon lors de la digestion. Les pâtes sans gluten, fabriquées à partir de farines de riz et de maïs, manquent souvent de cette structure, ce qui entraîne une libération plus rapide des sucres. Grâce à la diffusion des neutrons, les scientifiques de l’alimentation peuvent désormais identifier quels ingrédients et quelles conditions de cuisson reproduisent le mieux la structure du gluten.

C’est aussi une illustration de la manière dont des outils expérimentaux de pointe, principalement utilisés pour la recherche fondamentale, transforment aujourd’hui la recherche alimentaire. La diffusion des neutrons a joué un rôle essentiel dans la compréhension des matériaux magnétiques, des batteries, des polymères et des protéines. Elle permet désormais aussi d’expliquer le comportement de nos aliments du quotidien à l’échelle microscopique.

The Conversation

Andrea Scotti reçoit des financements de la Fondation Knut et Alice Wallenberg ainsi que du Conseil suédois de la recherche.

ref. Des accélérateurs de particules pour comprendre la cuisson parfaite des pâtes – https://theconversation.com/des-accelerateurs-de-particules-pour-comprendre-la-cuisson-parfaite-des-pates-269202

Réagir face au danger mortel : témoignages de l’attentat au Bataclan le 13 novembre 2015

Source: The Conversation – in French – By Guillaume Dezecache, Directeur de recherche en sciences de la durabilité, psychologie et sciences comportementales, Institut de recherche pour le développement (IRD)

Comment un groupe réagit-il face à un danger de mort ? L’analyse des témoignages de 32 victimes de l’attentat du Bataclan du 13 novembre 2015 montre que les comportements d’entraide, de réconfort émotionnel ou de soutien physique ont été nombreux. Cette stratégie de défense collective est souvent plus efficace que celle du « chacun pour soi ».


Le soir du 13 novembre 2015, six attentats quasi simultanés avaient ensanglanté les abords du Stade de France à Saint-Denis (Seine-Saint-Denis), des terrasses des dixième et onzième arrondissements de Paris ainsi que l’enceinte, la fosse et les coursives du Bataclan (XIᵉ). Dans cette célèbre salle de concert, trois individus armés de fusils d’assaut font feu, tuent 90 personnes et en blessent plusieurs dizaines.

Dans un contexte marqué par de nombreux attentats en France, en Europe et ailleurs, le CNRS avait souhaité, fin novembre 2015, financer des projets de recherche permettant notamment d’appréhender les répercussions sociétales de ces nombreux événements meurtriers. Avec des collègues psychiatres, neuroscientifiques et psychologues sociaux, nous nous sommes penchés sur la question de ce que deviennent les conduites sociales (la façon dont nous nous comportons avec et face à autrui) lorsque la survie est en jeu.

Cette question est cruciale pour préparer au mieux les communautés aux situations d’urgence, et notamment pour articuler les dispositifs de secours institutionnels avec la tendance des populations à prendre les devants en se protégeant mutuellement dans l’attente ou à la place des secours.

Les comportements « antisociaux » sont rares

Depuis les années 1960 et grâce notamment aux travaux des sociologues du Disaster Research Center de l’Ohio State University (États-Unis), nous savons que la « panique » (définie comme un intense affect négatif, une croyance qu’un danger est présent mais qu’on peut en réchapper, et une motivation à atteindre la sécurité à tout prix) est rare. Évidemment, les personnes qui se sentent mortellement menacées ont peur et fuient. Mais elles le font sans volonté de nuire à autrui. Face au danger mortel, de tels comportements dits « antisociaux » (une action qui a un effet résolument délétère sur autrui) sont ainsi sans doute peu courants. Un survivant à l’attentat de Londres en 2005 raconte notamment « qu’il n’a constaté aucun comportement non coopératif », qu’il a « juste vu certaines personnes tellement absorbées par leurs propres émotions qu’elles étaient davantage concentrées sur elles-mêmes », mais « personne qui ne coopérait pas » ; il n’avait d’ailleurs « constaté aucun mauvais comportement ».

De fait, les comportements prosociaux (entraide, réconfort émotionnel, soutien physique) sont nombreux. Un témoin de la bousculade mortelle lors de la Love Parade de 2010 à Duisbourg (Allemagne) raconte qu’une personne (probablement décédée) l’avait sauvé de la mort en maintenant son bras au-dessus de sa tête, de façon à la protéger des piétinements.

Pourquoi nous montrerions-nous plutôt prosociaux face au danger mortel ? Selon la littérature scientifique, il y aurait trois grandes raisons à cela : d’abord, les normes sociales de l’ordinaire (ne pas marcher sur les autres, respecter leur intimité physique, protéger les personnes blessées, etc.) sont si importantes dans la vie quotidienne qu’elles sont maintenues. De même, la réponse au danger perçu est largement affiliative : face au danger, nous cherchons ce qui est sûr, par le rapprochement voire le contact physique. Enfin, le fait de se trouver avec d’autres face à un élément menaçant crée un sentiment de « destin commun » qui favorise des normes de protection du groupe.

Ces explications ont leur mérite, mais ne nous satisfont pas en ce qu’elles semblent présupposer que les réponses sociales au danger ne dépendent pas également des circonstances matérielles dans lesquelles se trouvent les individus. Serions-nous tout aussi prosociaux si nous avions d’abord l’occasion de nous échapper ? Faut-il se sentir en sécurité physique même minimale avant de vouloir aider autrui ? La prosocialité est-elle la réponse spontanée ou met-elle du temps à émerger ? Nous souhaitions, par un travail empirique, mieux comprendre la dynamique des réponses sociales face au danger mortel.

Une recherche menée avec les rescapés du Bataclan

Entre juin et novembre 2016, nous avons eu l’occasion de rencontrer individuellement trente-deux rescapé·e·s de l’attentat du Bataclan, approché·e·s grâce à nos contacts avec deux associations de victimes des attentats du 13-Novembre.

Après nous être assurés que chacun·e des participant·e·s se sentait en capacité de revivre par le récit sa soirée au Bataclan, nous avons discuté avec elles et eux autour d’un questionnaire portant sur leur position dans l’enceinte du Bataclan, leur perception de la menace, les comportements d’autrui et leurs propres comportements à trois moments clés de l’attentat : le moment où ils ont compris que quelque chose de grave se produisait ; lorsqu’ils prenaient conscience qu’il s’agissait d’une attaque terroriste ; enfin, les suites de l’attentat. Puisque certain·e·s participant·e·s ne se retrouvaient pas dans une telle partition du récit (nous disant notamment qu’elles ou ils n’avaient jamais pris conscience qu’il s’agissait d’un attentat), nous avons très vite abandonné l’idée d’analyser la temporalité des comportements prosociaux – à savoir s’ils émergeaient précocement ou tardivement face au danger.

Pour autant, nous avons pu analyser le rôle des contraintes spatiales et matérielles sur 426 actions sociales (réconfort autrui, pousser quelqu’un, appeler à l’aide, etc.) provenant des 32 participant·e·s (environ 13 épisodes narrés par participant·e), à savoir si elles étaient réalisées lorsqu’il était possible de s’échapper et si les agents de l’action étaient alors protégés par une paroi.

Que nous ont raconté les participant·e·s ? Évidemment, on nous a raconté l’usage de la force et des coudes pour se frayer un chemin jusqu’à la sortie.

Un participant nous a dit :

« On s’est levés, et il y a eu un mouvement de foule à ce moment-là […] on s’est fait un petit peu marcher dessus… »

On nous a aussi raconté des paroles difficiles échangées ainsi que des ordres donnés de manière violente et brutale :

« Y’a un mec (un autre spectateur) qui est arrivé derrière la porte […] et j’entendais : “Si tu n’ouvres pas la porte, je vais te b*, je vais te b*, tu vas le regretter toute ta vie, je vais te… tu vas mourir, je vais te’…” Il était complètement fou. »

Enfin, on nous a parlé de négligence des autres :

« La menace est toujours là […] je lâche la main de mon mari, enfin, le truc hyper égoïste […] je me barre et voilà. Et… euh ben, je marche sur des corps, mais je peux pas faire autrement. […] Les corps, les corps qui sont dans le hall, euh, je je, bah pour moi ils sont morts, mais je vais pas vérifier s’ils sont morts ou pas… »

Cependant, on nous a plus souvent raconté le réconfort donné aux autres :

« Je me retrouve allongée par terre, avec des gens empilés donc, je me retrouve avec un couple en face de moi, avec le mari qui couvre sa femme, et elle [est] terrorisée, et euh… […] je lui parle et je lui dis “Pleure pas… pleure pas… comment tu t’appelles ?” »

Il y eut également des transmissions d’information importante pour la survie d’autrui, en dépit du risque de se faire repérer par un terroriste :

« Quand je me suis retourné, y’avait un des assaillants […] qui était en train d’achever des gens au sol. […] Quand il a levé son arme pour recharger, j’ai demandé… et j’ai dit aux gens “Cassez-vous ! Cassez-vous, il recharge”. Et ma compagne me tenait la main elle était en pleurs, je lui ai dit “Tu te casses !” »

Des personnes témoignent de la collaboration physique :

« Ils tenaient la porte, ils ont arraché le néon, ils se sont occupés de la blessée, lui ont donné de l’eau. »

Notre analyse de la distribution des actions sociales en fonction de la position des participant·e·s suggère que les actions prosociales apparaissent plus fréquemment lorsque les individus ne peuvent pas fuir et bénéficient d’une protection minimale. Les contraintes physiques – murs, recoins, impossibilité de fuite – façonnent un espace d’action où les individus, privés d’alternatives, se tournent les uns vers les autres. La prosocialité devient alors une stratégie de survie collective, lorsque d’autres options ne sont pas ou plus aussi disponibles.

Face au danger, nous ressentons un fort besoin d’affiliation et de contact physique, davantage à l’égard des personnes qui nous sont familières, mais aussi sans doute avec le tout-venant. De fait aussi, des facteurs matériels nous empêchent parfois de nous échapper, nous obligeant à faire avec les autres. Cela tombe bien, la présence d’autres personnes est aussi souvent très rassurante.

La prosocialité face au danger peut donc être envisagée comme une stratégie de défense collective fondée sur un principe plus élémentaire : l’interdépendance. Lorsque nos chances de survie sont liées à celles des autres, agir pour soi revient à agir pour autrui – et inversement.

The Conversation

Guillaume Dezecache a reçu des financements du programme CNRS Attentats-Recherche.

ref. Réagir face au danger mortel : témoignages de l’attentat au Bataclan le 13 novembre 2015 – https://theconversation.com/reagir-face-au-danger-mortel-temoignages-de-lattentat-au-bataclan-le-13-novembre-2015-269000

Enseigner le français langue étrangère : faut-il « gommer » les accents ?

Source: The Conversation – France (in French) – By Grégory Miras, Professeur des Universités en didactique des langues, Université de Lorraine

Apprendre une nouvelle langue, c’est s’initier à de nouvelles sonorités et façons de prononcer. Mais cela suppose-t-il de gommer son accent ? La recherche montre qu’enseigner le français en tant que langue étrangère ne consiste pas forcément à imposer un modèle unique mais s’enrichit de la diversité de ses locuteurs. Explications.


Pourquoi entend-on si peu d’accents dans les médias français ? C’est une question qui a interrogé l’Institut national de l’audiovisuel (INA) à l’occasion des derniers Rendez-vous de l’histoire, organisés à Blois, en octobre 2025. Le mythe d’une langue « standard » s’oppose à la diversité des parlers français dits régionaux, de la francophonie et plus largement à la pratique du français dans le monde.

Ce constat invite à s’interroger sur la manière dont l’enseignement du français dans différents pays prend en compte la variété des accents des apprenants. Quelle place la prononciation tient-elle dans l’apprentissage du français comme langue étrangère ? Comment son approche évolue-t-elle à l’heure de l’IA ?

Exercices de prononciation et « surdité » phonologique

La didactique de la prononciation a particulièrement évolué au cours du temps au regard des technologies disponibles permettant à la phonétique, l’étude des sons, de se perfectionner. Enrica Galazzi, professeure à l’Université catholique du Sacré-Cœur (Italie), souligne que, même si la phonétique expérimentale allait devenir essentielle pour l’étude de la parole, sa naissance à la fin du XIXe siècle a été accueillie avec méfiance par les chercheurs français de l’époque. L’usage d’appareils scientifiques semblait alors mystérieux et suscitait la prudence, alors même que cette approche reposait sur un projet profondément humaniste.

Très tôt, l’étude systématique des sons de la parole dans une vision comparée s’est focalisée sur les difficultés rencontrées par les locuteurs d’une langue qui apprennent le français, par exemple de l’espagnol au français. Ces travaux vont permettre de sensibiliser à ce que le chercheur Nikolaï Troubetzkoy a appelé le « filtre » ou la « surdité » phonologique. Cette dernière fait référence à la difficulté à percevoir et donc à produire de nouveaux sons d’une langue étrangère.

Cependant, cette approche a partiellement été remise en question par des modèles ultérieurs qui démontrent – de manière contre-intuitive – qu’il est parfois plus difficile d’acquérir des sons qui se rapprochent de ceux de sa langue première plutôt que ceux qui sont très différents. Toutefois, la plupart des manuels de prononciation en français langue étrangère continuent de se focaliser sur des exercices de répétition qui postulent que répéter permet d’apprendre.

« Joey Can’t Learn French », (série Friends).

En parallèle, d’autres méthodes ont mis l’accent sur des techniques spécifiques : association des voyelles et de couleurs, modulation des gestes du corps pour aider à l’articulation ou à l’intonation, répétition rapide de texte en même temps qu’un locuteur, etc.

De récentes méta-analyses ont montré que l’enseignement de la prononciation en langue étrangère est globalement efficace, surtout lorsqu’il est sur le temps long, accompagné de retours formatifs individualisés et mené par des enseignants avec un recours raisonné aux technologies numériques.

Toutefois, les études se concentrent encore majoritairement sur des sons isolés (des voyelles ou des consonnes), ne permettant pas de s’assurer d’une capacité à réinvestir ce travail dans des interactions en situation réelle. Produire des phonèmes ne garantit pas la capacité à être compris et à faire vivre le discours.

Être à l’écoute de la diversité des accents

En parallèle de ces techniques de correction, certains chercheurs en appellent à une médiation de la prononciation qui partirait de l’apprenant lui-même et des ses envies plutôt que d’imposer un seul modèle à atteindre, souvent celui imaginaire du « natif ».

Il s’agit de reconnaître que chaque individu qui apprend le français devient un locuteur légitime de cette langue et contribue donc à enrichir l’éventail des accents de la francophonie. Il peut donc déterminer son propre objectif en termes d’accents. Des auteurs comme Jacques Maurais défendent l’idée de la nécessité d’accepter toute la diversité en francophonie pour se décentrer d’une norme standardisée de la France hexagonale.

En effet, loin de compliquer la communication entre francophones (toute personne qui parle français), ces perspectives pourraient élargir les capacités du français à constituer un pont entre de nombreuses langues, et de nombreux individus.




À lire aussi :
« L’envers des mots » : Glottophobie


Dans sa thèse de doctorat, Aleksandra D. Savenkova a montré qu’il était possible d’intégrer des variations régionales du français (Sud-Ouest, Québec, Mauritanie, Guadeloupe, etc.) dans l’enseignement du français langue étrangère en Roumanie, même chez des débutants. Il est important de noter que des chercheurs comme Munro et Derwing ont démontré que tout ce qui contribue à la perception d’un accent dans une langue étrangère n’affecte pas forcément l’intelligibilité (capacité à transcrire ce qui est dit) ou la compréhensibilité (le sentiment d’effort pour comprendre).

Ils défendent l’idée de mieux éduquer tous les locuteurs à percevoir la diversité dans les langues plutôt que de se focaliser sur la seule correction de celui qui parle. Cela peut prendre, par exemple, la forme d’exercices d’écoute dans différentes langues présentant une variété d’accents. Le cerveau apprend ainsi à réduire le poids cognitif de la variation et facilite donc la compréhension.

Quelle place pour l’intelligence artificielle ?

La didactique de la prononciation est impactée par l’intelligence artificielle (IA) au même titre que les autres domaines. La plupart des plateformes d’apprentissage en ligne promettent de travailler sur votre prononciation via des modèles de reconnaissance de la parole offrant un retour formatif en temps réel.

Or ces modèles – majoritairement privés – ne permettent pas de savoir ce qui s’y cache en termes d’algorithme et de données d’entraînement. En effet, très souvent ce sont des modèles de voix à texte – une transcription de l’oral. Le retour formatif est fait à partir d’une comparaison de l’audio ainsi transcrit avec un modèle lui aussi écrit.

Par ailleurs, les IA génératives sont des technologies humaines qui produisent des biais liés à des erreurs reproduisant ainsi certaines discriminations, incluant celles sur l’accent.

Si les outils technologiques ont toujours été un support d’aide à l’individualisation pédagogique, ils ne peuvent constituer le centre de l’enseignement et l’apprentissage. C’est d’autant plus vrai pour la prononciation qui nécessite de co-construire l’intelligibilité et la compréhensibilité entre deux partenaires d’une même danse.

« Les multiples prononciations de la lettre R » (TV5 Monde Info, mars 2024).

Actuellement, les recherches sur le langage tendent à mieux valoriser le fait que les locuteurs plurilingues mélangent les langues qu’ils maitrisent (le translanguaging) et qu’ils disposent d’un éventail de sons qu’ils mobilisent en fonction de leurs interlocuteurs et des contextes (la pluriphonie). Cela va donc dans le sens de faire entrer la diversité des accents dans les classes, les manuels et les applications de nos téléphones.

Penser la diversité des prononciations et des accents, c’est aussi réfléchir aux rapports de pouvoir entre les personnes. Mélanger les langues n’est pas neutre : le français, langue dominante marquée par une histoire coloniale, peut parfois affaiblir des langues minorisées ou menacées. Valoriser la diversité des sons des langues, c’est donc permettre à chacun d’être légitime dans le français qu’il apprend ou d’autres langues qu’il parle.


Cet article est publié en partenariat avec la Délégation générale à la langue française et aux langues de France du ministère de la Culture.

The Conversation

Grégory Miras ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Enseigner le français langue étrangère : faut-il « gommer » les accents ? – https://theconversation.com/enseigner-le-francais-langue-etrangere-faut-il-gommer-les-accents-267483

La selección: adolescencia de chicas, adolescencia de chicos

Source: The Conversation – (in Spanish) – By Eva Catalán, Editora de Educación, The Conversation

Tanatat/Shutterstock

Está claro que no todos damos la misma importancia a nuestro aspecto físico, pero también que es un factor bastante clave de nuestro bienestar mental. Imaginemos lo fundamental que puede llegar a ser verse y sentirse bien para un adolescente, en esa etapa en la que la aceptación de los iguales es tan vital, cuando la opinión de nuestra abuela (que siempre nos encuentra los más guapos) deja de resultar tan convincente.

Y ahora situémonos en el mundo mental y el contexto real de una chica adolescente de hoy. A las inseguridades que conllevan los cambios físicos y emocionales de la pubertad se une un bombardeo mediático y publicitario mucho más agresivo, cuantitativa y cualitativamente, de lo que adultos de otras generaciones hemos experimentado.

No es la misma presión que la que reciben los chicos. Tampoco influye igual en la construcción de la sexualidad de unos y otros el consumo de pornografía en la adolescencia. Estos contenidos, a los que cada vez más se accede mucho antes de tener la capacidad de gestionarlos, enseñan a las jóvenes “que el reconocimiento social depende de su capacidad de exposición, generando una socialización basada en la autosexualización. La pornografía no solo moldea cómo los varones aprenden a desear, sino cómo las adolescentes aprenden a ser deseadas”. Así nos lo explica Mario Ramírez de la UNIR, después de revisar las últimas investigaciones.

Y todo esto tiene un efecto. Las chicas sufren más que los chicos a partir de la pubertad. Duermen peor. Experimentan más ansiedad y depresión, perciben menos control sobre sus cuerpos y sus sentimientos, se juzgan con más dureza y se gustan menos. Tras un estudio con más de 10 000 adolescentes españoles, los investigadores de la universidad de Zaragoza Alejandro Legaz Arrese y Carmen Mayolas-Pi, y Joaquin Reverter Masia, de la Universitat de Lleida, llegan a la siguiente conclusión: “La pubertad femenina llega antes y con cambios hormonales más intensos(…). Pero estos cambios son naturales y ocurren en ambos sexos; no son la causa ni la solución por sí solos. La diferencia está en cómo se viven y qué significan esos cambios en un entorno social lleno de expectativas sobre el cuerpo femenino”.

Hablan de un contexto marcado por presión estética, la exposición continua a redes sociales y las expectativas de “ser perfecta” en múltiples dimensiones. “La pubertad”, explican, “se convierte así en un cruce biológico y cultural particularmente exigente para ellas”. Y además, esta brecha en el bienestar mental no desaparece con los años: las mujeres adultas siguen presentando peores niveles de sueño, mayor ansiedad y depresión, y más insatisfacción corporal que los hombres.

La adolescencia parece el momento más oportuno para establecer las bases de una relación sana con la propia imagen, física y mental. ¿Podemos ayudar los adultos? Sí, si prestamos atención a los mensajes que chicos y chicas reciben, a los influencers que siguen, ofreciendo alternativas positivas, comentando con ellos los mensajes y las imágenes que ofrecen. El deporte es una manera excelente de mejorar el bienestar en la adolescencia, al igual que enseñar a resolver conflictos de manera constructiva e incluir la educación emocional en la escuela: tanto para chicos como para chicas. Hay mucho que se puede hacer desde diferentes ámbitos para que las chicas no estén condenadas a sufrir más simplemente por el hecho de serlo.

The Conversation

ref. La selección: adolescencia de chicas, adolescencia de chicos – https://theconversation.com/la-seleccion-adolescencia-de-chicas-adolescencia-de-chicos-269199

Enseigner le français langue étrangère : un monde aux mille accents

Source: The Conversation – in French – By Grégory Miras, Professeur des Universités en didactique des langues, Université de Lorraine

Apprendre une nouvelle langue, c’est s’initier à de nouvelles sonorités et façons de prononcer. Mais cela suppose-t-il de gommer son accent ? La recherche montre qu’enseigner le français en tant que langue étrangère ne consiste pas forcément à imposer un modèle unique mais s’enrichit de la diversité de ses locuteurs. Explications.


Pourquoi entend-on si peu d’accents dans les médias français ? C’est une question qui a interrogé l’Institut national de l’audiovisuel (INA) à l’occasion des derniers Rendez-vous de l’histoire, organisés à Blois, en octobre 2025. Le mythe d’une langue « standard » s’oppose à la diversité des parlers français dits régionaux, de la francophonie et plus largement à la pratique du français dans le monde.

Ce constat invite à s’interroger sur la manière dont l’enseignement du français dans différents pays prend en compte la variété des accents des apprenants. Quelle place la prononciation tient-elle dans l’apprentissage du français comme langue étrangère ? Comment son approche évolue-t-elle à l’heure de l’IA ?

Exercices de prononciation et « surdité » phonologique

La didactique de la prononciation a particulièrement évolué au cours du temps au regard des technologies disponibles permettant à la phonétique, l’étude des sons, de se perfectionner. Enrica Galazzi, professeure à l’Université catholique du Sacré-Cœur (Italie), souligne que, même si la phonétique expérimentale allait devenir essentielle pour l’étude de la parole, sa naissance à la fin du XIXe siècle a été accueillie avec méfiance par les chercheurs français de l’époque. L’usage d’appareils scientifiques semblait alors mystérieux et suscitait la prudence, alors même que cette approche reposait sur un projet profondément humaniste.

Très tôt, l’étude systématique des sons de la parole dans une vision comparée s’est focalisée sur les difficultés rencontrées par les locuteurs d’une langue qui apprennent le français, par exemple de l’espagnol au français. Ces travaux vont permettre de sensibiliser à ce que le chercheur Nikolaï Troubetzkoy a appelé le « filtre » ou la « surdité » phonologique. Cette dernière fait référence à la difficulté à percevoir et donc à produire de nouveaux sons d’une langue étrangère.

Cependant, cette approche a partiellement été remise en question par des modèles ultérieurs qui démontrent – de manière contre-intuitive – qu’il est parfois plus difficile d’acquérir des sons qui se rapprochent de ceux de sa langue première plutôt que ceux qui sont très différents. Toutefois, la plupart des manuels de prononciation en français langue étrangère continuent de se focaliser sur des exercices de répétition qui postulent que répéter permet d’apprendre.

« Joey Can’t Learn French », (série Friends).

En parallèle, d’autres méthodes ont mis l’accent sur des techniques spécifiques : association des voyelles et de couleurs, modulation des gestes du corps pour aider à l’articulation ou à l’intonation, répétition rapide de texte en même temps qu’un locuteur, etc.

De récentes méta-analyses ont montré que l’enseignement de la prononciation en langue étrangère est globalement efficace, surtout lorsqu’il est sur le temps long, accompagné de retours formatifs individualisés et mené par des enseignants avec un recours raisonné aux technologies numériques.

Toutefois, les études se concentrent encore majoritairement sur des sons isolés (des voyelles ou des consonnes), ne permettant pas de s’assurer d’une capacité à réinvestir ce travail dans des interactions en situation réelle. Produire des phonèmes ne garantit pas la capacité à être compris et à faire vivre le discours.

Être à l’écoute de la diversité des accents

En parallèle de ces techniques de correction, certains chercheurs en appellent à une médiation de la prononciation qui partirait de l’apprenant lui-même et des ses envies plutôt que d’imposer un seul modèle à atteindre, souvent celui imaginaire du « natif ».

Il s’agit de reconnaître que chaque individu qui apprend le français devient un locuteur légitime de cette langue et contribue donc à enrichir l’éventail des accents de la francophonie. Il peut donc déterminer son propre objectif en termes d’accents. Des auteurs comme Jacques Maurais défendent l’idée de la nécessité d’accepter toute la diversité en francophonie pour se décentrer d’une norme standardisée de la France hexagonale.

En effet, loin de compliquer la communication entre francophones (toute personne qui parle français), ces perspectives pourraient élargir les capacités du français à constituer un pont entre de nombreuses langues, et de nombreux individus.




À lire aussi :
« L’envers des mots » : Glottophobie


Dans sa thèse de doctorat, Aleksandra D. Savenkova a montré qu’il était possible d’intégrer des variations régionales du français (Sud-Ouest, Québec, Mauritanie, Guadeloupe, etc.) dans l’enseignement du français langue étrangère en Roumanie, même chez des débutants. Il est important de noter que des chercheurs comme Munro et Derwing ont démontré que tout ce qui contribue à la perception d’un accent dans une langue étrangère n’affecte pas forcément l’intelligibilité (capacité à transcrire ce qui est dit) ou la compréhensibilité (le sentiment d’effort pour comprendre).

Ils défendent l’idée de mieux éduquer tous les locuteurs à percevoir la diversité dans les langues plutôt que de se focaliser sur la seule correction de celui qui parle. Cela peut prendre, par exemple, la forme d’exercices d’écoute dans différentes langues présentant une variété d’accents. Le cerveau apprend ainsi à réduire le poids cognitif de la variation et facilite donc la compréhension.

Quelle place pour l’intelligence artificielle ?

La didactique de la prononciation est impactée par l’intelligence artificielle (IA) au même titre que les autres domaines. La plupart des plateformes d’apprentissage en ligne promettent de travailler sur votre prononciation via des modèles de reconnaissance de la parole offrant un retour formatif en temps réel.

Or ces modèles – majoritairement privés – ne permettent pas de savoir ce qui s’y cache en termes d’algorithme et de données d’entraînement. En effet, très souvent ce sont des modèles de voix à texte – une transcription de l’oral. Le retour formatif est fait à partir d’une comparaison de l’audio ainsi transcrit avec un modèle lui aussi écrit.

Par ailleurs, les IA génératives sont des technologies humaines qui produisent des biais liés à des erreurs reproduisant ainsi certaines discriminations, incluant celles sur l’accent.

Si les outils technologiques ont toujours été un support d’aide à l’individualisation pédagogique, ils ne peuvent constituer le centre de l’enseignement et l’apprentissage. C’est d’autant plus vrai pour la prononciation qui nécessite de co-construire l’intelligibilité et la compréhensibilité entre deux partenaires d’une même danse.

« Les multiples prononciations de la lettre R » (TV5 Monde Info, mars 2024).

Actuellement, les recherches sur le langage tendent à mieux valoriser le fait que les locuteurs plurilingues mélangent les langues qu’ils maitrisent (le translanguaging) et qu’ils disposent d’un éventail de sons qu’ils mobilisent en fonction de leurs interlocuteurs et des contextes (la pluriphonie). Cela va donc dans le sens de faire entrer la diversité des accents dans les classes, les manuels et les applications de nos téléphones.

Penser la diversité des prononciations et des accents, c’est aussi réfléchir aux rapports de pouvoir entre les personnes. Mélanger les langues n’est pas neutre : le français, langue dominante marquée par une histoire coloniale, peut parfois affaiblir des langues minorisées ou menacées. Valoriser la diversité des sons des langues, c’est donc permettre à chacun d’être légitime dans le français qu’il apprend ou d’autres langues qu’il parle.

The Conversation

Grégory Miras ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Enseigner le français langue étrangère : un monde aux mille accents – https://theconversation.com/enseigner-le-francais-langue-etrangere-un-monde-aux-mille-accents-267483