Sainte-Soline, gilets jaunes, retraites : comment les manifestants ont revu leur organisation face à la répression policière

Source: The Conversation – France in French (3) – By Elise Lobbedez, Assistant professor, Neoma Business School

Les vidéos de la manifestation contre la mégabassine de Sainte-Soline (Deux-Sèvres) en 2023 récemment publiées par « Médiapart » mettent en lumière la violence de la répression qui y a été exercée par les forces de l’ordre envers les manifestants. Loin d’être isolé, cet épisode s’inscrit dans une transformation profonde des pratiques de gestion des manifestations en France depuis deux décennies, marquée par une logique de remilitarisation du maintien de l’ordre et de judiciarisation croissante des mouvements sociaux. Face à ce tournant répressif, comment s’organisent les militants ?


À l’échelle de plusieurs mobilisations françaises (gilets jaunes, manifestations contre la réforme des retraites, « Bloquons tout »…), on remarque une généralisation de la mise en place de fonctions « support » du côté des manifestants : équipes juridiques, personnes chargées de la documentation des violences subies, street medics (médecins de rue), formation aux premiers secours, etc.

Dans cette lignée, un dispositif de soutien nommé « base arrière » est conçu pour le rassemblement de Sainte-Soline (Deux-Sèvres), en réponse à des manifestations antérieurement réprimées. Une équipe juridique s’organise en mars 2022, lors du Printemps maraîchin contre les mégabassines. En rendant accessible des ressources juridiques pour les militants, celle-ci constitue un maillon important du soin en manifestation. Elle aide à protéger de l’épuisement émotionnel et psychologique lié aux procédures judiciaires, souvent longues, stressantes, et financièrement coûteuses, d’autant plus lorsqu’on les affronte seul. Le soutien psychologique, lui, se structure à la suite des affrontements lors de la première manifestation à Sainte-Soline, en octobre 2022.

Sur le terrain, ces équipes assurent la prise en charge des personnes arrêtées ou blessées. Mais leur action ne se limite pas aux urgences : avant le rassemblement, elles font de la prévention. Par exemple, le pôle médical propose des recommandations pour l’équipement à apporter, conseillant d’amener des masques et des lunettes de protection contre les gaz lacrymogènes tout en partageant des astuces pour en limiter leurs effets (mélange à base de Maalox ou citron). De leur côté, les juristes identifient des avocats disponibles pour soutenir les personnes interpellées, et diffusent leur contact ainsi que des réflexes à adopter en cas d’arrestation.

Des pratiques éminemment politiques

Avec le mouvement des gilets jaunes et l’adoption d’une doctrine de maintien de l’ordre plus offensive, de nouveaux acteurs, souvent professionnels de santé, émergent partout sur le territoire pour prodiguer des soins en manifestation. Ceux-ci adoptent souvent une posture de secouristes volontaires apartisans, proche du devoir humanitaire, et prennent en charge tous les blessés : militants, journalistes mais aussi policiers.

Au contraire, la « base arrière » de Sainte-Soline incarne une réflexion explicitement politique sur la mise en œuvre du soin dans les mouvements sociaux, en réponse à la répression accrue. De la sorte, elle s’inscrit dans l’approche historique des street medics.

Apparus en France dans les années 2010 lors de l’occupation de la zone à défendre de Notre-Dame-des-Landes (Loire-Atlantique), ces derniers sont à l’origine proches des mouvances anarchistes et de gauche, loin de cette neutralité revendiquée. Les fonctions support de la « base arrière » sont alors pensées comme des pratiques militantes, qui s’inscrivent dans une dynamique de soin engagé et d’autodéfense qui vise à assurer avant tout la protection des manifestants. Les membres des équipes rappellent d’ailleurs être présents « en soutien aux camarades qui manifestent ».

Ensuite, le mouvement promeut une posture partagée, où le soin n’est pas délégué à des experts. L’objectif est ici de rendre possible une certaine autonomisation, notamment dans un contexte où il peut être difficile ou risqué d’accéder au soin dispensé par les institutions. Cela peut par exemple être lorsque des médecins transmettent aux ministères de l’intérieur ou de la justice des fichiers recensant les identités et descriptions de blessés en manifestation. Par ailleurs, une approche collective évite de recréer des relations asymétriques et des hiérarchies entre soignants, ceux qui détiennent le savoir et le pouvoir de décision, et soignés, qui sont en position de dépendance sans toujours comprendre les choix.

Enfin, les organisateurs tentent d’étendre cette culture du soin à d’autres aspects de la mobilisation. Une garderie autogérée, un pôle dévalidiste (pour lutter contre les discriminations et faciliter la participation des personnes en situation de handicap), et un dispositif consacré aux violences sexistes et sexuelles sont, par exemple, mis en place pour permettre au plus grand nombre de participer, quelles que soient ses contraintes.

De surcroît, l’information circule sous de multiples formats (flyers, briefings oraux, lignes téléphoniques, etc.). Elle est traduite en plusieurs langues, pour que tout le monde puisse y avoir accès. Il y a donc une attention particulière portée à l’inclusivité des dispositifs et une volonté d’insuffler une responsabilité commune. Ainsi, le pôle psychoémotionnel souligne vouloir se détacher des « cultures militantes […] virilistes qui glorifient un certain rapport à la violence » et permettre à chacun de demander de l’aide en cas de besoin sans se sentir faible.

Les défis d’une approche politique du soin en contexte répressif

Développer une culture du soin partagée et inclusive pose néanmoins de nouvelles questions. Un premier défi est celui du suivi du soin après les manifestations : comment faire en sorte de garantir une continuité dans le soin à l’échelle des groupes locaux après un rassemblement ? Sous quelles modalités ? Et comment s’assurer que des personnes plus isolées puissent en bénéficier ?

Dans mes recherches en cours, certains militants racontent avoir bénéficié d’un soutien psychologique collectif qui a joué un rôle crucial pour digérer leurs vécus. C’est le cas de Thérèse qui explique :

« Ça nous a permis de faire en sorte que notre cerveau qui avait été vraiment malmené puisse se dire “Voilà, ça s’est passé comme ça. C’est une réalité, c’est pas du délire. Je peux dire très précisément que Darmanin a cherché à nous bousiller avec sa force armée”. »

Cependant, d’autres personnes racontent ne pas avoir bénéficié d’une telle expérience, comme le soulignent mes entretiens avec Katia, puis avec Chloé. La première me dit ne pas avoir participé aux événements de soin collectif après la manifestation et s’être reposée plutôt sur ses proches. La seconde exprime s’être « sentie très très seule après » et pas toujours à sa place dans les espaces de discussion. Plusieurs personnes interrogées expliquent aussi ne pas avoir rejoint les moments de soutien car habitant loin des centres urbains. D’autres soulignent ne pas s’être sentis légitimes pour utiliser les dispositifs existants, car certains militants en auraient eu plus besoin qu’eux, notamment les blessés graves.

La manifestation de Sainte-Soline (Deux-Sèvres), le 25 mars 2023, filmée par les caméras-piétons des gendarmes.

Un autre défi de taille pour l’avenir des mobilisations est celui du soin des soignants, qui peuvent vite se retrouver débordés. Plusieurs membres des équipes rapportent avoir été physiquement et mentalement traumatisés de leur expérience, parfois sous le choc pendant plusieurs jours après l’événement. C’est aussi un constat que Vincent, un manifestant présent à Sainte-Soline et proche des équipes de street medics, fait lors de notre entretien :

« J’ai échangé avec les copains qui étaient « medics » là-bas. Je pense qu’eux, ils auraient eu besoin d’un soutien psy derrière parce qu’ils étaient vraiment choqués ».

À l’aune des révélations sur la manifestation de Sainte-Soline, la répression semble s’imposer comme un enjeu crucial des luttes sociales et environnementales. Alors que de nombreux manifestants sont prêts à accepter le risque de s’exposer à des gaz lacrymogènes voire à de potentielles blessures, le soin ne peut pas rester un impensé.

The Conversation

Elise Lobbedez ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Sainte-Soline, gilets jaunes, retraites : comment les manifestants ont revu leur organisation face à la répression policière – https://theconversation.com/sainte-soline-gilets-jaunes-retraites-comment-les-manifestants-ont-revu-leur-organisation-face-a-la-repression-policiere-269632

Philippe Aghion, le Nobel d’économie qui s’inscrit dans une tradition française valorisant les liens entre économie, société et institutions

Source: The Conversation – in French – By Patrick Gilormini, Economie & Management, ESDES – UCLy (Lyon Catholic University)

Si les travaux de Philippe Aghion sur « la théorie de la croissance durable à travers la destruction créatrice » s’inscrivent dans la lignée de Schumpeter, ils se situent aussi dans une tradition bien française. En effet, la pensée du récent Prix Nobel d’économie valorise les liens entre économie, société et institutions, comme l’ont fait avant lui Saint-Simon ou, plus récemment, François Perroux.


Le 13 octobre 2025, l’Académie royale des sciences de Suède a décerné le prix de la Banque de Suède en sciences économiques en mémoire d’Alfred Nobel à l’économiste français Philippe Aghion, ainsi qu’à Peter Howitt et Joel Mokyr. Ainsi sont récompensés leurs travaux sur l’impact des nouvelles technologies sur la croissance économique.

Philippe Aghion et Peter Howitt ont été parmi les premiers à modéliser l’idée originale de Joseph Schumpeter du processus de destruction créatrice. Dans cette perspective, les progrès de la science conduisent à l’apparition et à la diffusion de nouvelles idées, de nouvelles technologies, de nouveaux produits, de nouveaux services, de nouveaux modes d’organisation du travail qui ont pour effet de remplacer, plus ou moins brutalement, ce qui avait cours avant elles. Ces nouveautés ont pour origine la concurrence que se livrent les entreprises, chacune désirant être la première à introduire et exploiter son innovation.

Favoriser la destruction créatrice

À la suite de Joseph Schumpeter, Philippe Aghion fait partie des économistes français, qui, tels Henri Saint Simon (1760-1825) au XIXe siècle, ou François Perroux (1903-1987) au XXe siècle, ont mis en évidence le rôle de l’innovation, de l’entrepreneur et du crédit dans la dynamisme du capitalisme.




À lire aussi :
Emmanuel Macron a-t-il eu un moment saint-simonien ?


Philippe Aghion analyse dans ses travaux, la corrélation positive entre la croissance du niveau de vie (PIB par habitant) et le taux de destruction créatrice, mesuré par l’écart entre le taux de création et de taux de destruction d’entreprises.

Philippe Aghion estime que les pouvoirs publics doivent favoriser ce processus de destruction créatrice par l’innovation. L’État doit, d’une part, développer avec le secteur privé un ensemble d’infrastructures publiques de qualité, afin d’accéder aux savoirs nouveaux, fer de lance des nouvelles technologies. Au-delà de l’effort financier dans le domaine de l’enseignement et de la recherche, l’appétence pour l’entrepreneuriat et le risque, l’aptitude à apprendre de ses échecs, les partenariats public-privé, doivent être soutenus.

Accompagner les chômeurs

D’autre part l’État doit corriger les effets négatifs à court terme de la destruction créatrice. En effet, l’écart temporel entre l’arrivée d’une innovation et sa diffusion dans les différents secteurs d’activité engendre du chômage avant que l’innovation n’alimente de nouvelles embauches. Les pouvoirs publics, dans cette vision, doivent s’attacher au traitement du chômage issu de la destruction créatrice. Pour cela, ils doivent assurer la flexibilité et la sécurité du marché du travail, ceci en combinant indemnisation du chômage et développement de la formation professionnelle. Ainsi, pour maximiser l’impact positif de l’intelligence artificielle sur l’emploi, Philippe Aghion estime nécessaire d’améliorer aujourd’hui notre système éducatif et de mettre en place des politiques de « flexisécurité » à l’image de celles en vigueur au Danemark.

La pensée de François Perroux s’inspire, comme celle d’Aghion, de Joseph Schumpeter, sur plusieurs points fondamentaux, tout en développant ensuite une approche originale de l’économie au service de l’homme. Perroux reprend ainsi cette idée de schumpeterienne du rôle central de l’innovation en soulignant que le développement économique ne résulte pas d’un simple équilibre des marchés, mais d’un processus dynamique, déséquilibrant, impulsé par des « foyers d’innovation » ou des « centres de décision ».

L’État, un entrepreneur ?

Perroux s’inscrit dans une vision dynamique d’un capitalisme en perpétuelle transformation. Il insiste notamment sur les asymétries de pouvoir et les inégalités spatiales dans le développement, ce qui l’amène à formuler sa théorie des pôles de croissance. Perroux reprend cette figure de l’entrepreneur schumpetérien, innovateur et agent de rupture, mais l’élargit. Selon lui, les agents moteurs du développement peuvent être aussi bien des entreprises que des institutions ou des États, capables de concentrer et diffuser l’innovation.

Aghion comme Perroux, influencés par Schumpeter, critiquent la théorie de l’équilibre général néoclassique harmonieux de Léon Walras (1834-1910). À la place, ils développent une économie des déséquilibres, où le développement est un processus conflictuel, inégal, et souvent polarisé.

François Perroux s’est inspiré de Joseph Schumpeter en adoptant une vision dynamique, déséquilibrée et innovante du développement économique. Toutefois, il enrichit cette perspective en y intégrant des dimensions spatiales, institutionnelles et de pouvoir, ce qui le distingue nettement de son prédécesseur.

Œuvre collective

C’est sur ces dimensions qu’il fut notamment inspiré par l’industrialisme de Saint-Simon. Saint-Simon proposait une société dirigée par les plus compétents (industriels, scientifiques, artistes), selon des principes rationnels et fonctionnels. Perroux reprend cette idée en insistant sur la nécessité d’une planification économique fondée sur des vecteurs de développement (comme les pôles de croissance), plutôt que sur des institutions politiques traditionnelles.

Par ailleurs, Perroux reprend à Saint-Simon l’idée selon laquelle l’industrie est une œuvre collective, orientée vers le bien commun. Il voit dans l’organisation industrielle non seulement un moteur économique, mais aussi un vecteur de transformation sociale, capable de structurer la société autour de la coopération autant que de la compétition. Perroux s’inspire de Saint-Simon pour développer une philosophie du dialogue et une approche non antagoniste de la socialisation. Il privilégie les luttes non violentes et les dynamiques de coopération entre les acteurs économiques.

Saint-Simon proposait, par ailleurs, une société dirigée par les plus compétents (industriels, scientifiques, artistes), selon des principes rationnels et fonctionnels. Perroux approfondit cette idée en insistant sur la nécessité d’une planification économique fondée sur des vecteurs de développement (comme les pôles de croissance), plutôt que sur des institutions politiques traditionnelles.

Nécessaire bonne gouvernance

L’insistance sur la politique industrielle se retrouve aujourd’hui chez Aghion pour qui celle-ci dépend beaucoup moins des moyens des pouvoirs publics que de la bonne gouvernance. Le rôle des savants et de ceux que nous appelons aujourd’hui les « experts » dans la politique économique était une thématique constante chez Saint-Simon.

Philippe Aghion accorde de l’importance aux institutions, à la concurrence, à la politique industrielle et à la mobilité sociale dans le processus de croissance. Quatre points de convergence avec le saint-simonisme peuvent être mentionnés sur le progrès technique, le rôle des producteurs, le rôle des institutions et la vision sociale d’un capitalisme régulé. Si nous ne pouvons pas parler d’influence directe c’est bien l’environnement intellectuel français qui marque Aghion qui, comme Perroux de 1955 à 1976, enseigne aujourd’hui au Collège de France.

The Conversation

Patrick Gilormini est membre de la CFDT

ref. Philippe Aghion, le Nobel d’économie qui s’inscrit dans une tradition française valorisant les liens entre économie, société et institutions – https://theconversation.com/philippe-aghion-le-nobel-deconomie-qui-sinscrit-dans-une-tradition-francaise-valorisant-les-liens-entre-economie-societe-et-institutions-269643

Brésil : la dimension politique du massacre de Rio

Source: The Conversation – in French – By Gabriel Feltran, Sociologie, directeur de recherche au CNRS rattaché au CEE de l’IEP de Paris, Sciences Po

Au moins 121 personnes ont été tuées lors d’une gigantesque opération de police qui a tourné au massacre, le 28 octobre, à Rio de Janeiro. Les violences policières de masse ne sont pas un phénomène nouveau au Brésil, cependant, cette fois, on observe qu’elles sont présentées par les autorités les ayant organisées non plus comme une simple intervention sécuritaire, mais pratiquement comme une victoire civilisationnelle du « bien contre le mal ».


Le 28 octobre dernier, un nouveau carnage a eu lieu à Rio de Janeiro. Cette opération policière menée contre un groupe criminel, le Comando Vermelho, est devenue la plus meurtrière de l’histoire du Brésil : elle a fait au moins 121 morts dans les rues de deux favelas.

J’étudie les événements de ce type depuis près de trois décennies. Certains de ces massacres sont devenus des blessures nationales : c’est notamment le cas du carnage de Carandiru en 1992, lorsque la police a exécuté 111 prisonniers après une mutinerie, et des crimes de mai 2006 que j’ai suivis lorsque je réalisais mon terrain de doctorat. La police de Sao Paulo avait alors tué au moins 493 civils en une semaine, en représailles à la mort de 45 de ses agents survenue dans une seule nuit, ordonnée par le Primeiro Comando da Capital (premier commandement de la capitale, PCC). J’étudiais déjà cette fraternité criminelle qui était alors en pleine expansion et qui est devenue aujourd’hui la plus grande organisation du monde du crime en Amérique latine.

À l’époque, ce qui m’avait frappé c’était l’ampleur industrielle de ces événements sporadiques. Avec le temps, j’ai réalisé que les spectacles de violence massive étaient liés à une répétition silencieuse des morts du même profil, mais à petite échelle, dans la routine. Pour la seule année 2024, le ministère brésilien de la justice a enregistré 6 014 personnes officiellement tuées par des policiers, sur un total d’environ 45 000 homicides et 25 000 disparitions dans tout le pays. À titre de comparaison, sur l’ensemble des années 2023 et 2024, la police britannique a abattu deux personnes.

Qui trouve la mort dans ces tueries ?

En réfléchissant à mon ethnographie, j’ai constaté que tant les carnages spectaculaires que les homicides routiniers frappaient pratiquement toujours les mêmes victimes : de jeunes hommes pauvres et racisés qui, comme je l’ai progressivement compris, avaient été recrutés comme exécutants au service des marchés illégaux. Leurs pairs présentant un profil similaire, mais non impliqués dans ces activités, n’étaient pas exposés à cette forme de violence.

Selon l’Atlas de la violence 2025 publié par le Forum brésilien de la sécurité publique, la grande majorité des victimes de l’usage de la force létale par la police sont des hommes (91,1 %) et des Noirs (79 %). Près de la moitié (48,5 %) avaient moins de 30 ans. La plupart ont été tués par arme à feu (73,8 %) et plus de la moitié (57,6 %) sont morts dans des lieux publics.

Ces jeunes étaient engagés pour vendre de la drogue, assurer une protection informelle ou commettre de petits délits. Beaucoup d’entre eux avaient été mes interlocuteurs réguliers pendant ma recherche, et j’ai assisté à leurs funérailles, qui se tiennent toujours dans un grand silence, car leurs morts sont considérées comme des morts de bandits.

Mon intérêt sociologique pour cette violence n’a jamais été motivé par la mort elle-même. Je ne trouve aucun intérêt aux documentaires sur les tueurs en série ou les psychopathes. En revanche, je m’intéresse beaucoup aux formes violentes et non létales d’expression politique : les émeutes, les soulèvements et les explosions d’indignation. La coercition étatique contre cette violence retient également mon attention depuis des décennies.

C’est sous cet angle que j’examine le massacre de Rio : il s’agit d’une violence aux effets politiques immédiats. Un événement critique qui remet en cause les fondements de l’autorité de l’État et donc les contours de la vie quotidienne à venir.

Une légitimité nouvelle de la violence

Malgré le profil répétitif des victimes, les répercussions politiques du massacre de Rio ont été radicalement nouvelles. Lorsque j’ai commencé mes recherches dans les favelas, ces meurtres étaient perpétrés par des escadrons masqués. Le discours public insistait sur le fait que les groupes d’extermination n’avaient rien à voir avec les policiers, et condamnait toute action hors de la loi.

Or le 28 octobre, à Rio de Janeiro, il n’y a eu ni masques ni ambiguïté. Après le massacre, le gouverneur s’est présenté devant les caméras, entouré de ses secrétaires, et a célébré le succès de l’opération, qui a également coûté la vie à quatre policiers – une proportion de policiers tués par rapport aux « criminels » éliminés près de deux fois supérieure à la moyenne nationale. En 2024, 170 policiers ont été tués au Brésil, soit 2 % des 6 000 personnes décédées après l’utilisation de la force létale par la police.

Le politicien a parlé d’action planifiée, d’efficacité, de rétablissement de l’État de droit. Dans un pays où 99,2 % des meurtres commis par la police ne feront jamais l’objet d’une enquête officielle, un tel ton jubilatoire ne devrait pas me surprendre, mais c’est pourtant le cas.

Au cours de l’interview, le gouverneur a annoncé que cinq autres gouverneurs d’extrême droite – rappelons que le Brésil est une fédération et que la sécurité publique relève de la responsabilité des États ; les gouverneurs de chaque État peuvent décider de leur politique de sécurité indépendamment du gouvernement fédéral – se rendraient à Rio le lendemain pour le féliciter, partageant ainsi une propagande électorale écrite avec du sang. Leurs réseaux politiques s’inspirent de Nayib Bukele, le président du Salvador, devenu le parrain de la propagande politique par le massacre. Une partie de la presse a salué cette action, et les sondages d’opinion ont montré un soutien massif de la population.

Cette fois-ci, le massacre n’a pas été présenté comme une nécessité tragique contre une organisation criminelle, mais comme un acte vertueux, point final. Des consultants en marketing politique sont apparus sur YouTube pour annoncer que le gouverneur avait habilement occupé un espace politique vide et s’imposer comme l’homme fort de la droite brésilienne. En réalité, les soldats morts des deux côtés seront remplacés le lendemain, et le cœur de l’organisation criminelle visée reste intact, comme cela s’est produit à plusieurs reprises au cours des quarante dernières années.

La légitimation de la terreur au Brésil n’a pas tardé. Le lendemain du massacre, un projet de nouvelle législation antiterroriste a été présenté à la Chambre des députés, élargissant nettement la définition de « terroriste », qui s’applique désormais aux personnes soupçonnées de trafic de drogue, a été présenté à la Chambre des députés. Lorsque l’on passe de l’explosion violente aux processus sociaux ordinaires, la terreur contre les favelas apparaît comme un mode de gouvernance de plus en plus légitime, et non comme une déviation.

L’échec à long terme de la politique de terreur

Après le massacre, on a vu les politiciens brésiliens arriver avec leurs rituels symboliques. D’un côté, le gouverneur d’extrême droite triomphait avec son action extrêmement meurtrière. Ses collègues des autres États gouvernés par l’extrême droite, dont Sao Paulo et Minas Gerais, tentent de surfer sur la vague de popularité de la terreur.

De l’autre, on a vu un Lula embarrassé, acculé par le fait que la politique de sécurité relève de la responsabilité des États de la fédération, mais surtout parce qu’il sait qu’il doit faire face à une opinion publique favorable au massacre, douze mois avant l’élection présidentielle de 2026.

La terreur n’est plus seulement un moment d’extrême violence ; avant l’événement, il y a des intentions délibérées et après, des modes de communication politiques professionnels. Si les massacres sont récurrents dans les favelas de Rio, leur légitimation publique est nouvelle. La terreur s’avère politiquement efficace et marque un changement d’hégémonie.

Alors que je commençais mon travail de terrain, dans les années 1990, la terreur s’accomplissait quand il n’y avait pas de punition, mais promotion silencieuse des policiers violents ; quand il n’y avait pas de réparation, mais humiliation cachée des familles des victimes ; quand on ne voyait pas l’interdiction politique de ceux qui mettaient cette terreur en œuvre, mais quelques votes peu assumés en leur faveur.

La situation a désormais changé. L’élection triomphale de ceux qui ordonnent la terreur dans les États et les villes les plus importants du pays est devenue la norme lors des élections pour les gouvernements des 27 États de la fédération, et les législatives de 2022, bien que lors des municipales de 2024. La victoire de justesse de Lula contre Bolsonaro à la présidentielle en 2022 aura pratiquement été la seule exception. Un seul des 27 États qui constituent le pays, Bahia, est gouverné par la gauche… et sa police est la deuxième plus violente du pays.

Les auteurs de la terreur imaginent que la violence met fin à l’histoire, mais il reste toujours quelque chose : le traumatisme, le deuil, la soif de vengeance, la lucidité politique, la mémoire collective, les façons obstinées d’imaginer la paix et le tissu fragile de la vie quotidienne. De ces résidus naissent des chemins divergents : une radicalisation renouvelée ou des pratiques de mémoire et de réconciliation, des mécanismes bureaucratiques ou des forces criminelles insurgées. La vie insiste pour révéler que les vainqueurs sont eux-mêmes des meurtriers, et cette histoire se répète, marquant l’échec à long terme de la terreur malgré sa force immédiate.

The Conversation

Gabriel Feltran ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Brésil : la dimension politique du massacre de Rio – https://theconversation.com/bresil-la-dimension-politique-du-massacre-de-rio-269848

How heat from old coal mines became a source of local pride in this northern English town – new study

Source: The Conversation – UK – By Michael Smith, Associate Professor of Psychology, Northumbria University, Newcastle

In Gateshead, north-east England, a solar park provides electricity for a mine water heat pump that provides district heating. Graeme J Baty/Shutterstock

Around a quarter of UK homes lie on disused coalfields. These abandoned coal mines are flooded with water that is naturally heated by the Earth.

This has enormous potential as a sustainable energy source. Schemes such as the mine water district heat network in Gateshead, in north-east England, are already providing low-carbon, cheaper heat and hot water to residential homes.

To maximise the full potential of this energy source by developing new schemes and expanding existing ones, it is critical that people have trust in new energy systems and are motivated to connect to them. This will speed up the number of homeowners signing up.

Communities built around former coal mines tend to have higher levels of socioeconomic disadvantage compared to other areas of the UK, with more social housing. Mine water district heating is a potential source of cheaper energy for these communities, but social housing residents must be involved in the transition to new, sustainable energy systems. This will ensure a smooth transition and avoid people feeling like new systems are being imposed on them.

In our new research, we interviewed 18 Gateshead residents about what a switch to mine water heating would mean for them.

We spoke to people from a community where homes are scheduled to move from gas heating to the mine water district heat network. Residents told us about their awareness of mine water heat, their motivations to connect and resources which could support them through the transition. We heard from social housing tenants, homeowners, private renters and landlords to understand how specific issues would affect different people’s lives and homes.




Read more:
How mine water could warm up the UK’s forgotten coal towns


Our participants had limited awareness of mine water heat. Only around a third of participants in our study had previously heard of district heat networks. People had a range of incorrect assumptions about how they work. Improving awareness is clearly needed to enable homeowners to make informed decisions about whether to adopt the new technology. This could involve working with residents to design resources to increase their understanding and ensure that the issues most important to residents are addressed.

Residents we interviewed liked the idea of cleaner, greener energy, but many people said cost would be a barrier unless the mine water heat is cheaper than gas. They would happily “do their bit” for the environment, but not if it means higher bills.

angel of the north big steel sculpture on green grass, blue sky with two people walking towards it along path
The Angel of the North sculpture is built on the site of a former colliery and commemorates the region’s coal mining history.
PJ_Photography/Shutterstock

One homeowner, a woman in her 70s, told us: “We like to do our bit with recycling and trying to save on energy costs, but that’s a luxury. If you’re a pensioner, you can’t. You don’t have unlimited resources … it shouldn’t [cost] any more than an ordinary gas boiler.”

The people we spoke to were proud that heat is being produced from old mines. They felt it connected the area’s coal mining heritage to a more sustainable future. Our participants liked the idea of generating energy from the disused mines in the area. When another 38-year-old resident discovered that the heat came from mine water, they said it “feels like a waste that we haven’t been tapping into that sooner”.

Community co-creation

Mine water district heating schemes provide an opportunity to involve communities in their energy futures. Community engagement ensures that people feel network expansion is being done with them, and not to them.

Raising awareness is important, but that isn’t enough to increase trust and acceptance. Addressing incorrect assumptions that sustainable energy will inherently be more expensive for consumers is key.

In Gateshead, there are cost savings through cheaper energy bills and no maintenance costs to the consumer. Communication of this information to consumers is vital to overcome resistance.

Building a narrative linked to the legacy of energy from coal mines can resonate with communities who are proud of their coal mining heritage. However, that needs to be achieved without glorifying mining history, because so many communities were adversely affected by the consequences of mine closures.


Don’t have time to read about climate change as much as you’d like?

Get a weekly roundup in your inbox instead. Every Wednesday, The Conversation’s environment editor writes Imagine, a short email that goes a little deeper into just one climate issue. Join the 47,000+ readers who’ve subscribed so far.


The Conversation

Michael Smith receives funding from Innovate UK and Northern Net Zero Accelerator.

Faye Doughty does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. How heat from old coal mines became a source of local pride in this northern English town – new study – https://theconversation.com/how-heat-from-old-coal-mines-became-a-source-of-local-pride-in-this-northern-english-town-new-study-269959

These dinner-plate sized computer chips are set to supercharge the next leap forward in AI

Source: The Conversation – UK – By Luo Mai, Reader at the School of Informatics, University of Edinburgh

It’s becoming increasingly difficult to make today’s artificial intelligence (AI) systems work at the scale required to keep advancing. They require enormous amounts of memory to ensure all their processing chips can quickly share all the data they generate in order to work as a unit.

The chips that have mostly been powering the deep-learning boom for the past decade are called graphics processing units (GPUs). They were originally designed for gaming, not for AI models where each step in their thinking process must take place in well under a millisecond.

Each chip contains only a modest amount of memory, so the large language models (LLMs) that underpin our AI systems must be partitioned across many GPUs connected by high-speed networks. LLMs work by training an AI on huge amounts of text, and every part of them involves moving data between chips – a process that is not only slow and energy-intensive but also requires ever more chips as models get bigger.

For instance, OpenAI used some 200,000 GPUs to create its latest model, GPT-5, around 20 times the number used in the GPT-3 model that powered the original version of Chat-GPT three years ago.

To address the limits of GPUs, companies such as California-based Cerebras have started building a different kind of chip called wafer-scale processors. These are the size of a dinner plate, about five times bigger than GPUs, and only recently became commercially viable. Each contains vast on-chip memory and hundreds of thousands of individual processors (known as cores).

The idea behind them is simple. Instead of coordinating dozens of small chips, keep everything on one piece of silicon so data does not have to travel across networks of hardware. This matters because when an AI model generates an answer – a step known as inference – every delay adds up.

The time it takes the model to respond is called latency, and reducing that latency is crucial for applications that work in real-time, such as chatbots, scientific-analysis engines and fraud-detection systems.

Wafer-scale chips alone are not enough, however. Without a software system engineered specifically for their architecture, much of their theoretical performance gain simply never appears.

The deeper challenge

Wafer-scale processors have an unusual combination of characteristics. Each core has very limited memory, so there is a huge need for data to be shared within the chip. Cores can access their own data in nanoseconds, but there are so many cores on each chip over such a large area that reading memory on the far side of the wafer can be a thousand times slower.

Limits in the routing network on each chip also mean that it can’t handle all possible communications between cores at once. In sum, cores cannot access memory fast enough, cannot communicate freely, and ultimately spend most of their time waiting.

Illustration of a computer chip network
Wafer-scale chips get slowed down by communication delays.
Brovko Serhii

We’ve recently been working on a solution called WaferLLM, a joint venture between the University of Edinburgh and Microsoft Research designed to run the largest LLMs efficiently on wafer-scale chips. The vision is to reorganise how an LLM runs so that each core on the chip mainly handles data stored locally.

In what is the first paper to explore this problem from a software perspective, we’ve designed three new algorithms that basically break the model’s large mathematical operations into much smaller pieces.

These pieces are then arranged so that neighbouring cores can process them together, handing only tiny fragments of data to the next core. This keeps information moving locally across the wafer and avoids the long-distance communication that slows the entire chip down.

We’ve also introduced new strategies for distributing different parts (or layers) of the LLM across hundreds of thousands of cores without leaving large sections of the wafer idle. This involves coordinating processing and communication to ensure that when one group of cores is computing, another is shifting data, and a third is preparing its next task.

These adjustments were tested on LLMs like Meta’s Llama and Alibaba’s Qwen using Europe’s largest wafer-scale AI facility at the Edinburgh International Data Facility. WaferLLM made the wafer-scale chips generate text about 100 times faster than before.

Compared with a cluster of 16 GPUs, this amounted to a tenfold reduction in latency, as well as being twice as energy efficient. So whereas some argue that the next leap in AI performance may come from chips designed specifically for LLMs, our results suggest you can instead design software that matches the structure of existing hardware.

In the near term, faster inference at lower cost raises the prospect of more responsive AI tools capable of evaluating many more hypotheses per second. This would improve everything from reasoning assistants to scientific-analysis engines. Even more data-heavy applications like fraud detection and testing ideas through simulations would be able to handle dramatically larger workloads without the need for massive GPU clusters.

The future

GPUs remain flexible, widely available and supported by a mature software ecosystem, so wafer-scale chips will not replace them. Instead, they are likely to serve workloads that depend on ultra-low latency, extremely large models or high energy efficiency, such as drug discovery and financial trading.

Meanwhile, GPUs aren’t standing still: better software and continuous improvements in chip design are helping them run more efficiently and deliver more speed. Over time, assuming there’s a need for even greater efficiency, some GPU architectures may also adopt wafer-scale ideas.

Medicine capsules being made
More powerful AI could unlock new types of drug discovery.
Simplystocker

The broader lesson is that AI infrastructure is becoming a co-design problem: hardware and software must evolve together. As models grow, simply scaling out with more GPUs will no longer be enough. Systems like WaferLLM show that rethinking the software stack is essential for unlocking the next generation of AI performance.

For the public, the benefits will not appear as new chips on shelves but as AI systems that will support applications that were previously too slow or too expensive to run. Whether in scientific discovery, public-sector services or high-volume analytics, the shift toward wafer-scale computing signals a new phase in how AI systems are built – and what they can achieve.

The Conversation

The authors do not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. These dinner-plate sized computer chips are set to supercharge the next leap forward in AI – https://theconversation.com/these-dinner-plate-sized-computer-chips-are-set-to-supercharge-the-next-leap-forward-in-ai-270094

Economic forecasts point to a Democrat win in the 2026 US midterm elections

Source: The Conversation – UK – By Paul Whiteley, Professor, Department of Government, University of Essex

The resounding victories in recent elections by Democrats Zohran Mamdani in New York, Abigail Spanberger in Virginia and Mikie Sherrill in New Jersey has reinvigorated the party after a dismal year since Donald Trump became president.

The victories were not a mandate for a sharp ideological shift to the left. This may be true for Mamdani, but it is not for Spanberger and Sherrill, since both are mainstream centrist Democrats. The main reason for the victories can be seen in the chart below.

Trends in presidential job approval and Donald Trump’s handling of the economy 2025:

The data comes from successive polls in the United States conducted by YouGov on behalf of the Economist magazine. All three candidates focused on the issue of the US economy which proved to be a winning strategy since it is clear the economy strongly affects Donald Trump’s job approval ratings.

As the president’s ratings on the economy decline, so does his job approval ratings. The result is that the Republicans took the blame for failing to deal with the issue.

The midterm Congressional elections in the US are due to take place in November 2026. Given the strong relationship between the economy and support for the president, it is interesting to examine how the economy is likely to influence support for the Democrats in those elections.

To investigate this, we can look at elections to the House of Representatives over a long period, given that they occur every two years.

The graph below compares the number of House seats won by the Democrats and economic growth in the US in all 40 House elections since 1946. Economic growth is weighted so that the Democrats benefit from high growth when they control the House but are penalised by this when the Republicans are in control.

This also works in reverse with low growth producing a poor electoral performance for the party when Democrats are in charge and a good performance when the Republicans are in control.

The relationship between economic growth and House seats won by Democrats 1946 to 2024:

The impact of the economy on voting in these elections is clearly quite strong, but the number of House seats won declines as the party’s majority gets larger. This is what is known as a “ceiling” effect meaning that when the majority is very large it is difficult to win more seats even in a thriving economy.

But this relationship can nonetheless be used to develop a forecasting model of the seats likely to be captured by the party in midterm elections next year.

When forecasting seats, an additional factor to consider is the inertia of party support over successive elections. If the Democrats did well in one year, they were likely to do well two years later.

For example, in 2008 when Barack Obama won the presidential election, the Democrats captured 233 House seats and the Republicans 202. In the following midterm election in 2010 the party won 257 seats while the Republicans won 178 and so the Democrats retained control of the House.

At the moment the House has a Republican majority of 219 against 213 Democrats. So Republican control is quite vulnerable to a surge in support for the Democrats.

Multiple regression analysis

The forecasting model involves a multiple regression analysis. This uses several variables to predict the behaviour of a specific variable – in this case the number of House seats won by the Democrats.

In addition to the two variables already mentioned, approval ratings and the performance of the economy, the fact that the incumbent president is a Republican is included in the modelling as well since this influences the vote for the Democrats.

We know the number of House seats from the 2024 election and the fact that Trump is a Republican, so to forecast Democrat House seats we need a prediction for economic growth in 2026.

The Federal Reserve Bank of St Louis provides data which forecasts growth in the US economy up to 2028. It predicts that growth in real terms will be 1.8% in 2026 – and when this is included in the modelling, the overall forecast from these variables is 80% accurate.

If a variable is a perfect predictor of House seats it would score 1.0 and if it failed to predict any seats at all it would score 0. The impact of growth on seats when the Democrats controlled the House was 0.75, the inertia effect of past Democrat seats was 0.26 and Trump’s presidency was 0.19.

Low growth boosts Democrats’ prospects

Clearly economic growth dominates the picture showing that low growth rates next year will strengthen the Democrat challenge. This is likely to happen since a recent IMF report suggests that US growth is likely to slow next year.

Actual and predicted House seats in elections 1946 to 2026:

The third chart shows the relationship between Democratic House seats predicted by the model and the actual number of seats won by the party. The predictions track the actual number of Democrat House seats fairly closely and so the forecast should be reasonably accurate

It should be noted that all forecasting models are subject to significant errors. As the chart shows, the predicted number of seats is not the same as the actual number and if something unforeseen happens the predictions could be wrong. That said, however, the forecast is that the Democrats will win 223 seats – an increase of ten over their performance in 2024. This will give them enough to hand them control of the House.

The Conversation

Paul Whiteley has received funding from the British Academy and the ESRC.

ref. Economic forecasts point to a Democrat win in the 2026 US midterm elections – https://theconversation.com/economic-forecasts-point-to-a-democrat-win-in-the-2026-us-midterm-elections-270178

Five everyday habits that could be harming your pancreas

Source: The Conversation – UK – By Dipa Kamdar, Senior Lecturer in Pharmacy Practice, Kingston University

A few everyday habits play a major role in pancreatic damage. carlesmiro/Shutterstock

The pancreas is essential for staying alive and healthy. This small organ sits behind the stomach and has two main jobs. It produces digestive enzymes that break down food and hormones such as insulin and glucagon that control blood sugar.

Everyday habits such as heavy drinking and unhealthy eating can gradually damage the pancreas. Once injured, the consequences can be serious and include inflammation, diabetes and, in some cases, cancer.

Several common lifestyle factors can put the pancreas under strain:

1. Alcohol

Regular heavy drinking is one of the leading causes of pancreatitis. Acute pancreatitis causes severe abdominal pain, nausea and vomiting and often needs hospital care. Repeated episodes can develop into chronic pancreatitis, where long-lasting inflammation and scarring permanently reduce pancreatic function. This can lead to malabsorption of fats, vitamins and other nutrients, diabetes and a higher risk of pancreatic cancer. Researchers have several theories about how this damage occurs.

Alcohol can cause digestive enzymes such as trypsin, which normally work in the small intestine, to activate inside the pancreas before they reach the gut. Instead of digesting food, they digest pancreatic tissue and trigger severe inflammation.

Alcohol also makes pancreatic juices thicker and stickier. These thicker fluids can form protein plugs that harden into stones and block tiny ducts. Over time this causes irritation, scarring and the loss of pancreatic cells. When the pancreas breaks down alcohol it produces a toxic chemical called acetaldehyde that irritates and damages cells and triggers inflammation.

Alcohol also encourages the release of chemical messengers that switch on inflammation and keep it active. This makes tissue damage more likely.

Guidelines recommend drinking no more than 14 units of alcohol per week. It is safest to spread this across several days and to avoid binge drinking.

2. Smoking

Smoking increases the risk of both acute and chronic pancreatitis. Acute pancreatitis develops suddenly with severe pain and sickness. Chronic pancreatitis develops over many years and repeated inflammation causes permanent damage. Several studies show that the more someone smokes, the higher the risk. Another study found that quitting significantly reduces risk, and after about 15 years the risk can fall close to that of a non smoker.

Smoking is also strongly linked to pancreatic cancer. Scientists do not yet fully understand every mechanism, but laboratory studies show that nicotine can trigger sudden increases in calcium inside pancreatic cells. Too much calcium harms cells and worsens inflammation. Tobacco smoke also contains carcinogens that damage DNA.

One of the earliest genetic changes in pancreatic cancer involves a gene called Kras, which acts like a switch that controls how cells grow. In more than 90 percent of pancreatic cancers this gene is mutated, which locks the growth switch in the on position and encourages uncontrolled cell growth.

3. Diet

Diet affects the pancreas in several ways. Eating a lot of saturated fat, processed meat or refined carbohydrates raises the risk of pancreatic problems.

One major cause of acute pancreatitis is gallstones. Gallstones can block the bile duct and trap digestive enzymes inside the pancreas. When enzymes build up they begin to damage the organ. Diet contributes to gallstone formation because high cholesterol levels make bile more likely to form stones.

Another type of fat in the blood is triglycerides. When triglycerides rise to very high levels, large fat particles known as chylomicrons can clog tiny blood vessels in the pancreas. This reduces oxygen supply and triggers the release of harmful fatty acids that irritate pancreatic tissue.

Frequent spikes in blood sugar from high sugar foods also strain the pancreas. Constant surges in insulin over time reduce insulin sensitivity and may increase the risk of pancreatic cancer.

4. Obesity

Obesity increases the risk of acute pancreatitis, chronic pancreatitis and pancreatic cancer. Fat can accumulate in and around the pancreas, a condition called pancreatic steatosis or non-alcoholic fatty pancreatic disease. This build up can replace healthy cells and weaken the organ.

Excess body fat also increases levels of pro-inflammatory molecules such as TNF-alpha and IL-6, creating long-lasting inflammation that supports tumour growth. Obesity disrupts insulin sensitivity and hormone signals from fat tissue. Gallstones are more common in people who are obese and can increase the risk of pancreatitis.

5. Physical inactivity

A sedentary lifestyle worsens insulin resistance and forces the pancreas to produce more insulin. Without activity to help muscles absorb glucose, the pancreas remains under constant strain. This metabolic stress increases susceptibility to diabetes and pancreatic cancer.

Physical activity may lower pancreatic cancer risk both directly and indirectly. It supports immune function, improves cell health, reduces obesity and lowers type 2 diabetes risk. Regular movement strengthens antioxidant defences and increases the activity of disease fighting immune cells.

Pancreatic cancer may lead to diabetes, as a damaged pancreas cannot produce enough insulin. Diabetes can increase the risk of pancreatic cancer.

Adults are encouraged to include strength training at least twice a week and to aim for 150 minutes of moderate activity or 75 minutes of vigorous activity each week.

Because pancreatic conditions can be life threatening, recognising early symptoms is important. Seek medical advice if you have persistent abdominal pain, unexplained weight loss, loss of appetite, nausea or vomiting that do not settle, jaundice, greasy or foul smelling stools or chronic fatigue.

Many risks are modifiable. Limiting alcohol intake, quitting smoking, eating a diet rich in fruit, vegetables and whole grains and being physically active all reduce the likelihood of pancreatic disease. Even small changes such as choosing plant-based protein or cutting back on sugary drinks help lighten the load on this vital organ.

By understanding how the pancreas becomes damaged and by noticing symptoms early, you can take simple steps to protect it. Look after your pancreas and it will look after you.

The Conversation

Dipa Kamdar does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Five everyday habits that could be harming your pancreas – https://theconversation.com/five-everyday-habits-that-could-be-harming-your-pancreas-266647

Testimony: new documentary shows a stark reckoning with Ireland’s Magdalene past – and the long fight for justice

Source: The Conversation – UK – By Ruth Barton, Fellow Emeritus in Film Studies, Trinity College Dublin

The scandal of the religious-run Magdalene laundries, where young women deemed to have offended the moral code of the Catholic Church were incarcerated and put to work, is a stain on the public history of the Irish state. It has taken years of campaigning to bring this injustice to light.

Even now, it is more than feasible that further revelations will emerge. They did in 2012, when amateur historian Catherine Corliss uncovered evidence of a mass grave containing the remains of 796 infants at St Mary’s mother-and-baby home in Tuam, Co Galway.

Overall, it is estimated that a minimum of 10,000 women were sent to the institutions in the years from the founding of the state in 1922 to the closure of the final Magdalene laundry in 1996. Most were forced into unpaid, brutalising work in the profitable laundry system.

The new documentary, Testimony, directed by Aoife Kelleher, takes up where earlier campaigning films left off. Its most notable progenitor is Sex in a Cold Climate (1998), in which four women narrated to-camera their memories of the laundries. It was as shocking then as now to see elderly, dignified, smartly dressed women weeping at the memory of having their children taken from them.

The trauma they endured is unimaginable. Sex in a Cold Climate was the inspiration for The Magdalene Sisters in 2002. Since then, Philomena (2013), based on the real story of Philomena Lee, who also speaks in Testimony, shone a light on the trade in babies, many of them to homes in the US, perpetrated by the Magdalene institutions in collusion with the Irish state.

Most recently, Small Things Like These (2024), adapted from the novella by Claire Keegan, asked its viewers what they would have done if they had been confronted with the truth of what was going on in those grim buildings.

The trailer for Testimony.

Testimony alternates to-camera interviews with survivors with the history of how the group, Justice for Magdalenes, was founded. We follow this collection of determined campaigners as they take on the Irish government and force them to acknowledge their historic complicity in this story.

Recognising that descriptions of slow, detailed legal work do not make for dynamic viewing, the filmmakers rely on explaining the legal process through the key figure of the Irish human rights lawyer, Maeve O’Rourke, an articulate, engaging presence on screen.

At the same time, the documentary acknowledges that the true heroes are the women whose stories of abuse and exploitation are as harrowing as when they were first heard. Regrettably, now as previously, the religious orders declined to participate.

Testimony is effectively a two-part film. One “ending” comes in at around the 55-minute mark with the triumphant arrival of a group of 220 Magdalene survivors and their families to a civic reception in Dublin. As the coaches roll in, they are greeted by cheering members of the public. This deeply moving sequence draws its strength from the women’s own emotions as they take in the faces and placards among the crowds. As one says: “That for me was my healing.”

The film then restarts with the stories of the children who were trafficked out of the state, interweaving this with the campaigners’ attempts to force the government into offering appropriate recompense. This segment opens with footage of the discovery of the Tuam burials and again returns to the voices of survivors, both mothers and children, including Philomena Lee. It also touches on the illegal vaccine trials conducted on children born in the homes.

Deprived of a similarly cathartic ending to the first segment, the film concludes by imploring the Irish government and the religious institutions to make available all the records held on the Magdalene laundries.

Testimony will never reach the audiences that fictional films on the subject can. At the same time, this campaigning documentary is an essential reminder of a society’s efforts to contain female sexuality, particularly that of its most vulnerable members. It is equally a demonstration of how the law can be used to fight injustice. We needn’t be so complacent as to assume none of this could happen again.


Looking for something good? Cut through the noise with a carefully curated selection of the latest releases, live events and exhibitions, straight to your inbox every fortnight, on Fridays. Sign up here.


The Conversation

Ruth Barton does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Testimony: new documentary shows a stark reckoning with Ireland’s Magdalene past – and the long fight for justice – https://theconversation.com/testimony-new-documentary-shows-a-stark-reckoning-with-irelands-magdalene-past-and-the-long-fight-for-justice-270103

« Les Dents de la mer », ou comment deux notes de musique ont révolutionné le cinéma

Source: The Conversation – France (in French) – By Jared Bahir Browsh, Assistant Teaching Professor of Critical Sports Studies, University of Colorado Boulder

Pour beaucoup d’historiens du cinéma, le film _Les Dents de la mer_ (1975) fut le premier blockbuster. Steve Kagan/Getty Images

La séquence de deux notes légendaires, qui fait monter la tension dans « les Dents de la mer », géniale trouvaille du compositeur John Williams, trouve son origine dans la musique classique du début du XXᵉ siècle, mais aussi chez Mickey Mouse et chez Hitchcock.


Depuis les Dents de la mer, deux petites notes qui se suivent et se répètent – mi, fa, mi, fa – sont devenues synonymes de tension, et suscitent dans l’imaginaire collectif la terreur primitive d’être traqué par un prédateur, en l’occurrence un requin sanguinaire.

Il y a cinquante ans, le film à succès de Steven Spielberg – accompagné de sa bande originale composée par John Williams – a convaincu des générations de nageurs de réfléchir à deux fois avant de se jeter à l’eau.

En tant que spécialiste de l’histoire des médias et de la culture populaire, j’ai décidé d’approfondir la question de la longévité de cette séquence de deux notes et j’ai découvert qu’elle était l’héritage direct de la musique classique du XIXe siècle, mais qu’elle a aussi des liens avec Mickey Mouse et le cinéma d’Alfred Hitchcock.

Lorsque John Williams a proposé un thème à deux notes pour les Dents de la mer, Steven Spielberg a d’abord pensé qu’il s’agissait d’une blague.

Le premier blockbuster estival de l’histoire

En 1964, le pêcheur Frank Mundus tue un grand requin blanc de deux tonnes au large de Long Island au nord-est des États-Unis.

Après avoir entendu cette histoire, le journaliste indépendant Peter Benchley se met à écrire un roman qui raconte comment trois hommes tentent de capturer un requin mangeur d’hommes, en s’inspirant de Mundus pour créer le personnage de Quint. La maison d’édition Doubleday signe un contrat avec Benchley et, en 1973, les producteurs d’Universal Studios, Richard D. Zanuck et David Brown, achètent les droits cinématographiques du roman avant même sa publication. Spielberg, alors âgé de 26 ans, est engagé pour réaliser le film.

Exploitant les peurs à la fois fantasmées et réelles liées aux grands requins blancs – notamment une série tristement célèbre d’attaques de requins le long de la côte du New Jersey en 1916 –, le roman de Benchley publié en 1974, devient un best-seller. Le livre a joué un rôle clé dans la campagne marketing d’Universal, qui a débuté plusieurs mois avant la sortie du film.

À partir de l’automne 1974, Zanuck, Brown et Benchley participent à plusieurs émissions de radio et de télévision afin de promouvoir simultanément la sortie de l’édition de poche du roman et celle à venir du film. La campagne marketing comprend également une campagne publicitaire nationale à la télévision qui met en avant le thème à deux notes du compositeur émergent John Williams. Le film devait sortir en été, une période qui, à l’époque, était réservée aux films dont les critiques n’étaient pas très élogieuses.

Les publicités télévisées faisant la promotion du film mettaient en avant le thème à deux notes de John Williams.

À l’époque, les films étaient généralement distribués petit à petit, après avoir fait l’objet de critiques locales. Cependant, la décision d’Universal de sortir le film dans des centaines de salles à travers le pays, le 20 juin 1975, a généré d’énormes profits, déclenchant une série de quatorze semaines en tête du box-office américain.

Beaucoup considèrent les Dents de la mer comme le premier véritable blockbuster estival. Le film a propulsé Spielberg vers la célébrité et marqué le début d’une longue collaboration entre le réalisateur et Williams, qui allait remporter le deuxième plus grand nombre de nominations aux Oscars de l’histoire, avec 54 nominations, derrière Walt Disney et ses 59 nominations.

Le cœur battant du film

Bien qu’elle soit aujourd’hui considérée comme l’une des plus grandes musiques de l’histoire du cinéma, lorsque Williams a proposé son thème à deux notes, Spielberg a d’abord pensé qu’il s’agissait d’une blague.

Mais Williams s’était inspiré de compositeurs des XIXe et XXe siècles, notamment Claude Debussy (1862-1918), Igor Stravinsky (1882-1971) et surtout de la Symphonie n° 9 (1893), d’Antonin Dvorak (1841-1904), dite Symphonie du Nouveau Monde. Dans le thème des Dents de la mer, on peut entendre des échos de la fin de la symphonie de Dvorak, et reconnaître l’emprunt à une autre œuvre musicale, Pierre et le Loup (1936), de Sergueï Prokofiev.

Pierre et le Loup et la bande originale des Dents de la mer sont deux excellents exemples de leitmotivs, c’est-à-dire de morceaux de musique qui représentent un lieu ou un personnage.

Le rythme variable de l’ostinato – un motif musical qui se répète – suscite des émotions et une peur de plus en plus intenses. Ce thème est devenu fondamental lorsque Spielberg et son équipe technique ont dû faire face à des problèmes techniques avec les requins pneumatiques. En raison de ces problèmes, le requin n’apparaît qu’à la 81ᵉ minute du film qui en compte 124. Mais sa présence se fait sentir à travers le thème musical de Williams qui, selon certains experts musicaux, évoque les battements du cœur du requin.

Un faux requin émergeant et attaquant un acteur sur le pont d’un bateau de pêche
Pendant le tournage, des problèmes avec le requin mécanique ont contraint Steven Spielberg à s’appuyer davantage sur la musique du film.
Screen Archives/Moviepix/Getty Images

Des sons pour manipuler les émotions

Williams doit également remercier Disney d’avoir révolutionné la musique axée sur les personnages dans les films. Les deux hommes ne partagent pas seulement une vitrine remplie de trophées. Ils ont également compris comment la musique peut intensifier les émotions et amplifier l’action.

Bien que sa carrière ait débuté à l’époque du cinéma muet, Disney est devenu un titan du cinéma, puis des médias, en tirant parti du son pour créer l’une des plus grandes stars de l’histoire des médias, Mickey Mouse.

Lorsque Disney vit le Chanteur de jazz en 1927, il comprit que le son serait l’avenir du cinéma.

Le 18 novembre 1928, Steamboat Willie fut présenté en avant-première au Colony Theater d’Universal à New York. Il s’agissait du premier film d’animation de Disney à intégrer un son synchronisé avec les images.

Contrairement aux précédentes tentatives d’introduction du son dans les films en utilisant des tourne-disques ou en faisant jouer des musiciens en direct dans la salle, Disney a utilisé une technologie qui permettait d’enregistrer le son directement sur la bobine de film. Ce n’était pas le premier film d’animation avec son synchronisé, mais il s’agissait d’une amélioration technique par rapport aux tentatives précédentes, et Steamboat Willie est devenu un succès international, lançant la carrière de Mickey et celle de Disney.

L’utilisation de la musique ou du son pour accompagner le rythme des personnages à l’écran fut baptisée « mickeymousing ».

En 1933, King Kong utilisait habilement le mickeymousing dans un film d’action réelle, avec une musique calquée sur les états d’âme du gorille géant. Par exemple, dans une scène, Kong emporte Ann Darrow, interprétée par l’actrice Fay Wray. Le compositeur Max Steiner utilise des tonalités plus légères pour traduire la curiosité de Kong lorsqu’il tient Ann, suivies de tonalités plus rapides et inquiétantes lorsque Ann s’échappe et que Kong la poursuit. Ce faisant, Steiner encourage les spectateurs à la fois à craindre et à s’identifier à la bête tout au long du film, les aidant ainsi à suspendre leur incrédulité et à entrer dans un monde fantastique.

Le mickeymousing a perdu de sa popularité après la Seconde Guerre mondiale. De nombreux cinéastes le considéraient comme enfantin et trop simpliste pour une industrie cinématographique en pleine évolution et en plein essor.

Les vertus du minimalisme

Malgré ces critiques, cette technique a tout de même été utilisée pour accompagner certaines scènes emblématiques, avec, par exemple, les violons frénétiques qui accompagne la scène de la douche dans Psychose (1960), d’Alfred Hitchcock, dans laquelle Marion Crane se fait poignarder.

Spielberg idolâtrait Hitchcock. Le jeune Spielberg a même été expulsé des studios Universal après s’y être faufilé pour assister au tournage du Rideau déchiré, en 1966.

Bien qu’Hitchcock et Spielberg ne se soient jamais rencontrés, les Dents de la mer sont sous l’influence d’Hitchcock, le « maître du suspense ». C’est peut-être pour cette raison que Spielberg a finalement surmonté ses doutes quant à l’utilisation d’un élément aussi simple pour représenter la tension dans un thriller.

Un jeune homme aux cheveux mi-longs parle au téléphone devant l’image d’un requin à la gueule ouverte
Steven Spielberg n’avait que 26 ans lorsqu’il a signé pour réaliser les Dents de la mer.
Universal/Getty Images

L’utilisation du motif à deux notes a ainsi permis à Spielberg de surmonter les problèmes de production rencontrés lors de la réalisation du premier long métrage tourné en mer. Le dysfonctionnement du requin animatronique a contraint Spielberg à exploiter le thème minimaliste de Williams pour suggérer la présence inquiétante du requin, malgré les apparitions limitées de la star prédatrice.

Au cours de sa carrière légendaire, Williams a utilisé un motif sonore similaire pour certains personnages de Star Wars. Chaque fois que Dark Vador apparaissait, la « Marche impériale » était jouée pour mieux souligner la présence du chef du côté obscur.

Alors que les budgets des films avoisinent désormais un demi-milliard de dollars (plus de 434 millions d’euros), le thème des Dents de la mer – comme la façon dont ces deux  notes suscitent la tension – nous rappelle que dans le cinéma, parfois, le minimalisme peut faire des merveilles.

The Conversation

Jared Bahir Browsh ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. « Les Dents de la mer », ou comment deux notes de musique ont révolutionné le cinéma – https://theconversation.com/les-dents-de-la-mer-ou-comment-deux-notes-de-musique-ont-revolutionne-le-cinema-268947

On peut réactiver un souvenir ou le faire disparaître de façon réversible – chez la souris

Source: The Conversation – France in French (2) – By Jean-Christophe Cassel, Professeur de neurosciences à l’Université de Strasbourg, Université de Strasbourg

Comprendre les mécanismes qui régissent notre mémoire à l’échelle des neurones est un enjeu de taille. Nikolett Emmert/Unsplash, CC BY

Après avoir démontré que les souvenirs s’inscrivent de façon matérielle dans notre cerveau, les scientifiques s’attèlent à la tâche de réactiver des souvenirs attaqués par des maladies neurodégénératives chez des souris.


Chacun sait ce qu’est un souvenir : un événement, une odeur, une sensation de notre passé que nous pouvons rappeler. Mais à quoi ressemble-t-il dans notre cerveau ?

Il est porté par des groupes de neurones interconnectés. À cette échelle, le support du souvenir est appelé « engramme ». Ce mot désigne le substrat matériel constitué par un réseau spécifique de neurones, dont les interconnexions se sont renforcées durablement lors de la mémorisation. Ainsi, quand on se souvient, une partie de ce réseau est réactivée. Les recherches récentes montrent comment se fait cette réactivation et comment on peut la contrôler de façon réversible chez la souris.

Mieux comprendre les mécanismes cellulaires qui sous-tendent nos souvenirs est un enjeu de taille, car nombre de maladies neurodégénératives et de traumatismes altèrent notre mémoire, non seulement en perturbant l’accès aux images de notre passé, mais aussi en s’attaquant directement au matériel biologique dans lequel ces images sont fixées.

Comment les souvenirs s’inscrivent dans le cerveau

L’idée que nos souvenirs ne sont pas quelque chose d’immatériel mais ont un support physique est ancienne. Déjà Platon imaginait que l’âme recèle des tablettes de cire dans lesquelles se grave ce que nous voulons retenir.

Mais il a fallu bien longtemps pour affiner cette intuition, puis pour la démontrer expérimentalement. À la fin du XIXe siècle, l’Espagnol Santiago Ramon y Cajal pense que les connexions entre certains neurones sont renforcées lors d’activations répétées accompagnant l’apprentissage – ainsi se formerait le souvenir.

Dans les années 1960, ces spéculations commencent à trouver une assise expérimentale. C’est d’abord chez un mollusque marin, l’aplysie, qu’on les démontre. Lorsqu’on stimule mécaniquement une partie de son dos, il rétracte ses branchies pour les protéger. Mais si cette stimulation est répétée quelques fois, le réflexe s’atténue durablement. Cette adaptation repose sur une réduction prolongée de l’excitabilité synaptique et du nombre de synapses dans le circuit moteur qui pilote la rétraction.

À l’inverse, une sensibilisation de ce réflexe, déclenchée par une stimulation nociceptive (douleur déclenchée par une agression de l’organisme, ndlr) appliquée sur la queue de l’animal, provoque une augmentation persistante de l’excitabilité synaptique et fait apparaître des connexions additionnelles. En 1973, un mécanisme du même type est décrit dans l’hippocampe du lapin – il est nommé « potentialisation à long terme ».

Pour désigner l’encodage permanent dans le substrat cérébral des éléments d’une expérience vécue, rappelons la formule laconique de Carla Shatz :

« Neurons that fire together, wire together » (Les neurones qui se coactivent s’interconnectent.) Carla Shatz, 1992, « Scientific American »

Observer directement les souvenirs en « allumant » les neurones interconnectés

Si les neurones coactivés au cours de l’encodage se réactivent pour permettre le rappel d’un souvenir (Figure 1), on doit pouvoir prouver que leur réactivation accompagne le rappel du souvenir et montrer que leur destruction l’empêche.

Pour ce qui est de la réactivation lors du rappel, le groupe de Mark Mayford a appris à des souris à reconnaître un signal sonore annonçant un choc électrique désagréable. Lorsque plus tard, les souris réentendent ce son, leur immobilité traduit la peur, donc une réactivation du souvenir de ce qu’annonce le son.

Pour imager les neurones qui portent la réactivation du souvenir, voici la procédure : avant l’apprentissage, on infecte des cellules de l’amygdale
– une structure cruciale pour les émotions, dont la peur – avec un virus qui permettra de rendre fluorescents les neurones activés pendant l’apprentissage. Ultérieurement, une fois que ces souris ont réentendu le son, elles sont mises à mort et, à l’aide d’un second marquage, on visualise les neurones qui se sont activés pendant ce rappel. Du coup, les neurones doublement marqués auront été activés pendant l’apprentissage et réactivés pendant le rappel. Or, Mayford et ses collègues constatent qu’il y a bien eu augmentation du double marquage chez les souris ayant eu peur pendant le rappel (comparativement aux différentes conditions de contrôle).

Pour ce qui est de la destruction des neurones qui aboutissent à l’anéantissement du souvenir, on utilisera également une stratégie reposant sur une infection virale des neurones de l’amygdale, mais cette fois, les neurones activés pendant l’apprentissage seront tués avant le rappel à l’aide d’une toxine. De cette manière, le groupe de Paul Frankland a pu montrer qu’une destruction de ces neurones faisait disparaître toute réaction de peur chez les souris car, du fait de la mort des neurones « souvenir », elles ont oublié la signification du signal sonore.

Comment réactiver un souvenir ou le faire disparaître de façon réversible ?

Aujourd’hui, les chercheurs ont peaufiné cette démonstration en parvenant à manipuler ponctuellement et réversiblement l’engramme (le réseau de neurones souvenirs) pour induire l’expression ou la disparition d’un souvenir.

C’est là qu’intervient une technique relativement récente : l’optogénétique. Elle permet de contrôler (soit activer, soit inhiber) avec une grande précision l’activité de certains neurones en les exposant à de la lumière par l’intermédiaire d’une fibre optique plongée dans une région d’intérêt du cerveau. Il suffit pour cela de rendre ces neurones sensibles à une longueur d’onde lumineuse par introduction de gènes codant pour des protéines photosensibles. De plus, il est possible de faire dépendre l’expression de ces gènes de l’activation même des neurones.

C’est ainsi que le groupe de Susumu Tonegawa a pu montrer, chez la souris, qu’après l’apprentissage d’un danger lié à un contexte donné, l’activation par la lumière des neurones ayant participé à l’apprentissage induisait un comportement de peur, donc un rappel… et cela dans un contexte sans danger bien connu de la souris, et sans rapport avec celui de l’apprentissage ! Par ailleurs, lorsque ces neurones étaient inhibés par la lumière dans le contexte dangereux, la souris ne manifestait plus aucune peur.

Implanter un faux souvenir

Il y a même mieux, puisque le groupe de Tonegawa a aussi réussi à implanter un faux souvenir dans la mémoire des souris.

Les souris ont d’abord encodé un premier contexte parfaitement neutre. Les neurones ayant été activés pendant l’encodage de ce contexte ont exprimé une protéine photoactivable avec de la lumière bleue. Les chercheurs ont ensuite exposé ces souris à un autre contexte, celui-là désagréable, tout en activant conjointement la trace du premier avec de la lumière bleue.

Lorsque les souris étaient ultérieurement réexposées au premier contexte (pourtant neutre, à la base), elles se sont mises à le craindre.

Enfin, dans un modèle murin de maladie d’Alzheimer, le groupe de Tonegawa est même allé jusqu’à ressusciter un souvenir le temps d’une photoactivation d’un engramme d’abord rendu photoactivable mais ultérieurement oublié, alors même que celui-ci était invalidé du fait de l’évolution d’un processus neurodégénératif.

Pour l’heure, ces résultats, bien que spectaculaires, et avec lesquels s’alignent les données produites par d’autres groupes de recherche, se limitent à des mémoires simples qui pilotent des comportements simples dans des modèles animaux raisonnablement complexes.

Reste à savoir si les travaux menés sur ces modèles sont généralisables sans nuances à l’humain, et par quel mécanisme un motif d’activation neuronale peut générer des images et des impressions passées dans une phénoménologie consciente actuelle.


Cet article est publié dans le cadre de la Fête de la science (qui a eu lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.

The Conversation

Jean-Christophe Cassel a reçu des financements de l’ANR. ANR-14-CE13-0029-01
ANR-23-CE37-0012-02

ref. On peut réactiver un souvenir ou le faire disparaître de façon réversible – chez la souris – https://theconversation.com/on-peut-reactiver-un-souvenir-ou-le-faire-disparaitre-de-facon-reversible-chez-la-souris-267656