Stonewall, Compton… Quand des femmes trans et racisées ont lancé la lutte LGBTQIA+

Source: The Conversation – Indonesia – By Deion Scott Hawkins, Assistant Professor of Argumentation & Advocacy, Emerson College

Les femmes trans noires et latinas ont été à l’avant-garde de la lutte LGBTQIA+ aux États-Unis. Photo prise lors d’une marche des fiertés à New York, dans les années 1980. Mariett Pathy Allen/Getty Images

Encore trop souvent effacées des récits, les femmes trans, queers et racisées ont joué un rôle crucial dans la lutte pour les droits LGBTQIA+. Ce sont même elles qui ont lancé la fameuse révolte de Stonewall dans les années 1960 de même qu’une autre rébellion, quelques années auparavant, à San Francisco. Retour sur ces actes de résistance et sur le rôle de celles qui, parmi les premières, se sont levées pour les droits des personnes queer.


On ne sait pas exactement qui a lancé la première brique au Stonewall Inn, cette nuit de 1969 à New York qui a marqué un tournant dans la lutte pour les droits LGBTQIA+. Selon la mythologie queer, ce pourrait être Marsha P. Johnson, femme trans noire emblématique de la libération gay, ou Sylvia Rivera, femme trans latina. Mais leurs témoignages contredisent cette version. Marsha P. Johnson a reconnu être arrivée après le début de l’émeute, tandis que Sylvia Rivera a déclaré dans un entretien :

« Beaucoup d’historiens m’attribuent le premier cocktail Molotov, mais j’aime rétablir la vérité : j’ai lancé le second, pas le premier ! »

La scène la plus probable n’implique ni brique ni cocktail Molotov, mais l’appel à l’aide de Stormé DeLarverie, lesbienne métisse. Alors qu’on l’embarquait dans une voiture de police, elle aurait crié à ses camarades queer :

« Vous n’allez rien faire ? »

À l’époque, le bar Stonewall Inn appartenait à la mafia et comme il s’agissait d’un période avec des lois très restrictives sur l’alcool, ce lieu nocturne populaire pour la communauté LGBTQIA+ était une cible facile pour les descentes de police.

Vers 2 heures du matin, la police de New York est intervenue pour faire évacuer le bar à l’heure de sa fermeture. Au départ, la majorité des clients ont coopéré, mais face à l’escalade des violences policières et des arrestations, les clients – en grande majorité queer – ont riposté. Si les circonstances exactes du début de l’émeute restent floues, il est établi que Marsha P. Johnson et Sylvia Rivera étaient présentes. Elles deviendront par la suite des figures majeures du mouvement pour les droits des personnes LGBTQIA+ et de la résistance queer.

Leur mobilisation – tout comme un acte de rébellion antérieur peu connu – montre à quel point les femmes queer racisées ont été en première ligne de la lutte pour les droits LGBTQIA+ et néanmoins invisibilisées. Malgré certains progrès sociaux, les femmes trans racisées continuent d’en payer le prix, parfois de leur vie.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Perceptions erronées des émeutes de Stonewall

Le récit des évènements de Stonewall a été largement connu du grand public avec la sortie du film Stonewall en 2015. Ce film a été vivement critiqué pour la façon dont il a blanchi l’histoire et effacé le rôle des personnes queer racisées dans celle-ci.

Marsha P. Johnson lors de la marche des fiertés de 1982, vêtue d’une combinaison noire à sequins
Marsha P. Johnson lors de la marche des fiertés de 1982, vêtue d’une combinaison noire à sequins.
Barbara Alper/Getty Images

Dans cette fiction, c’est un homme blanc gay qui jette la première brique – une version démentie par presque tous les témoignages. Ce sont au contraire des personnes queer racisées, souvent non conformes au genre, qui ont mené la révolte. Et qui sont trop souvent effacées de la mémoire collective.

Avant Stonewall, une autre révolte oubliée

Stonewall n’a pas été pas le premier acte de résistance publique pour les droits LGBTQIA+. Le soulèvement de la cafétéria Compton a eu lieu trois ans plus tôt, à San Francisco, dans le quartier du Tenderloin.

Dans les années 1960, cette cafétéria était un lieu de rencontre nocturne populaire pour les personnes transgenres, en particulier les femmes trans. La direction du lieu et la police soumettaient ces communautés marginalisées à un harcèlement et à des mauvais traitements constants. Les femmes trans étaient souvent arrêtées en vertu de lois sur l’usurpation d’identité féminine et devaient faire face à des humiliations publiques et à des violences physiques récurrentes.

En août 1966, un incident survenu à la cafétéria de Compton a déclenché une vague de résistance. Le documentaire Screaming Queens montre les injustices subies par la communauté trans à l’époque, principalement des femmes trans racisées et travailleuses du sexe.

Après des années de mauvais traitements, un groupe de femmes trans, de drag queens et de personnes non conformes au genre ont décidé qu’ils et elles en avaient assez. Lorsqu’un policier a tenté d’arrêter une femme trans, elle lui a jeté sa tasse de café chaud au visage. Cet acte de résistance a déclenché un soulèvement spontané dans la cafétéria et dans les rues. Quelques instants plus tard, une voiture de police était renversée. À la fin de la manifestation, la police avait arrêté des dizaines de personnes et en avait battu beaucoup d’autres.

Malgré son importance historique, cette révolte à la cafétéria de Compton est restée dans l’ombre. Elle a pourtant semé les graines d’un mouvement plus large de résistance.

La haine sévit toujours

Malgré les avancées, les femmes trans racisées restent particulièrement vulnérables. Elles connaissent notamment des taux de chômage plus élevés, une stigmatisation médicale accrue, une confiance brisée avec les forces de l’ordre et un risque de VIH disproportionné.

Le documentaire primé Kokomo City, éclairant sur la transphobie.

En outre, les meurtres de personnes trans ont presque doublé entre 2017 (29 décès) et 2021 (56), selon l’association Everytown for Gun Safety. La Human Rights Commission montre que les femmes trans noires et latinas restent les plus exposées.

Certains agresseurs échappent encore à la prison en invoquant une « défense de panique » : ils imputent leur réaction violente à la peur suscitée par l’identité de genre ou l’orientation sexuelle de la victime.

Ces dernières années, les meurtres de plusieurs femmes trans noires, dont Cashay Henderson, ou KoKo Da Doll, protagoniste du documentaire primé Kokomo City), rappellent l’ampleur persistante des violences queerphobes.

The Conversation

Deion Scott Hawkins ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Stonewall, Compton… Quand des femmes trans et racisées ont lancé la lutte LGBTQIA+ – https://theconversation.com/stonewall-compton-quand-des-femmes-trans-et-racisees-ont-lance-la-lutte-lgbtqia-259808

La posture queer dans l’art : un rempart contre l’essentialisation

Source: The Conversation – Indonesia – By Nicola Lo Calzo, Chercheur en art et représentations queer et décoloniales, École nationale supérieure d’arts de Paris-Cergy (ENSAPC)

Un processus inédit est en cours au sein du monde de l’art, la question de la visibilité des artistes « subalternes » et des récits dominés devient un enjeu central. Dans ce contexte, la posture queer peut s’imposer comme un moyen de ne pas retomber dans des travers identitaires.


Les bouleversements sociaux de la dernière décennie, illustrés par les mouvements #MeToo et Black Lives Matter, ont entraîné une prise de conscience dans certains milieux culturels et artistiques. Nous assistons à une reconnaissance inédite des artistes queers, racisés, femmes, en situation de handicap, issus des pays du Sud global. Au sein des circuits artistiques officiels se diffusent les problématiques que soulèvent leurs œuvres (luttes antiracistes, queers, féministes ou écologiques, question des récits et des archives minorées, enjeu des réparations postcoloniales et de la restitution des œuvres d’art, etc.). La notion d’« inclusivité », fondée sur la reconnaissance de la différence comme valeur sociale, s’impose aujourd’hui comme un projet ambitieux dans le monde de l’art.

Il suffit de regarder la programmation des six derniers mois dans les institutions muséales parisiennes pour mesurer le phénomène : l’exposition « Paris noir » au Centre Pompidou, « Corps et Âmes » à la Bourse de Commerce, « Banlieues chéries » au Musée de l’histoire de immigration, « Tituba, qui pour nous protéger » au Palais de Tokyo.

Ce processus est né, tel un « discours en retour » après des siècles d’eurocentrisme et de regard exotisant véhiculé par un certain discours sur l’altérité. Comme l’affirme la journaliste et écrivaine d’origine iranienne Farah Nayeri :

« Aujourd’hui, les musées, les galeries, les conservateurs et les mécènes veulent tous être considérés comme des agents de cette inclusion. »

La visibilisation des récits subalternes constitue un enjeu central pour un monde de l’art et une société plus égalitaires. Et même s’ils semblent aller à rebours de la montée des mouvements réactionnaires, les mécanismes de ce processus méritent d’être interrogés et questionnés.

À cet égard, une posture queer, telle que proposée dans cet article, permet à la fois d’interroger le processus d’inclusivité dans le milieu de l’art et ses contradictions, tout en offrant une perspective critique pour penser le monde au-delà de toute mythologie essentialiste (à savoir un régime de pensée et de représentation qui suppose des identités fixes et immuables).

Au-delà du « Mythe-du-Subalterne »

Derrière une demande légitime et nécessaire de décolonisation des arts et des musées – portée notamment par la société civile et des groupes militants–, la question qui se pose est de savoir sur quels critères repose aujourd’hui l’éligibilité des artistes à l’espace muséal et à ses collections.

« Comment “décoloniser” le musée ? : l’institution culturelle occidentale en question•», France 24.

L’« identité » – autrement dit, ce que l’artiste représente symboliquement, culturellement et visiblement aux yeux de ses publics, au travers de ses œuvres – deviendrait-elle le principal critère de sélection ? Le positionnement critique de l’artiste, sa vision du monde, indépendamment de ce qu’il incarne ou représente, serait-il négligé ? Le risque est de le reléguer au second plan, en reconduisant, de fait, les mêmes catégories identitaires que l’on prétend pourtant déconstruire (homme/femme, blanc/noir, hétero/queer, valide/invalide, etc.).

Récemment l’artiste photographe Henry Roy s’est exprimé sans détour sur son compte Instagram en dénonçant ce type d’assignation :

« J’ai récemment entendu l’une des remarques les plus déconcertantes qu’il m’ait été donné d’entendre : un photographe afro-descendant ne devrait photographier que ses “semblables”. C’est apparemment un critère qui le distinguerait d’un artiste non racialisé. Que signifie cette singulière assignation ? Le champ de l’image impose-t-il une discrimination aux Afro-descendants, les confinant dans une sorte de ghetto de l’imaginaire ? »

Dans cette configuration, les classes d’oppression ne sont plus mobilisées, comme le font les penseurs intersectionnels, pour déconstruire les rapports de pouvoir en exposant leur enchevêtrement. Elles sont, au contraire, utilisées pour enfermer chacun et chacune (de nous) dans des identités figées, créant ainsi un nouveau mythe que j’appelle le « Mythe-du-Subalterne » : une fiction qui permettrait en outre au musée de préserver sa structure inégalitaire, tout en se drapant dans un vernis décolonial.

Sur cette base, on détermine non seulement l’accès – ou non – de l’artiste à l’institution muséale et à l’écosystème qui l’entoure, mais aussi sa légitimité à travailler tel ou tel sujet. En tant que personne queer, italienne et blanche, par exemple, il m’arrive d’entendre un certain discours selon lequel, parce que « je suis X », je ne pourrais produire un discours critique que sur ce X. Mais qui décide de ce que recouvre ce X, et qui en fixe les limites ?


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


La posture queer contre les visions figées

Face à la polarisation du discours – entre, d’un côté, une rhétorique réactionnaire et stigmatisante à l’égard des minorités et, de l’autre, une approche essentialisante, la posture queer apparaît comme une alternative aux visions figées de l’Autre et du [Soi](https://fr.wikipedia.org/wiki/Soi_(psychologie). Elle constitue un point de départ pour une perspective critique résolument opposée à toute forme de binarisme (homme/femme, noir/blanc, gay/hétéro, ouvrier/bourgeois, valide/invalide).

À l’origine, le terme anglais queer signifie « étrange », « louche », « de travers ». Insulte issue du langage populaire, équivalente au mot « pédé » en français – avec l’idée sous-jacente de déviance ou d’anormalité –, il s’oppose à « straight » (« droit »), terme désignant les personnes hétérosexuelles. Dans le contexte de stigmatisation accrue des personnes LGBTQIA+ au moment de la crise du sida dans les années 1980, queer est progressivement resignifié puis réapproprié, à travers une circulation des savoirs et des pratiques entre militants et intellectuels.




À lire aussi :
Comment les artistes queers se réapproprient leur image


De fait, l’expérience de personnes queers entre en contradiction avec l’ordre et l’espace familiaux qui, historiquement, ont été construits comme prolongement de l’ordre social. Leur manière d’habiter l’espace introduit une faille par rapport à la ligne parentale (et reproductive) dont iels héritent et qu’iels ont la charge de reconduire. En renonçant à celle-ci, les subjectivités queers défient l’institution de la famille et, avec elle, l’ordre social.

Mais, comme le souligne le sociologue et philosophe français Didier Eribon, cette condition n’est pas seulement une identité stigmatisée, un habitus dont on cherche à se défaire pour lui opposer une identité en accord avec soi-même. Elle est constitutive d’une « vision ». Elle représente un point de vue spécifique sur le monde, une perspective que, dans les mots de la penseuse afroféministe bell hooks, l’on peut qualifier de regard oppositionnel (« oppositional gaze ») – un regard que les subalternes développent en réponse au regard stigmatisant qui, de manière récurrente, est porté sur eux.

Se soustraire aux logiques identitaires

Pour une personne queer, le regard stigmatisant de l’Autre ne provient pas uniquement de l’extérieur de sa communauté d’origine. Il émane aussi souvent de l’intérieur, par exemple, de la famille. C’est précisément dans ce double rejet, à la fois interne et externe, que réside le potentiel dénormatif de l’expérience queer : une vision du Soi et de l’Autre qui procède d’une désidentification avec la norme, susceptible de produire une vision « transidentitaire » ou « identitaire-sceptique ».

De cette expérience queer – marquée par un double rejet, à la fois interne et externe – peut émerger une posture queer.

Il ne s’agit plus uniquement d’un vécu intime ou d’un rapport personnel et situé à la norme, mais d’une position critique face aux systèmes de pouvoir, aux catégories figées et aux régimes de visibilité.

C’est la raison pour laquelle la posture queer ne cherche aucun drapeau identitaire particulier ni aucune identité dans laquelle se retrancher. La posture queer est une destinée. Elle incarne une utopie qui prend la forme d’un travail continuel et inachevé de déconstruction des représentations dominantes et de reconstruction de représentations minorées.

Une éthique de l’émancipation

Une posture queer se veut une renégociation permanente du Soi dans sa relation à l’Autre. À cet égard, la pensée de l’errance élaborée par le philosophe français Édouard Glissant est clé. Elle éclaire l’aspiration de la posture queer à se faire lien et relation par-delà l’absolutisme de l’identité racine unique – qui repose, elle, sur l’idée d’un enracinement profond dans un territoire, une langue, une culture, une essence considérés comme immuables.

Face à l’alternative entre une vision du monde déterministe (selon laquelle nous ne pouvons pas transformer les rapports historiques de pouvoir dans lesquels nous sommes pris) et une vision positiviste néolibérale (qui promeut l’idée d’un individualisme tout-puissant), la posture queer s’affirme comme une troisième voie à partir de laquelle habiter, observer, et représenter le réel.

Elle constitue un « programme sans mythe », dont la visée ultime est une éthique-esthétique de l’émancipation des corps subalternes. Consciente des structures profondément inégalitaires qui régissent les rapports sociaux, cette posture implique un processus créatif, toujours inachevé, qui demande à être sans cesse réitéré, rejoué, requestionné.


Cet article est publié dans le cadre de la série « Regards croisés : culture, recherche et société », publiée avec le soutien de la Délégation générale à la transmission, aux territoires et à la démocratie culturelle du ministère de la culture.

The Conversation

Nicola Lo Calzo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La posture queer dans l’art : un rempart contre l’essentialisation – https://theconversation.com/la-posture-queer-dans-lart-un-rempart-contre-lessentialisation-255684

Le peintre Hokusai était une icône en France avant d’être reconnu au Japon

Source: The Conversation – Indonesia – By Sophie Basch, Professeur de littérature française, Sorbonne Université

_Le Pavillon Sazai du temple des Cinq Cents Arhats_ (Gohyaku Rakanji Sazaidô), v. 1829-1833, vingt-troisième des _Trente-six vues du mont Fuji_. Hokusai-kan Museum.

Avec l’exposition « La vague Hokusai », le musée d’histoire de Nantes accueille, du 28 juin au 7 septembre 2025, de nombreux chefs-d’œuvre du peintre Katsushika Hokusai (1760-1849), appartenant au musée Hokusai-kan d’Obuse, dans les Alpes japonaises.


Le titre de l’exposition nantaise rend hommage à l’estampe la plus illustre d’Hokusai, celle dont les reproductions et les détournements ont envahi l’espace public jusqu’à saturation : Sous la vague au large de Kanagawa, première des Trente-six vues du mont Fuji, cette « vague comme mythologique » d’un Hokusai « emporté, expéditif, bouffon, populacier », saluée en 1888 par le critique Félix Fénéon.

La reconnaissance européenne

L’icône a été baptisée par un écrivain français, Edmond de Goncourt, dans la monographie qu’il consacra à Hokusai en 1896 :

« Planche, qui devrait s’appeler “la Vague”, et qui en est comme le dessin, un peu divinisé par un peintre, sous la terreur religieuse de la mer redoutable entourant de toute part sa patrie : dessin qui vous donne le coléreux de sa montée dans le ciel, l’azur profond de l’intérieur transparent de sa courbe, le déchirement de sa crête, qui s’éparpille en une pluie de gouttelettes, ayant la forme de griffes d’animaux. »

Hokusai, dont le Japon proclame aujourd’hui le génie, apparaît comme une gloire universelle.

Publicité sur un bus municipal à Onomichi
Publicité sur un bus municipal à Onomichi (située sur le littoral de la mer intérieure de Seto, dans la préfecture d’Hiroshima).
Fabrice van de Kerckhove
Étal de poissonnier à Athènes
Étal de poissonnier à Athènes (Grèce).
Sophie Basch

C’est toutefois en Occident qu’il acquit sa renommée dans la seconde moitié du XIXᵉ siècle, et plus singulièrement en France, berceau du japonisme artistique.

L’avocat des impressionnistes et de l’art japonais, Théodore Duret, pouvait ainsi écrire en 1882 :

« Homme du peuple, au début sorte d’artiste industriel, [Hokusai] a occupé vis-à-vis des artistes, ses contemporains, cultivant “le grand art” de la tradition chinoise, une position inférieure, analogue à celle des Lenain vis-à-vis des Lebrun et des Mignard ou des Daumier et des Gavarni en face des lauréats de l’école de Rome. […] C’est seulement depuis que le jugement des Européens l’a placé en tête des artistes de sa nation que les Japonais ont universellement reconnu en lui un de leurs grands hommes. »


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Déclassé au Japon

Confirmant ce diagnostic, l’éminent orientaliste bostonien Ernest Fenollosa rédigea une préface cinglante au catalogue de la première rétrospective Hokusai organisée en 1900 à Tokyo par l’éditeur et collectionneur Kobayashi Bunshichi :

« Il semblerait étrange que Hokusai, reconnu en Occident depuis quarante ans comme l’un des plus grands maîtres mondiaux du dessin, n’ait jamais été considéré comme digne d’étude dans son pays natal, si nous n’étions conscients du clivage fatal entre aristocrates et plébéiens à l’époque Tokugawa, dont le présent prolonge l’ombre sinistre. […] Des représentants du gouvernement ont jugé cette exposition démoralisante ; quant aux rares collectionneurs clandestins, ils rougiraient, dit-on, de voir leur nom publié parmi les contributeurs. »

Qui aurait alors pu prédire que l’ukiyo-e deviendrait l’instrument privilégié du soft power japonais ?

Le rôle des collectionneurs privés

La spectaculaire exposition récemment dédiée par le Musée national de Tokyo à l’éditeur du XVIIIe siècle Tsutaya Juzaburo, notamment commanditaire d’Utamaro, témoigne du changement de paradigme amorcé au début du XXe siècle. Dans les vitrines, de nombreuses estampes de contemporains de Hokusai, aujourd’hui vénérés mais méprisés dans le Japon de Meiji (1868-1912), portent le sceau du fameux intermédiaire Hayashi Tadamasa, fournisseur, dans le Paris du XIXe siècle, des principaux collectionneurs japonisants : les frères Goncourt, le marchand Siegfried Bing et le bijoutier Henri Vever, dont les plus belles pièces passèrent ensuite dans les collections publiques japonaises par l’entremise du mécène Matsukata Kōjirō. Hokusai doit sa fortune à la clairvoyance de collectionneurs particuliers qui bravaient au Japon, un dogmatisme esthétique et social et, en France, l’académisme institutionnel.

Comme le critique d’art Théodore de Wyzewa écrivait en 1890 des estampes japonaises :

« Les défauts mêmes de leur perspective et de leur modelé nous enchantèrent comme une protestation contre des règles trop longtemps subies. »

Pierre Bonnard et Édouard Vuillard n’attendaient que cet encouragement.

Édouard Vuillard, Le jardin des Tuileries, 1896, musée du Petit Palais
Édouard Vuillard, le Jardin des Tuileries (1896), musée du Petit Palais.
Paris Musées, CC BY
Pierre Bonnard, Promenade des nourrices, frise des fiacres, paravent, 1897
Pierre Bonnard, Promenade des nourrices, frise des fiacres (1897). Paravent constitué d’une suite de quatre feuilles lithographiées en cinq couleurs.
Cleveland Museum of Art., CC BY

Un malentendu persistant

Le clivage persistait lorsque Paul Claudel, alors ambassadeur au Japon, prononça en 1923 une conférence devant des étudiants japonais à Nikkō. Son jugement, qui fait directement écho à celui de Fenollosa, précise les raisons du succès en France de Hokusai, perçu comme un cousin des peintres de la vie moderne :

« Il est frappant de voir combien dans l’appréciation des œuvres que [l’art japonais] a produites, notre goût est resté longtemps loin du vôtre. Notre préférence allait vers les peintres de l’École “Ukiyoyé”, que vous considérez plutôt comme le témoignage d’une époque de décadence, mais pour lesquels vous m’excuserez d’avoir conservé personnellement tout mon ancien enthousiasme : vers une représentation violente, pompeuse, théâtrale, colorée, spirituelle, pittoresque, infiniment diverse et animée du spectacle de tous les jours. C’est l’homme dans son décor familier et ses occupations quotidiennes qui y tient la plus grande place. Votre goût, au contraire, va vers les images anciennes, où l’homme n’est plus représenté que par quelques effigies monastiques qui participent presque de l’immobilité des arbres et des pierres. »

Vincent Van Gogh, Portait du Père Tanguy, 1887, Musée Rodin
Vincent Van Gogh, Portait du père Tanguy (1887). Musée Rodin.
Wikimedia, CC BY

Une fraternité française

Si Hokusai bénéficia dès les années 1820 d’une réception savante en Europe, c’est en effet surtout en France que son œuvre rencontra un accueil fraternel. Le graveur Félix Bracquemond serait tombé dès 1856, chez l’imprimeur Delâtre, sur un petit album à couverture rouge, « un des volumes de la Mangwa, d’Hok’ Saï. »

Félix Bracquemond, Carpe, motif pour le Service Rousseau, 1866.
Félix Bracquemond, Carpe, motif pour le Service Rousseau, 1866.
The Cleveland Museum of Art, CC BY

Claude Monet faisait remonter à la même année une rencontre qui devait tant l’inspirer :

« Ma vraie découverte du Japon, l’achat de mes premières estampes, date de 1856. J’avais seize ans ! Je les dénichai au Havre, dans une boutique comme il y en avait jadis où l’on brocantait les curiosités rapportées par les long-courriers […]. Je les payais vingt sous pièce. Il paraît qu’aujourd’hui certaines se vendraient des milliers de francs. »

Dès la fin des années 1850, Hokusai apparut donc comme un précurseur éloigné qui confortait la conviction des premiers amateurs d’estampes, passionnés d’eaux-fortes, de caricatures et de ces enluminures populaires bientôt vantées par Arthur Rimbaud dans Une saison en enfer.

Hokusai, Un opticien présente des lunettes à un homme à trois yeux, sous le regard d’un homme et d’une femme au cou fantastiquement allongé et fumant la pipe ; un moine jouant du shamisen détourne le regard, La Manga, vol. XII, 1834, collection pa
Hokusai, Un opticien présente des lunettes à un homme à trois yeux, sous le regard d’un homme et d’une femme au cou fantastiquement allongé et fumant la pipe ; un moine jouant du shamisen détourne le regard, La Manga, vol. XII, 1834, collection particulière.
CC BY

Une lettre de Charles Baudelaire, apôtre de la modernité, qui préférait la « magie brutale et énorme » des dioramas, vrais par leur fausseté même, aux représentations réalistes, témoigne en 1862 de cette reconnaissance précoce :

« Il y a longtemps, j’ai reçu un paquet de Japonneries que j’ai partagées entre mes amis et amies. Je vous avais réservées [sic] ces trois-là. […] Elles ne sont pas mauvaises (images d’Épinal du Japon, 2 sols pièce à Yeddo). Je vous assure que, sur du vélin et encadré de bambou ou de baguettes vermillon, c’est d’un grand effet. »

Hokusai l’inspirateur

L’hommage le plus spirituel à Hokusai vint de l’illustrateur Henri Rivière qui, entre 1888 et 1902, grava Les Trente-six vues de la tour Eiffel. Il ne s’agissait pas, comme l’a affirmé Christine Guth, spécialiste américaine de la période Edo, de « mettre en parallèle la sublimité naturelle du mont Fuji et la sublimité technologique de la tour Eiffel » – postulat démenti par l’accent mis sur le Paris des faubourgs et de l’industrie, ainsi que par Rivière lui-même, qui insista explicitement dans ses souvenirs sur l’aspect parodique de son entreprise :

« J’avais composé […] des dessins pour un livre d’images […] qui parut plus tard en lithographie ; c’étaient les “Trente-six vues de la Tour Eiffel”, réminiscence du titre de Hokusai : “Les trente-six vues du Fujiyama”, mais, comme le dit Arsène Alexandre dans la préface qu’il écrivit pour ces vues de Paris : “On a le Fujiyama qu’on peut”. »

Henri Rivière, Les 36 Vues de la tour Eiffel, Du Quai de Passy
Henri Rivière, Les 36 Vues de la tour Eiffel, Du Quai de Passy.
Bibliothèque numérique de l’INHA, CC BY-ND
Henri Rivière, Les 36 Vues de la tour Eiffel, Rue Beethoven
Henri Rivière, Les 36 Vues de la tour Eiffel, Rue Beethoven.
Bibliothèque numérique de l’INHA, CC BY-ND

Comme devait le constater en 1914 le grand historien d’art Henri Focillon, dans la monographie qu’il consacra au maître nippon, ces « artistes qui, ayant trouvé en [Hokusai] un modèle et un exemple, le chérirent, non seulement pour le charme rare et supérieur de sa maîtrise, mais pour l’autorité qu’il conférait à leur propre esthétique ». Hokusai n’influença aucunement les peintres français, comme on le lit trop souvent : il confirmait et encouragea leurs audaces.

The Conversation

Sophie Basch est membre de l’Institut universitaire de France (IUF). Elle a reçu des financements de l’IUF.

ref. Le peintre Hokusai était une icône en France avant d’être reconnu au Japon – https://theconversation.com/le-peintre-hokusai-etait-une-icone-en-france-avant-detre-reconnu-au-japon-258751

Testing between intervals: a key to retaining information in long-term memory

Source: The Conversation – (in Spanish) – By Émilie Gerbier, Maîtresse de Conférence en Psychologie, Université Côte d’Azur

The proverb “practice makes perfect” highlights the importance of repetition to master a skill. This principle also applies to learning vocabulary and other material. In order to fight our natural tendency to forget information, it is essential to reactivate it in our memory. But, how often?

Research in cognitive psychology provides answers to this question. However, it is also important to understand underlying principles of long-term learning to apply them in a useful and personalised way.

The ‘spacing effect’

There are two key principles for memorising information in the long term.

First, test yourself to learn and review content. It is much more effective to do this using question-and-answer cards than just to reread the material. After each attempt to recall pieces of information, review the one that could not be retrieved.

The second principle is to space out reactivations over time. This phenomenon, known as the “spacing effect”, suggests that when reviews of specific content are limited to, for instance, three sessions, it is preferable to space them over relatively longer periods (eg every three days) rather than shorter ones (every day).

Reviewing material at long intervals requires more effort, because it is more difficult to recall information after three days than one. However, it is precisely this effort that reinforces memories and promotes long-term retention.

When it comes to learning, we must therefore be wary of effortlessness: easily remembering a lesson today does not indicate how likely we are to remember it in a month, even though this feeling of easiness can cause us to mistakenly believe that review is unnecessary.

Robert Bjork of the University of California coined the term “desirable difficulty” to describe an optimal level of difficulty between two extremes. The first extreme corresponds to learning that is too easy (and therefore ineffective in the long run), while the other extreme corresponds to learning that is too difficult (and therefore ineffective and discouraging).

Finding the right pace

There is a limit to how much time can pass between information retrievals. After a long delay, such as a year, information will have greatly declined in memory and will be difficult, if not impossible, to recall. This situation may generate negative emotions and force us to start learning from scratch, rendering our previous efforts useless.

The key is to identify the right interval between retrievals, ensuring it is not too long and not too short. The ideal interval varies depending on several factors, such as the type of information that needs to be learned or the history of that learning. Some learning software use algorithms taking these factors into account, to test each piece of information at the “ideal” time.

There are also paper-and-pencil methods. The simplest method is to follow an “expansive” schedule, which uses increasingly longer intervals between sessions. This technique is used in the “méthode des J” (method of days), which some students may be familiar with. The effectiveness of this method lies in a gradual strengthening of the memory.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


When you first learn something, retention is fragile, and memorised content needs to be reactivated quickly not to be forgotten. Each retrieval strengthens the memory, allowing the next retrieval opportunity to be delayed. Another consequence is that each retrieval is moderately difficult, which places the learner at a “desirable” level of difficulty.

Here is an example of an expansive schedule for a given piece of content: Day 1, Day 2, D5, D15, D44, D145, D415, etc. In this schedule, the interval length triples from one session to the next: 24 hours between Day 1 and Day 2, then three days between D2 and D5, and so on.

Gradually incorporating new knowledge

There is no scientific consensus on the optimal interval schedule. However, carrying out the first retrieval on the day after the initial moment of learning (thus, on D2) seems beneficial, as a night’s sleep allows the brain to restructure and/or reinforce knowledge learned the previous day. The subsequent intervals can be adjusted according to individual constraints.

This method is flexible; if necessary, a session can be postponed a few days before or after the scheduled date without affecting long-term effectiveness. It is the principle of regular retrieval that is key here.

The expansive schedule also has a considerable practical advantage in that it allows new information to be gradually integrated. For instance, new content can be introduced on D3, because no session on the initial content is scheduled for that day. Adding content gradually makes it possible to memorise large amounts of information in a lasting way without spending more time studying it.

The other method is based on the Leitner box system. In this case, the length of interval before the next retrieval depends on the outcome of the attempt to retrieve information from memory. If the answer was easily retrieved, the next retrieval should happen in a week. If the answer was retrieved with difficulty, then three days need to elapse before the next test. If the answer could not be retrieved, the next test should take place the following day. With experience, you will be able to adjust these intervals and develop your own system.

In short, effective and lasting learning not only requires that a certain amount of effort be made to retrieve information from memory, but a regular repetition of this process, at appropriate intervals, to thwart the process of forgetting.

The Conversation

Émilie Gerbier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Testing between intervals: a key to retaining information in long-term memory – https://theconversation.com/testing-between-intervals-a-key-to-retaining-information-in-long-term-memory-246511

Lower revenues, pricier loans: how flooding in Europe affects firms and the financial system they depend on

Source: The Conversation – (in Spanish) – By Serena Fatica, Principal Economist — Team Leader, Joint Research Centre (JRC)

In Europe, the fastest-warming continent, the intensification of extreme weather events and changes in precipitation patterns have led to widespread and catastrophic flooding. Last year, storms and flooding affected an estimated 413,000 people, resulting in the loss of at least 335 lives. Material damage is estimated to amount to at least €18 billion, according to the 2024 European State of the Climate report from the Copernicus Climate Change Service and the World Meteorological Organization.

The flooding in October that hit southeastern Spain and the Valencia province in particular took the heaviest toll. Intense and prolonged rainfall and river flooding led to 232 fatalities, and infrastructure damage and economic losses totalled around €16.5 billion. More than seven months later, the local economy has rebounded, thanks in part to public aid packages worth 0.5% of the country’s GDP. However, in early May, the same part of Spain found itself exposed again to the disruptive consequences of climate change when extreme weather hit.

The costs of flooding

The direct costs from the damage to public infrastructure and private assets are only part of the economic losses originating from flooding. The indirect costs might not be immediately visible, but they are certainly not less significant. Business interruptions reduce firms’ revenue and cash flows, straining liquidity and, in the worst cases, threatening their survival. In addition, the increasing likelihood of future flooding may be priced into the valuation of assets and real estate in areas exposed to these types of climate risks. Firms impacted by climate-related hazards might find it difficult to pay back loans or bonds, or to raise finance as physical assets that can be pledged as collateral for bank credit lose value. Ultimately, this can affect the stability of the financial system.

For these reasons, climate change is not just a long-term environmental issue, but a threat to our economy and financial systems now. Economists at the European Commission’s Joint Research Centre (JRC) have been conducting research to better understand how the links between the business sector and the financial system amplify its impact.

A JRC study of flood events between 2007 and 2018 finds that flooding significantly worsened the performance of European firms. Manufacturers exposed to flooding experienced reductions in sales, number of employees and the value of their assets. These impacts occurred in the year following the flooding and tended to be persistent, with no clear signs of recovery seven years after the disaster. Some firms even went out of business. The study also finds that companies in flood-prone areas were better able to weather the shock than businesses exposed to less frequent flooding. This is consistent with the fact that adaptation and protection measures reduce the impacts of flooding.

Threats to smaller firms

Water damage is particularly disruptive for companies that are highly indebted. A second JRC study zooms in on the mechanisms whereby financing choices, and reliance on bank loans in particular, amplify the impact of climate change. This study focuses on loans extended to small and medium-sized enterprises (SMEs) in Italy, Spain and Belgium between 2008 and 2019. It was motivated by the idea that smaller firms, which are more financially fragile than larger ones, might also be more vulnerable to the localised impact of climate-related hazards, not least because of their limited capacity to geographically diversify their operations and access market-based finance. The study shows that flood episodes under analysis strained SMEs’ ability to meet their debt obligations. Flooded firms were more likely to incur delays in servicing their loans and eventually fail to repay them, even two years after the disaster.

In turn, this entails losses for the banks that finance these firms. In general, if banks anticipate the impact of flooding on business operations, they could be expected to divert lending toward safer borrowers or charge a higher interest rate on credit extended to at-risk firms. Indeed, the study finds evidence that prospective flood risk is priced into new loans. In the period under analysis, the “flood risk premium” was especially high for loans to smaller firms and for those granted by local, specialised banks, both of which tend to have geographically concentrated activities that are more exposed to disaster impacts. Loans to borrowers exposed to high flood risk were 12 percent more expensive, all things being equal.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


Thus, flooding causes worse financial conditions for businesses and exposes the banking sector to losses on their loan portfolios. The numbers can be staggering: days after the October 2024 flooding, the Spanish Central Bank said that banks’ exposure in the affected areas would total €20 billion, with €13 billion in household loans and €7 billion in business loans (60% to SMEs), impacting 23,000 companies and 472,000 individuals.

With extreme weather events becoming more frequent and severe, the direct and indirect costs of climate change are projected to increase, unevenly affecting households, firms and territories across Europe. Increasing investments in adaptation, eg in flood defence, and closing the climate insurance protection gap – the uninsured portion of economic losses caused by natural hazards – are crucial to increase the resilience of our economies and financial systems and preserve the wellbeing of our societies. The complex structure of investment incentives calls for a multilayered approach, with a mix of private and public funding and risk-sharing mechanisms.

The Conversation

Serena Fatica ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Lower revenues, pricier loans: how flooding in Europe affects firms and the financial system they depend on – https://theconversation.com/lower-revenues-pricier-loans-how-flooding-in-europe-affects-firms-and-the-financial-system-they-depend-on-258755

No packaging, no problem? The potential drawbacks of bulk groceries

Source: The Conversation – (in Spanish) – By Fanny Reniou, Maître de conférences HDR, Université de Rennes 1 – Université de Rennes

High-income professionals over the age of 50 make up 70% of all consumers of bulk products.
DCStudio/Shutterstock

The bulk distribution model has been in the news again lately, with well-known brands such as The Laughing Cow making their way into French supermarkets. Stakeholders in the bulk sector are seeking to introduce innovations in order to expand and democratise the concept. But is the bulk model such a clear-cut approach to consuming in a sustainable way?

Bulk can be described as a consumer practice with a lower impact on the environment, since it involves the sale of products with no packaging, plastic or unnecessary waste and the use of reusable containers by consumers. In this type of distribution, predetermined manufacturer packaging becomes a thing of the past.

In this model, distributors and consumers take on the task of packaging the product themselves to ensure the continuity of the multiple logistical and marketing functions that packaging usually fulfils. Unaccustomed to this new role, stakeholders in the bulk sector may make mistakes or act in ways that run counter to the environmental benefits that are generally expected to result from this practice.

Contrary to the usually positive discourse on bulk products, our research points to the perverse and harmful effects of bulk distribution. When bulk stakeholders are left to “cope with” this new task of packaging products, can bulk still be described as ecologically sound?

A new approach to packaging

Packaging has always played a key role. It performs multiple functions that are essential for product distribution and consumption:

  • Logistical functions to preserve, protect and store the product: packaging helps to limit damage and loss, particularly during transport.

  • Marketing functions for product or brand recognition, which is achieved by distinctive colours or shapes to create on-shelf appeal. Packaging also has a positioning function, visually conveying a particular range level, as well as an informative function, serving as a medium for communicating a number of key elements such as composition, best-before date, etc.

  • Environmental functions, such as limiting the size of packaging and promoting certain types of materials – in particular recycled and recyclable materials.

In the bulk market, it is up to consumers and distributors to fulfil these various functions in their own way: they may give them greater or lesser importance, giving priority to some over others. Insofar as manufacturers no longer offer predetermined packaging for their products, consumers and distributors have to take on this task jointly.

Assimilation or accommodation

Our study of how consumers and retailers appropriate these packaging functions used a variety of data: 54 interviews with bulk aisle and store managers and consumers of bulk products, as well as 190 Instagram posts and 428 photos taken in people’s homes and in stores.

The study shows that there are two modes of appropriating packaging functions:

  • by assimilation – when individuals find ways to imitate typical packaging and its attributes

  • by accommodation – when they imagine new packaging and new ways of working with it

Woman filling her container with detergent
Bulk packaging can lead to hygiene problems if consumers reuse packaging for a new purpose.
GaldricPS/Shutterstock

Some consumers reuse industrial packaging, such as egg cartons and detergent cans, because of their proven practicality. But packaging may also mirror its owners’ identity. Some packaging is cobbled together, while other packaging is carefully chosen with an emphasis on certain materials like wax, a fabric popular in West Africa and used for reusable bags.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


Once packaging disappears, so does relevant information

Appropriating the functions of packaging is not always easy. There is a “dark side” to bulk, with possible harmful effects on health or the environment, and social exclusion. Bulk can lead, for example, to hygiene-related problems or misinformation when consumers fail to label their jars correctly, or use packaging for another purpose. For example, using a glass juice bottle to store detergent can be hazardous if a household member is unaware of its contents.

Bulk shopping can also appear exclusive for people with less culinary education. (High-income professionals over the age of 50 make up 70% of all consumers of bulk products.) Once the packaging disappears, so does the relevant information. Some consumers actually do need packaging to recognize, store and know how to cook a product. Without this information, products may end up in the garbage can!

Our study also shows the ambivalence of the so-called “environmental function” of bulk shopping – the initial idea being that bulk should reduce the amount of waste generated by packaging. In fact, this function is not always fulfilled, as many consumers tend to buy a great deal of containers along with other items, such as labels, pens and so on, to customise them.

Some consumers’ priority is not so much to reuse old packaging, but to buy new storage containers, which are often manufactured in faraway lands! The result is the production of massive amounts of waste – the exact opposite of the original purpose of the bulk trade.

Lack of consumer guidance

After a period of strong growth, the bulk sector went through a difficult period during the Covid-19 pandemic, leading to closures for many specialist stores in France, according to a first survey on bulk and on reuse. In supermarkets though, some retailers invested to make their bulk aisles more attractive – though in the absence of any effective guidance, consumers failed to make them their own. Bulk aisles have become just one among a host of other aisles.

Things seem to be improving however, and innovation is on the rise. In France, 58% of the members of the “Bulk and Reuse Network” (réseau Vrac et réemploi) reported an increase in daily traffic between January and May 2023 compared with 2022.

Distributors need to adapt to changing regulations. These stipulate that, by 2030, stores of over 400 m2 will have to devote 20% of their FMCG (Fast-Moving Consumer Goods) sales areas to bulk sales. Moreover, bulk sales made their official entry into French legislation with the law on the fight against waste and the circular economy (loi relative à la lutte contre le gaspillage et à l’économie circulaire) published in the French official gazette on February 11, 2020.

In this context, it is all the more necessary and urgent to support bulk stakeholders, so that they can successfully adopt the practice and develop it further.

The Conversation

Fanny Reniou has received funding from Biocoop as part of a research partnership.

Elisa Robert-Monnot has received funding from Biocoop as part of a research partnership and collaboration.

Sarah Lasri ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. No packaging, no problem? The potential drawbacks of bulk groceries – https://theconversation.com/no-packaging-no-problem-the-potential-drawbacks-of-bulk-groceries-258305

Defence firms must adopt a ‘flexible secrecy’ to innovate for European rearmament

Source: The Conversation – (in Spanish) – By Sihem BenMahmoud-Jouini, Associate Professor, HEC Paris Business School

In the face of US President Donald Trump’s wavering commitments and Russian President Vladimir Putin’s inscrutable ambitions, the talk in European capitals is all about rearmament.

To that end, the European Commission has put forward an €800 billion spending scheme designed to “quickly and significantly increase expenditures in defence capabilities”, in the words of Commission President Ursula von der Leyen.

But funding is only the first of many challenges involved when pursuing military innovation. Ramping up capabilities “quickly and significantly” will prove difficult for a sector that must keep pace with rapid technological change.

Of course, defence firms don’t have to do it alone: they can select from a wide variety of potential collaborators, ranging from small and medium-sized enterprises (SMEs) to agile start-ups. Innovative partnerships, however, require trust and a willingness to share vital information, qualities that appear incompatible with the need for military secrecy.

That is why rearming Europe requires a new approach to secrecy.

A paper I co-authored with Jonathan Langlois of HEC and Romaric Servajean-Hilst of KEDGE Business School examines the strategies used by one leading defence firm (which we, for our own secrecy-related reasons, renamed “Globaldef”) to balance open innovation with information security. The 43 professionals we interviewed – including R&D managers, start-up CEOs and innovation managers – were not consciously working from a common playbook. However, their nuanced and dynamic approaches could serve as a cohesive role model for Europe’s defence sector as it races to adapt to a changing world.

How flexible secrecy enables innovation

Our research took place between 2018 and 2020. At the time, defence firms looked toward open innovation to compensate for the withdrawal of key support. There was a marked decrease in government spending on military R&D across the OECD countries. However, even though the current situation involves more funding, the need for external innovation remains prevalent to speed up access to knowledge.

When collaborating to innovate, firms face what open innovation scholars have termed “the paradox of openness”, wherein the value to be gained by collaborating must be weighed against the possible costs of information sharing. In the defence sector – unlike, say, in consumer products – being too liberal with information could not only lead to business losses but to grave security risks for entire nations, and even prosecution for the executives involved.

Although secrecy was a constant concern, Globaldef’s managers often found themselves in what one of our interviewees called a “blurred zone” where some material could be interpreted as secret, but sharing it was not strictly off-limits. In cases like these, opting for the standard mode in the defence industry – erring on the side of caution and remaining tight-lipped – would make open innovation impossible.

A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!

Practices that make collaboration work

Studying transcripts of more than 40 interviews along with a rich pool of complementary data (emails, PowerPoint presentations, crowdsourcing activity, etc.), we discerned that players at Globaldef had developed fine-grained practices for maintaining and modulating secrecy, even while actively collaborating with civilian companies.

Our research identifies these practices as either cognitive or relational. Cognitive practices acted as strategic screens, masking the most sensitive aspects of Globaldef’s knowledge without throttling information flow to the point of preventing collaboration.

Depending on the type of project, cognitive practices might consist of one or more of the following:

  • Encryption: relabelling knowledge components to hide their nature and purpose.

  • Obfuscation: selectively blurring project specifics to preserve secrecy while recruiting partners.

  • Simplification: blurring project parameters to test the suitability of a partner without revealing true constraints.

  • Transposition: transferring the context of a problem from a military to a civilian one.

Relational practices involved reframing the partnership itself, by selectively controlling the width of the aperture through which external parties could view Globaldef’s aims and project characteristics. These practices might include redirecting the focus of a collaboration away from core technologies, or introducing confidentiality agreements to expand information-sharing within the partnership while prohibiting communication to third parties.

When to shift strategy in defence projects

Using both cognitive and relational practices enabled Globaldef to skirt the pitfalls of its paradox. For example, in the early stages of open innovation, when the firm was scouting and testing potential partners, managers could widen the aperture (relational) while imposing strict limits on knowledge-sharing (cognitive). They could thereby freely engage with the crowd without violating Globaldef’s internal rules regarding secrecy.

As partnerships ripened and trust grew, Globaldef could gradually lift cognitive protections, giving partners access to more detailed and specific data. This could be counterbalanced by a tightening on the relational side, eg requiring paperwork and protocols designed to plug potential leaks.

As we retraced the firm’s careful steps through six real-life open innovation partnerships, we saw that the key to this approach was in knowing when to transition from one mode to the other. Each project had its own rhythm.

For one crowdsourcing project, the shift from low to high cognitive depth, and high to low relational width, was quite sudden, occurring as soon as the partnership was formalised. This was due to the fact that Globaldef’s partner needed accurate details and project parameters in order to solve the problem in question. Therefore, near-total openness and concomitant confidentiality had to be established at the outset.

In another case, Globaldef retained the cognitive blinders throughout the early phase of a partnership with a start-up. To test the start-up’s technological capacities, the firm presented its partner with a cognitively reframed problem. Only after the partner passed its initial trial was collaboration initiated on a fully transparent footing, driven by the need for the start-up to obtain defence clearance prior to co-developing technology with Globaldef.

How firms can lead with adaptive secrecy

Since we completed and published our research, much has changed geopolitically. But the high-stakes paradox of openness is still a pressing issue inside Europe’s defence firms. Managers and executives are no doubt grappling with the evident necessity for open innovation on the one hand and secrecy on the other.

Our research suggests that, like Globaldef, other actors in Europe’s defence sector can deftly navigate this paradox. Doing so, however, will require employing a more subtle, flexible and dynamic definition of secrecy rather than the absolutist, static one that normally prevails in the industry. The defence sector’s conception of secrecy must also progress from a primarily legal to a largely strategic framework.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Defence firms must adopt a ‘flexible secrecy’ to innovate for European rearmament – https://theconversation.com/defence-firms-must-adopt-a-flexible-secrecy-to-innovate-for-european-rearmament-258302

How a postwar German literary classic helped eclipse painter Emil Nolde’s relationship to Nazism

Source: The Conversation – (in Spanish) – By Ombline Damy, Doctorante en Littérature Générale et Comparée, Sciences Po

Emil Nolde, Red Clouds, watercolour on handmade paper, 34.5 x 44.7 cm. Emil Nolde/Museo Nacional Thyssen-Bornemisza, Madrid, CC BY-NC-ND

Paintings by German artist Emil Nolde (1867-1956) were recently on display at the Musée Picasso in Paris as part of an exhibition on what the Nazis classified as “degenerate art”. At first glance, his works fit perfectly, but recent research shows that Nolde’s relationship to Nazism is much more nuanced than the exhibition revealed.

The German Lesson: a postwar literary classic

While Nolde was one of the many victims of the Third Reich’s repressive responses to “degenerate art”, he was also one of Nazism’s great admirers. The immense popularity of The German Lesson (1968) by author Siegfried Lenz, however, greatly contributed to creating the legend of Nolde as a martyr of the Nazi regime.

La Leçon d’allemand, Siegfried Lenz, pavillons Poche

The cover of the French edition, which was on sale in the Musée Picasso bookstore, subtly echoes one of Nolde’s works, Hülltoft Farm, which hung in the exhibition.

Set against the backdrop of Nazi policies on “degenerate art”, the novel is about a conflict between a father and son. It addresses in literary form the central postwar issue of Vergangenheitsbewältigung, a term referring to the individual and collective work of German society on coming to terms with its Nazi past.

The German Lesson was met with huge success upon publication. Since then, it has become a classic of postwar German literature. Over 2 million copies have been sold across the world, and the novel has been translated into more than 20 languages. It is still studied in Germany as part of the national school curriculum. Adding to its popularity, the book was adapted for the screen in 1971 and in 2019. More than 50 years after its publication, The German Lesson continues to shape the way we think about Nazi Germany.

Max Ludwig Nansen, a fictional painter turned martyr

Set in Germany in the 1950s, the novel is told through the eyes of Siggi, a young man incarcerated in a prison for delinquent youths. Asked to pen an essay on the “joys of duty”, he dives into his memories of a childhood in Nazi Germany as the son of a police officer.

He remembers that his father, Jens Ole Jepsen, was given an order to prevent his own childhood friend, Max Ludwig Nansen, from painting. As a sign of protest against the painting ban, Nansen created a secret collection of paintings titled “the invisible pictures”. Because he was young enough to appear innocent, Siggi was used by his father to spy on the painter.

Siggi found himself torn between the two men, who related to duty in radically opposite ways. While Jepsen thought it his duty to follow the orders given to him, Nansen saw art as his only duty. Throughout the novel, Siggi becomes increasingly close to the painter, whom he sees as a hero, all the while distancing himself from his father, who in turn is perceived as a fanatic.

The novel’s point of view, that of a child, demands of its reader that they complete Siggi’s omissions or partial understanding of the world around him with their adult knowledge. This deliberately allusive narrative style enables the author to elude the topic of Nazism – or at least to hint at it in a covert way, thus making the novel acceptable to a wide German audience at the time of its publication in 1968.

Nevertheless, the book leaves little room for doubt on the themes it tackles. While Nazism is never explicitly named, the reader will inevitably recognize the Gestapo (the political police of the regime) when Siggi speaks of the “leather coats” who arrest Nansen. Readers will also identify the ban on painting issued to Nansen as a part of Nazi policies on “degenerate art”. And, what’s more, they will undoubtedly perceive the real person hiding behind the fictional character of Max Ludwig Nansen: Emil Nolde, born Hans Emil Hansen.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


Emil Nolde, a real painter become legend

Much like his fictional counterpart Max Ludwig Nansen, the painter Emil Nolde fell victim to Nazi policies aimed at artists identified as “degenerate”. More than 1,000 of his artworks were confiscated, some of which were integrated into the 1937 travelling exhibition on “degenerate art” orchestrated by the regime. Nolde was banned from the German art academy, and he was forbidden to sell and exhibit his work.

A photograph of Nazi propagandist Joseph Goebbels’ visit to the exhibition titled Entartete Kunst (Degenerate Art) in Munich, 1937. At left, from top, two paintings by Emil Nolde: Christ and the Sinner (1926) and the Wise and the Foolish Virgins (1910), a painting that has disappeared
A photograph of Nazi propagandist Joseph Goebbels’ visit to the exhibition titled Entartete Kunst (Degenerate Art) in Munich, 1937. At left, from top, two paintings by Emil Nolde: Christ and the Sinner (1926) and the Wise and the Foolish Virgins (1910), a painting that has disappeared.
Wikimedia

After the collapse of the Nazi regime, the tide turned for this “degenerate” artist. Postwar German society glorified him as a victim and opponent of Nazi politics, an image which Nolde carefully fostered. In his memoirs, he claimed to have been forbidden to paint by the regime, and to have created a series of “unpainted pictures” in a clandestine act of resistance.

Countless exhibits on Nolde, in Germany and around the world, served to perpetuate the myth of a talented painter, fallen victim to the Nazi regime, who decided to fight back. His works even made it into the hallowed halls of the German chancellery. Helmut Schmidt, chancellor of the Federal Republic of Germany from 1974 to 1982, and Germany’s former chancellor Angela Merkel decorated their offices with his paintings.

The popularity of The German Lesson, inspired by Nolde’s life, further solidified the myth – until the real Nolde and the fictional Nansen became fully inseparable in Germany’s collective imagination.

Twilight of an idol

Yet, the historical figure and the fictional character could not be more different. Research conducted for exhibits on Nolde in Frankfurt in 2014 and in Berlin in 2019 revealed the artist’s true relationship to Nazism to the wider public.

Nolde was indeed forbidden from selling and exhibiting his works by the Nazi regime. But he was not forbidden from painting. The series of “unpainted pictures”, which he claimed to have created in secret, are in fact a collection of works put together after the war.

What’s more, Nolde joined the Nazi Party as early as 1934. To make matters worse, he also hoped to become an official artist of the regime, and he was profoundly antisemitic. He was convinced that his work was the expression of a “German soul” – with all the racist undertones that such an affirmation suggests. He relentlessly tried to convince Goebbels and Hitler that his paintings, unlike those of “the Jews”, were not “degenerate”.

Why, one might ask, did more than 70 years go by before the truth about Nolde came out?

Yes, the myth built by Nolde himself and solidified by The German Lesson served to eclipse historical truth. Yet this seems to be only part of the story. In Nolde’s case, like in many others that involve facing a fraught national past, it looks like fiction was a great deal more attractive than truth.

In Lenz’s book, the painter Nansen claims that “you will only start to see properly […] when you start creating what you need to see”. By seeing in Nolde the fictional character of Nansen, Germans created a myth they needed to overcome a painful past. A hero, who resisted Nazism. Beyond the myth, reality appears to be more complex.

The Conversation

Ombline Damy received funding from la Fondation Nationale des Sciences Politiques (National Foundation of Political Sciences, or FNSP) for her thesis.

ref. How a postwar German literary classic helped eclipse painter Emil Nolde’s relationship to Nazism – https://theconversation.com/how-a-postwar-german-literary-classic-helped-eclipse-painter-emil-noldes-relationship-to-nazism-258310

From sovereignty to sustainability: a brief history of ocean governance

Source: The Conversation – (in Spanish) – By Kevin Parthenay, Professeur des Universités en science politique, membre de l’Institut Universitaire de France (IUF), Université de Tours

The United Nations Ocean Conference (UNOC 3) will open in Nice, France, on June 9, 2025. It is the third conference of its kind, following events in New York in 2017 and Lisbon in 2022. Co-hosted by France and Costa Rica, the conference will bring together 150 countries and nearly 30,000 individuals to discuss the sustainable management of our planet’s oceans.

This event is presented as a pivotal moment, but it is actually part of a significant shift in marine governance that has been going on for decades. While ocean governance was once designed to protect the marine interests of states, nowadays it must also address the numerous climate and environmental challenges facing the oceans.

Media coverage of this “political moment” however should not overshadow the urgent need to reform the international law applicable to the oceans. Failing that, this summit will risk being nothing more than another platform for vacuous rhetoric.

To understand what is at stake, it is helpful to begin with a brief historical overview of marine governance.

The meaning of ocean governance

Ocean governance changed radically over the past few decades. The focus shifted from the interests of states and the corresponding body of international law, solidified in the 1980s, to a multilateral approach initiated at the end of the Cold War, involving a wide range of actors (international organizations, NGOs, businesses, etc.).

This governance has gradually moved from a system of obligations pertaining to different marine areas and regimes of sovereignty associated to them (territorial seas, exclusive economic zones (EEZs), and the high seas) to a system that takes into consideration the “health of the oceans.” The aim of this new system is to manage the oceans in line with the sustainable development goals.

Understanding how this shift occurred can help us grasp what is at stake in Nice. The 1990s were marked by declarations, summits and other global initiatives. However, as evidenced below, the success of these numerous initiatives has so far been limited. This explains why we are now seeing a return to an approach more firmly rooted in international law, as evidenced by the negotiations on the international treaty on plastic pollution, for example.

The “Constitution of the Seas”

The law of the sea emerged from the Hague Conference in 1930. However, the structure of marine governance gradually came to be defined in the 1980s, with the adoption of the United Nations Convention on the Law of the Sea (UNCLOS) in 1982.

UNOC 3 is a direct offshoot of this convention: discussions on sustainable ocean management stem from the limitations of this founding text, often referred to as the “Constitution of the Seas”.

UNCLOS was adopted in December 1982 at the Montego Bay Convention in Jamaica and came into force in November 1994, following a lengthy process of international negotiations that resulted in 60 states ratifying the text. At the outset, the discussions focused on the interests of developing countries, especially those located along the coast, in the midst of a crisis in multilateralism. The United States managed to exert its influence in this arena without ever officially adopting the Convention. Since then, the convention has been a pillar of marine governance.

It established new institutions, including the International Seabed Authority, entrusted with the responsibility of regulating the exploitation of mineral resources on the seabed in areas that fall outside the scope of national jurisdiction. UNCLOS is the source of nearly all international case law on the subject.

Although the convention did define maritime areas and regulate their exploitation, new challenges quickly emerged: on the one hand, the Convention was essentially rendered meaningless by the eleven-year delay between its adoption and implementation. On the other hand, the text also became obsolete due to new developments in the use of the seas, particularly technological advances in fishing and seabed exploitation.

The early 1990s marked a turning point in the traditional maritime legal order. The management of the seas and oceans came to be viewed within an environmental perspective, a process that was driven by major international conferences and declarations such as the Rio Declaration (1992), the Millennium Declaration (2005), and the Rio+20 Summit (2012). These resulted in the 2030 Agenda and the Sustainable Development Goals (SDGs), the UN’s 17 goals aimed at protecting the planet (with SDG 14, “Life Below Water”, directly addressing issues related to the oceans) and the world’s population by 2030.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The United Nations Conference on Environment and Development (UNCED, or Earth Summit), held in Rio de Janeiro, Brazil, in 1992, ushered in the era of “sustainable development” and, thanks to scientific discoveries made in the previous decade, helped link environmental and maritime issues.

From 2008 to 2015, environmental issues became more important as evidenced by the regular adoption of environmental and climate resolutions.

A shift in UN language

Biodiversity and the sustainable use of the oceans (SDG 14) are the two core themes that became recurring topics in the international agenda since 2015, with ocean-related issues now including items like acidification, plastic pollution and the decline of marine biodiversity.

The United Nations General Assembly resolution on oceans and the law of the seas (LOS is a particularly useful tool to acknowledge this evolution: drafted annually since 1984, the resolution has covered all aspects of the United Nations maritime regime while reflecting new issues and concerns.

Some environmental terms were initially absent from the text but have become more prevalent since the 2000s.

This evolution is also reflected in the choice of words.

While LOS resolutions from 1984 to 1995 focused mainly on the implementation of the treaty and the economic exploitation of marine resources, more recent resolutions have used terms related to sustainability, ecosystems, and maritime issues.

Toward a new law of the oceans?

As awareness of the issues surrounding the oceans and their link to climate change has grown, the oceans gradually became a global “final frontier” in terms of knowledge.

The types of stakeholders involved in ocean issues have also changed. The expansion of the ocean agenda has been driven by a more “environmentalist” orientation, with scientific communities and environmental NGOs standing at the forefront of this battle. This approach, which represents a shift away from a monopoly held by international law and legal practitioners, clearly is a positive development.

However, marine governance has so far relied mainly on non-binding declaratory measures (such as the SDGs) and remains ineffective. A cycle of legal consolidation toward a “new law of the oceans” therefore appears to be underway and the challenge is now to supplement international maritime law with a new set of measures. These include:

Of these agreements, the BBNJ is arguably the most ambitious: since 2004, negotiators have been working toward filling the gaps of the United Nations Convention on the Law of the Sea (UNCLOS) by creating an instrument on marine biodiversity in areas beyond national jurisdiction.

The agreement addresses two major concerns for states: sovereignty and the equitable distribution of resources.

Adopted in 2023, this historic agreement has yet to enter into force. For this to happen, sixty ratifications are required and to date, only 29 states have ratified the treaty (including France in February 2025, editor’s note).

The BBNJ process is therefore at a crossroads and the priority today is not to make new commitments or waste time on complicated high-level declarations, but to address concrete and urgent issues of ocean management, such as the frantic quest for critical minerals launched in the context of the Sino-American rivalry, and exemplified by Donald Trump’s signing of a presidential decree in April 2025 allowing seabed mining – a decision that violates the International Seabed Authority’s well established rules on the exploitation of these deep-sea resources.

At a time when U.S. unilateralism is leading to a policy of fait accompli, the UNOC 3 should, more than anything and within the framework of multilateralism, consolidate the existing obligations regarding the protection and sustainability of the oceans.

The Conversation

Kevin Parthenay is a member of the Institut Universitaire de France (IUF).

Rafael Mesquita ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. From sovereignty to sustainability: a brief history of ocean governance – https://theconversation.com/from-sovereignty-to-sustainability-a-brief-history-of-ocean-governance-258200

Réforme constitutionnelle : le macronisme, horizontal en campagne et vertical au pouvoir

Source: – By Luc Rouban, Directeur de recherche CNRS, Sciences Po

La réforme constitutionnelle proposée par le gouvernement a pour objet de rationaliser, une fois de plus, le fonctionnement de la Ve République en se focalisant uniquement sur le Parlement. C’est donc bien la démocratie représentative dans sa fonction législative et délibérative qui est jugée malade.

On en connaît les principaux ressorts : réduction du nombre de parlementaires, interdiction de cumuler plus de trois mandats dans le temps, simplification de la procédure législative pouvant aller jusqu’à restreindre le droit d’amendement en fonction de la taille des groupes politique, introduction d’une dose – pour l’instant indéterminée – de proportionnelle afin d’équilibrer la représentation des diverses sensibilités politiques, notamment celle du FN, dont la candidate (Marine Le Pen) a obtenu plus de 10 millions de voix au second tour de l’élection présidentielle et qui se retrouve avec 7 députés seulement.

Au-delà du flou des propositions dont le contour exact n’est toujours pas déterminé et fait l’objet de négociations musclées avec le président du Sénat, cette réforme s’inscrit dans un renforcement sans précédent de la fonction présidentielle. Le seul contrepoids à cette évolution est de supposer que la réduction du nombre de parlementaires et l’augmentation de leurs moyens techniques devraient permettre un meilleur contrôle des politiques publiques – ce qui reste à prouver. Comme il reste à prouver que le contrôle a posteriori peut remplacer la fonction délibérative a priori.

On assiste donc à un véritable retournement du macronisme. Ce dernier, dans une posture presque gaullienne, s’était construit en 2016 contre les oligarchies partisanes sur la base de réseaux militants pratiquant avec fierté la participation high-tech. Il s’agissait d’inventer une nouvelle façon de faire de la politique, une méthode réticulaire regroupant tous les « Marcheurs » de bonne volonté suffisamment diplômés pour utiliser les réseaux sociaux et s’engageant dans des délibérations permettant de faire remonter les demandes du terrain.

Deux ans plus tard, ce même macronisme produit une série de réformes peu ou pas négociées avec les partenaires sociaux, notamment celle de la SNCF, et une réforme constitutionnelle devant réduire la part de parlementarisme au sein de la Ve République.

Pour comprendre ce qui se joue dans la vie politique française, on peut faire l’hypothèse qu’un nouveau clivage est né, opposant les tenants du pouvoir vertical aux partisans du pouvoir horizontal.

Les deux représentations du pouvoir

L’aspiration à la délibération et à la participation citoyenne a sans doute été l’un des marqueurs de l’élection présidentielle de 2017. Elle s’est exprimée, bien que de manière malheureuse et caricaturale, dans l’organisation des primaires à gauche comme à droite, mais aussi dans les programmes de la plupart des candidats, à la notable exception de celui de François Fillon.

Il est indéniable qu’une transformation du paysage politique français s’est opérée depuis quelques années, sous l’influence notamment d’expériences participatives locales ou de tentatives de relancer la démocratie directe en créant de nouveaux lieux de rencontres où la parole politique puisse se construire et se libérer, comme l’a illustré l’aventure de Nuit debout.

La vague 9 du Baromètre de la confiance politique du Cevipof, dont le terrain a été réalisé en décembre 2017, nous apprend que la confiance dans les institutions politiques, loin de s’améliorer avec l’arrivée au pouvoir d’Emmanuel Macron, s’est au contraire tassée de manière spectaculaire : la confiance dans la plupart des catégories d’élus, y compris les élus locaux, a perdu environ une dizaine de points par rapport aux résultats engrangés une année avant, alors que François Hollande faisait l’objet de toutes les réprobations.

Comme le macronisme s’est (aussi) présenté en tant que mouvement réformateur ne voulant plus s’embarrasser de tergiversations ou de débats, on s’est interrogé sur ce qui faisait aux yeux des enquêtés un « bon » responsable politique au début de l’année 2018. S’agit-il de quelqu’un qui sait s’entourer d’experts compétents, prendre ses décisions sans tenir compte des critiques (indicateurs de pouvoir vertical) ou bien de quelqu’un qui prend l’avis du plus grand nombre avant de décider et qui sait passer des compromis pour éviter les conflits (indicateurs de pouvoir horizontal) ?

Le macronisme : libéralisme culturel, tolérance sociétale et pratique verticale du pouvoir

Ces caractéristiques ont été présentées sous la forme de deux questions permettant aux enquêtés de dire ce qu’ils plaçaient en première et seconde position. Le regroupement des réponses, en tenant compte de la priorité donnée à chaque item, montre que les enquêtés se répartissent en deux groupes égaux puisque 50 % choisissent le pouvoir vertical, 47 % le pouvoir horizontal et 3 % ne savent pas.

L’analyse montre, tout d’abord, que les partisans du pouvoir vertical se rencontrent surtout chez les électeurs d’Emmanuel Macron (64 %) et de François Fillon (68 %) au premier tour de l’élection présidentielle. En revanche, ceux de Benoît Hamon sont bien plus partagés (54 %), alors que ceux de Jean‑Luc Mélenchon le rejettent (38 %), comme ceux de Marine Le Pen (34 %). Dans l’esprit de ses électeurs, et non pas de ses militants, le macronisme n’est donc pas assimilé à un pouvoir participatif horizontal mais bien à une volonté d’appliquer de manière assez unilatérale le programme de réformes.

Le second résultat contre-intuitif de l’enquête est de montrer que si les catégories supérieures et diplômées se caractérisent par un haut niveau de libéralisme culturel et de tolérance sociétale, elles se distinguent également par leur défense du pouvoir vertical. Comme quoi le libéralisme culturel ne préjuge pas du type de pouvoir ou de démocratie que les enquêtés défendent.

C’est ainsi que 38 % de ceux ayant un niveau CAP-BEP défendent la vision verticale contre 47 % de ceux ayant le niveau du bac et 58 % ayant au moins une licence. Le niveau de libéralisme culturel (tel qu’on peut le mesurer sur la base de questions portant sur le rétablissement de la peine de mort, le nombre jugé excessif ou non d’immigrés et la suppression de la loi autorisant le mariage homosexuel) et la représentation du « bon élu » sont donc relativement déconnectés.

On est ici au cœur de l’ambivalence du managérialisme qui renforce le pouvoir hiérarchique en le couvrant d’un masque de libre communication et de culture soixante-huitarde. Cela montre aussi que les électeurs (et non pas les militants) des mouvements « populistes » qui sont, en l’espèce, défenseurs du pouvoir horizontal, ne sont pas nécessairement à la recherche d’un modèle autoritaire, et ne sont pas nécessairement caractérisés par une « personnalité autoritaire ». L’autoritarisme a peut-être pris d’autres chemins aujourd’hui.

Pouvoir vertical et libéralisme économique sont associés

En revanche, la défense du pouvoir vertical s’intensifie avec le degré de libéralisme économique. On a créé un indice sur la base de trois questions (il faut réduire le nombre de fonctionnaires, faire confiance aux entreprises pour sortir de la crise économique, ne pas prendre aux riches pour donner aux pauvres afin d’assurer la justice sociale) et allant donc de 0 à 3 en fonction du nombre de réponses positives. On voit alors que les enquêtés au niveau 0 du libéralisme économique choisissent le pouvoir vertical à concurrence de 32 % contre 42 % de ceux qui se situent au niveau 1 puis 54 % de ceux qui sont au niveau 2 et 67 % de ceux de niveau 3. La proportion de ceux qui préfèrent le pouvoir horizontal varie de manière inverse.

On peut mesurer ici le fait que la dimension « managériale » du macronisme ne signifie nullement une perspective de pouvoir horizontal ou participatif, comme pourraient le laisser croire les métaphores entrepreneuriales utilisées lors de la campagne. De fait, 22 % des électeurs d’Emmanuel Macron se situent au niveau 3 de l’indice de libéralisme économique contre il est vrai 62 % de ceux de François Fillon mais 15 % de ceux de Marine Le Pen, 4 % de ceux de Jean‑Luc Mélenchon et 3 % de ceux de Benoît Hamon.

Cette association entre les représentations de la démocratie et le niveau de libéralisme économique renvoie à l’appartenance sociale des enquêtés. Les deux représentations de la démocratie se retrouvent dans la distribution en grandes classes sociales, construites sur la base des occupations professionnelles selon la grille de lecture retenue pour les travaux précédents.

Le sens de la révision constitutionnelle

Le clivage entre pouvoir vertical et pouvoir horizontal détermine le niveau de la confiance placée dans les institutions. Les enquêtés préférant le pouvoir horizontal ont moins confiance dans les institutions politiques, nationales ou locales, que ceux qui préfèrent le pouvoir vertical.

Tous derrière et lui devant : le Président Macron, lors des cérémonies du 14 juillet 2017.

De la même façon, la critique des élus est plus forte chez les partisans du pouvoir horizontal : 74 % d’entre eux contre 52 % des tenants du pouvoir vertical estiment que la plupart des responsables politiques ne se soucient que des riches et des puissants et 63 % des premiers contre 37 % des seconds pensent que c’est le peuple et non les responsables politiques qui devrait prendre les décisions les plus importantes.

La révision constitutionnelle actuelle s’appuie donc sur la dénonciation assez générale des élus (ils sont trop nombreux, plutôt corrompus et ne travaillent pas beaucoup) développée chez les partisans du pouvoir horizontal pour renforcer le pouvoir vertical associé au macronisme.

Au-delà de son élitisme, confirmé par le profil des nouveaux députés de la République en Marche, le macronisme se présente comme un moment politique où se joue une confrontation non seulement entre deux visions de la démocratie mais aussi entre deux anthropologies du pouvoir. La réforme constitutionnelle en cours doit venir séparer encore un peu plus le personnel politique national et le personnel politique local.

Une attente de proximité

L’agrandissement mécanique des circonscriptions lié à la réduction du nombre d’élus va rendre plus difficile le contact avec les électeurs. Or c’est bien la proximité physique et sociale des électeurs et des élus qui reste au sein de la relation de confiance politique, qui est elle-même au cœur de la démocratie représentative. Et c’est bien cette attente de proximité qui nourrit la vision d’un pouvoir horizontal participatif.

La révision constitutionnelle, telle qu’elle est actuellement proposée, entend dissocier le national du local et rendre le national encore plus lointain et abstrait en laissant le local se confronter aux difficultés quotidiennes. Comment peut-on penser que cette réforme puisse améliorer la confiance politique dans les institutions ?

De plus, l’instauration d’une dose de proportionnelle va contribuer à relancer les manœuvres au sein des partis politiques, comme on le voit déjà lors des élections régionales. La plupart des réformes nées d’une ingénierie institutionnelle hasardeuse comme le quinquennat ou les primaires n’ont fait qu’aggraver les problèmes.

La révision constitutionnelle actuelle, tout comme les conflits sociaux qui secouent le secteur public, partagent des structures communes dans le sens où l’on voit s’affronter dans chaque cas une revendication de terrain – soucieuse de la réalité vécue par les élus et les agents – à une norme juridique ou financière devant décliner un modèle de pouvoir désincarné et impalpable.

À travers l’opposition entre pouvoir vertical et pouvoir horizontal se joue donc une opposition entre deux modes d’interaction politique, l’un virtuel et numérique, l’autre physique et humain.


Les datavisualisations de cet article ont été réalisées par Diane Frances.

The Conversation

Luc Rouban ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Réforme constitutionnelle : le macronisme, horizontal en campagne et vertical au pouvoir – https://theconversation.com/reforme-constitutionnelle-le-macronisme-horizontal-en-campagne-et-vertical-au-pouvoir-93593