Entre environnement et économie locale, faut-il choisir ? Le cas de l’exploitation du mica en Inde

Source: The Conversation – France (in French) – By Olivier Dubourdieu, Enseignant-chercheur sur les ressources minérales et les transitions, Mines Paris – PSL

Groupe d’artisans miniers ramassant du mica sur une ancienne verse à stériles au Jharkhand, au nord-est de l’Inde. Responsible Mica Initiative (RMI), Fourni par l’auteur

Comment concilier environnement et développement économique ? Le cas de l’exploitation minière du mica, en Inde, montre les difficultés à arbitrer entre ces deux dimensions lorsque des populations vulnérables sont dépendantes des ressources économiques de l’exploitation minière. L’accompagnement des mines artisanales à petite échelle pourrait être une solution, tout du moins à certaines conditions.


Batteries de véhicules électriques, peintures automobiles, fards à paupières… ces objets du quotidien ont un point commun. Ils contiennent tous une famille de minéraux discrète mais pourtant stratégique : des micas. Bien que relativement méconnu, le mica est omniprésent dans les économies industrielles modernes.

De par ses propriétés électriques et thermiques, c’est un isolant courant en électronique. On le retrouve aussi bien dans les sèche-cheveux que les véhicules électriques. Ses caractéristiques physiques en font également une base pour certains pigments utilisés dans les peintures industrielles ainsi que de nombreux produits cosmétiques. Cela en fait un minéral clé, tant pour la décarbonation de l’économie que pour le développement du numérique.

Des gisements de mica existent dans le monde entier, mais le Bihar et le Jharkhand, deux États du nord-est de l’Inde, représentent près de 20 % de la production mondiale. L’extraction de mica y est aujourd’hui largement artisanale et à petite échelle, souvent située en zone forestière.

À ce double enjeu de transition énergétique et numérique répond également celui de transition environnementale, et notamment de lutte contre la déforestation. Comment concilier préservation de l’environnement et maintien d’une activité économique essentielle à la survie de populations vulnérables ? Cet article ébauche une réponse, en s’appuyant sur mon travail de thèse.

Des mines et des hommes

L’Inde est l’un des principaux producteurs mondiaux de mica, avec environ 100 000 tonnes exportées chaque année. 75 % de cette production provient de deux États du nord-est du pays situés en zone forestière : le Jharkhand et le Bihar. À noter que les chiffres officiels du Bureau indien des mines (Indian Bureau of Mines, ou IBM) n’intègrent pas la production de mica de ces deux États (comme en 2021 par exemple. En effet, celle-ci est majoritairement liée à des mines artisanales et à petite échelle informelle, non encore reconnues par l’État indien, et majoritairement illégale depuis les années 1980 pour les raisons qu’on expose dans les paragraphes qui suivent.

Dans ces deux États, l’exploitation du mica démarre à la fin du XIXᵉ siècle. L’industrie minière s’y développe alors en deux temps :

  • Jusqu’aux années 1980, l’exploitation du mica est légale, encadrée par la réglementation locale de l’État du Bihar – celui-ci a, en effet, été scindé en deux en 2000 pour former les actuels États du Bihar et du Jharkhand.

  • Puis, en 1980, l’adoption du Forest Conservation Act par le gouvernement central indien marque un tournant qui se solde par la désindustrialisation officielle de l’exploitation du mica. Mais dans les faits, l’activité ne s’est pas vraiment arrêtée : elle s’est poursuivie de manière informelle, accentuant davantage la vulnérabilité sociale des mineurs.

Quels sont les enjeux de l’extraction artisanale de mica ?

Commençons par la première période, sorte d’« âge d’or » de l’industrie minière du mica en Inde. Les écrits historiques, comme ce livre de 1951 ou celui-ci de 1995) décrivent des exploitations minières industrielles relativement bien tenues, où les travailleurs ont accès à des équipements de protection (port de casque et de chaussures de sécurité), avec des moyens d’extraction semi-mécaniques.

L’industrie minière est alors vue source de prospérité économique, en particulier pour les centres urbains de Giridih et de Koderma. Les conditions de travail ne sont pas pour autant idylliques : certains travailleurs sont des agriculteurs qui cherchent des revenus supplémentaires et travaillent dans la mine sans avoir été suffisamment formés, d’autres souffrent de maladies respiratoires…

Ce moment est marqué par ce que l’on peut appeler « conversion des ressources » par laquelle la forêt est « convertie » en ressources minérales. Il faut comprendre que la déforestation n’est pas ici le produit d’une exploitation illégale mais le résultat d’un compromis implicite : accepter une certaine dégradation environnementale en échange de revenus indispensables pour des communautés rurales marginalisées.

La seconde période s’ouvre en 1980 après l’adoption du Forest Conservation Act, où la priorité nationale est désormais de protéger les forêts. L’exploitation minière du mica devient alors majoritairement illégale et s’inscrit dès lors dans l’économie informelle. Elle est soit pratiquée par des artisans miniers individuels, soit dans des mines semi-industrielles, où les conditions de vie et de travail sont précaires. Citons par exemple : maladies musculosquelettiques récurrentes, travail des enfants, effondrements réguliers des galeries… Il n’existe pas de statistiques officielles, mais l’interdiction semble avoir eu des effets négatifs sur les conditions de travail et la santé des travailleurs, les sites étant devenus plus difficiles d’accès pour les organisations souhaitant accompagner les artisans miniers dans l’amélioration de leurs conditions de vie et de travail.

Contraints d’opérer dans l’informalité, les artisans miniers se retrouvent marginalisés, à plusieurs titres : économiquement, légalement et socialement. Ils ne sont pas en position de force pour négocier le prix du mica qu’ils vendent et souffrent ainsi d’une position de faiblesse dans la chaîne de valeur.

Les services de police des États du Bihar et du Jharkhand organisent régulièrement des raids pour stopper les opérations d’extraction et saisir le mica illégalement exploité. Ces opérations semblent n’avoir qu’un impact limité en matière de ralentissement de l’extraction du mica. En revanche, elles ont un effet bien réel auprès des artisans miniers puisqu’elles contribuent à les diaboliser, alors même que l’extraction du mica est devenue leur principale source de revenus.




À lire aussi :
Faut-il rouvrir des mines en France et en Europe au nom de la souveraineté économique ?


Deux mouvements de conversion successifs

L’histoire récente du mica en Inde révèle donc deux dynamiques de conversion successives : une première phase de conversion de la forêt vers la ressource minérale, au nom du développement économique, suivie d’une phase de reconversion des espaces miniers vers la forêt, portée par des objectifs de protection environnementale.

Ces deux mouvements ont un point commun : ils produisent des effets territoriaux et humains profonds qui n’intègrent pas pleinement les besoins et les capacités d’adaptation des communautés locales. Pour les artisans miniers, il s’agit de maintenir une activité économique malgré son illégalité et son impact sur la forêt. Cette tension a des répercussions pour d’autres acteurs.

Pour les États, notamment ceux du Bihar et du Jharkhand, l’extraction du mica comprend également une double dimension politique. D’abord parce que les voix des 300 000 personnes impliquées dans l’extraction du mica représentent un enjeu électoral significatif, mais également dans la mesure où la loi visant à la conservation de la forêt émane du gouvernement fédéral, alors que les enjeux de développement local relèvent des États.

Pour les acteurs en aval des chaînes de valeur du mica, comme les marques de cosmétiques ou automobiles par exemple, cette situation pose de nouvelles questions. Il s’agit de savoir ce que ces acteurs veulent privilégier : le développement économique de populations marginalisées ou la protection de l’environnement ?

Par leurs choix de fournisseurs et engagement sur le terrain auprès des communautés d’artisans miniers, les entreprises de l’aval influencent les dynamiques locales de conversion de ressources. Un des enjeux clés est juridique : une partie de ces entreprises doivent se conformer aux exigences des réglementations en matière de devoir de diligence, comme la directive Omnibus I de l’Union européenne, par exemple). Le risque est enfin réputationnel : comment assumer de s’approvisionner en matières premières à partir de mines artisanales, tout en affirmant protéger les ressources forestières ?




À lire aussi :
Politiques responsables et directive européenne : comment le devoir de vigilance s’invite dans les grandes entreprises


Formaliser les mines artisanales à petite échelle

Face à cette situation, une nouvelle approche a émergé il y a plusieurs dizaines d’années : la formalisation des mines artisanales à petite échelle, c’est-à-dire, entre autres, la reconnaissance des artisans miniers comme des acteurs légitimes des chaînes de valeur. Cette reconnaissance s’accompagne de programmes d’accompagnement pour améliorer les pratiques sociales et environnementales, les conditions de travail, et pour limiter le nombre d’accidents et de lutter contre le travail des enfants.

C’est dans cet esprit qu’a été créée, en 2017, la Responsible Mica Initiative (RMI), une initiative regroupant de grands acteurs de la chaîne de valeur du mica, notamment des industriels, mais également des ONG visant à rendre ces chaînes de valeur plus durables, équitables et responsables. La RMI fait ainsi émerger des solutions par consensus, et considère la formalisation des mines artisanales de mica dans toutes ses dimensions : techniques, administratives, légales, sociales et économiques.

Concrètement, la RMI a déjà engagé plusieurs actions, comme la structuration des mineurs en coopératives, la définition de standards de production responsable, ou encore la mise en place d’audits et de programmes d’accompagnement dans la mise en conformité.

Telle qu’elle est envisagée par la RMI, la formalisation des mines artisanales de mica vise ainsi à rééquilibrer les rapports de pouvoir au sein des chaînes de valeur, au bénéfice des artisans miniers et de leur milieu de vie.

L’arbitrage environnement-développement au cœur d’un espace de négociation

L’exemple de l’extraction minière du mica en Inde montre que des politiques environnementales produisent parfois des effets pervers. En cherchant à protéger les forêts, elles fragilisent davantage des communautés, sans faire disparaître les pratiques qu’elles visaient à encadrer.

La résolution des tensions qui en découlent passe par la mobilisation de tous les acteurs, ce qui suppose l’existence d’un espace de négociation. Sur cette base, les acteurs peuvent ensuite construire une vision commune et la mettre en œuvre dans des actions collectives.

Mais une telle dynamique ne peut émerger que si l’espace de négociation est aussi un espace de confiance, qui permet d’aborder et de résoudre les questions de gouvernance dans les chaînes de valeur. C’est précisément ce que cherche à mettre en place des projets tels que la Responsible Mica Initiative, en créant les conditions d’un dialogue structuré entre acteurs aux intérêts divergents.

The Conversation

Olivier Dubourdieu a travaillé pour la Responsible Mica Initiative entre 2019 et 2024.

ref. Entre environnement et économie locale, faut-il choisir ? Le cas de l’exploitation du mica en Inde – https://theconversation.com/entre-environnement-et-economie-locale-faut-il-choisir-le-cas-de-lexploitation-du-mica-en-inde-279378

L’abondance impuissante : quand l’emballage prend sa revanche

Source: The Conversation – France (in French) – By Benoît Heilbrunn, Professeur de marketing, ESCP Business School

L’incertitude persistante autour du conflit sur le détroit d’Ormuz n’affecte pas seulement le prix de l’énergie. Les matières plastiques directement issues du pétrole sont concernées. Avec un effet inattendu : des pénuries annoncées, notamment pour les produits d’emballage. Ce qui pose une question paradoxale : quel avenir pour le contenu si le contenant n’est plus ? Une question économique, mais aussi philosophique.


Nous croyons vivre dans une civilisation de la production, idée qui flatte notre vieux goût métaphysique pour les profondeurs. L’essentiel serait à l’intérieur : substance, matière, produit ; le reste ne serait qu’apparence, enveloppe, cosmétique. Or, c’est souvent l’accessoire qui finit par faire trébucher les empires.

Au printemps 2026, au plus fort de l’escalade entre les États-Unis et l’Iran, plusieurs alertes venues d’Asie ont montré qu’une économie pouvait être menacée non parce qu’elle n’avait plus de produits, mais parce qu’elle risquait de manquer de naphta, un intrant indispensable à la pétrochimie et donc à une partie des plastiques d’emballage. En Corée du Sud, on craignait ainsi des tensions sur les poches médicales, les seringues, les sacs et divers conditionnements. Comme quoi le problème n’est pas toujours l’absence de contenu mais la raréfaction du contenant.

Le paradoxe du contenant

Que devient alors le lait sans brique ou le médicament sans blister (coque de plastique transparent sur une base en carton, ndlr) ? La substance demeure, mais elle ne peut plus accéder à sa pleine existence marchande. Elle existe physiquement, mais pas encore socialement ni culturellement.

La séquence que nous traversons éclaire crûment la logique des chaînes de valeur mondiales. L’Organisation de coopération et de développement économiques (OCDE) rappelle qu’une large part du commerce international s’inscrit dans des chaînes globales où matières premières, composants, services et produits intermédiaires traversent les frontières à plusieurs reprises.

Dans un tel système, la marchandise est le résultat d’un empilement de médiations. Or, l’emballage appartient précisément à cette catégorie de médiations que l’on voit peu, mais dont l’absence paralyse tout.




À lire aussi :
Les mythologies du plastique sont-elles réversibles ?


La forme avant la substance

Pour comprendre ce paradoxe, il faut déconstruire une opposition trop simple entre le contenu qui serait essentiel et le contenant qui ne serait qu’un support. La philosophie classique nous invite à penser autrement. L’hylémorphisme aristotélicien conçoit les êtres concrets comme des composés de matière et de forme : la matière n’existe pas vraiment comme chose pleinement déterminée sans la forme qui l’actualise.

Transposée à l’univers marchand, cette vieille leçon nous rappelle qu’un produit n’existe pas comme simple matière économique ; il n’existe qu’en tant qu’il est déjà pris dans une forme qui le rend visible, maniable, stockable, différenciable, transportable.

L’emballage n’habille pas le produit après coup. Il lui donne un mode d’existence. Il le fait passer de l’état de substance à l’état d’objet désirable et circulable.

Six cents millions d’euros d’investissements annuels

D’ailleurs, dans de nombreux univers, le packaging concentre parfois davantage de valeur économique et symbolique que le contenu lui-même. Selon les catégories, l’emballage peut représenter jusqu’à 30 à 40 % du coût du produit. Pour les boissons, l’Association nationale des industries alimentaires (ANIA) souligne qu’il peut représenter jusqu’à 50 % du bilan carbone sur l’ensemble du cycle de vie.

Quant au verre d’emballage, sa fédération européenne rappelle qu’il mobilise aujourd’hui plus de 150 projets de décarbonation et plus de 600 millions d’euros d’investissements annuels. Le contenant n’est donc pas un simple supplément esthétique ni un potentiel déchet : il constitue un poste économique majeur, parfois la partie la plus sensible du coût total. Là où le contenu est pauvre en valeur matérielle immédiate – eau, jus, produits dilués, biens fortement standardisés –, le pack peut devenir la partie décisive de la valeur marchande finale.

L’emballage comme frontière symbolique

Mais la portée de l’emballage ne s’épuise pas dans l’économie des coûts. Elle est aussi anthropologique.

L’anthropologue Mary Douglas a montré dans De la souillure (1967) que les sociétés organisent le monde à travers des frontières symboliques, entre le pur et l’impur, le propre et le sale, ce qui est à sa place et ce qui ne l’est pas. L’emballage contemporain peut être lu comme un petit dispositif de cette police symbolique. Il sépare physiquement le dedans du dehors mais symboliquement l’intègre du souillé. Le blister scellé, l’opercule intact, la bouteille transparente, le sachet stérile ou le carton inviolé sont des techniques, certes, mais aussi des gestes de purification matérielle.

L’emballage ne conserve pas seulement ; il garantit que le contenu est encore dans l’ordre, qu’il n’a pas été corrompu, touché, altéré. Il rejoue à petite échelle une grande opération anthropologique : mettre une chose à part pour la rendre acceptable.

C’est pourquoi l’on se trompe lorsqu’on dit qu’un emballage n’est qu’un support. Nous ne consommons presque jamais une substance nue mais une mise en scène. Nous consommons une substance déjà élevée à l’état de signe. Et c’est ici qu’il faut rappeler la formule célèbre de Claude Lévi-Strauss selon laquelle les nourritures « bonnes à manger » sont d’abord « bonnes à penser ».

La blancheur d’un pack de yaourt évoque la santé, la transparence d’une bouteille suggère la vérité, la texture d’un emballage fait déjà croire à la qualité de ce qu’il contient. Le marketing ne vend donc pas seulement des propriétés objectives ; il organise une dramaturgie perceptive où chaque détail matériel devient le support d’une croyance. Le produit séduit d’abord par son contenant. Et d’ailleurs, dans bien des secteurs, on consomme plus le pack que la substance.

Le contenant comme opérateur de culture

L’idée d’une crainte de pénurie de naphta aurait sans doute ravi Lévi-Strauss parce qu’elle met en jeu une inversion structurale entre le principal et le secondaire. Le structuralisme consiste, rappelons-le, à regarder les relations entre les termes et non leur évidence immédiate. Dans Mythologiques, et en particulier dans le tome 1, le Cru et le Cuit (1964), on voit comment des oppositions apparemment simples – cru et cuit, nature et culture, intérieur et extérieur – se compliquent dès qu’on les replace dans un système.

LCP, 2026.

Ici se joue une opposition du même genre : contenu et contenant. Spontanément, nous attribuons la valeur au contenu et nous reléguons le contenant au rang d’enveloppe extérieure. Or la crise inverse cette hiérarchie : c’est le contenant qui devient décisif, c’est lui qui commande l’existence sociale du contenu. Le terme supposé périphérique devient central ; le supposé accessoire devient la condition du nécessaire. Le packaging apparaît alors comme une sorte de cuisson sémiotique : il fait passer une substance du monde à l’état de marchandise.

Or, comme le rappelle l’anthropologue Philippe Descola, la séparation entre nature et culture n’est pas une évidence universelle mais un montage propre au naturalisme occidental. Le packaging peut alors être compris comme l’un des opérateurs ordinaires de la culturalisation de la nature. Une eau, un fruit transformé, un lait, un jus, une crème ne circulent pas comme de simples fragments du monde. Ils doivent être nommés, protégés, codés, mis en forme. Le packaging accomplit précisément cette opération. Il ne détruit pas la nature ; il la traduit dans un ordre de visibilité, de normes, de signes et de circulation. Il fait passer une substance dans un régime de culture. En ce sens, le pack est l’emblème discret d’une modernité qui ne se contente pas d’exploiter la nature mais de la reformater.

De la bouteille au conteneur

On peut d’ailleurs étendre cette logique au suremballage ultime que représente le conteneur maritime standardisé. Dans The Box, Marc Levinson (2006) montre comment cette simple boîte d’acier a transformé la géographie économique, bouleversé les ports, réduit les coûts de manutention et rendu possible une mondialisation beaucoup plus fluide des marchandises.

Nouvelle preuve du fait que les civilisations ne se transforment pas seulement par les idées qu’elles proclament, mais par les formats qu’elles standardisent. De la bouteille au conteneur, même logique : faire tenir, faire circuler, faire arriver. Petite boîte, grande boîte, toujours la même puissance du contenant.

The Conversation

Benoît Heilbrunn ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’abondance impuissante : quand l’emballage prend sa revanche – https://theconversation.com/labondance-impuissante-quand-lemballage-prend-sa-revanche-280938

L’oxygène, cette molécule paradoxale, base de la vie et poison mortel : comment les microorganismes y font face

Source: The Conversation – France in French (2) – By Alexandre Desparmet, Doctorant en Biologie Marine, Muséum national d’histoire naturelle (MNHN)

Les humains ainsi que bon nombre d’espèces vivantes ont besoin d’oxygène pour vivre. Pourtant cette molécule est chimiquement dangereuse, elle provoque ce que l’on appelle le « stress oxydant » (une altération des constituants de nos cellules comme les protéines ou l’ADN). Il faut donc pouvoir l’utiliser, mais également s’en protéger. Une nouvelle étude éclaire ces processus chez des microalgues.


La relation entre la vie et l’oxygène est loin d’être simple. Pour la comprendre, il faut remonter aux origines de la vie sur Terre, à l’époque archéenne (entre -4 milliards et -2,5 milliards d’années). Les océans existaient déjà, mais l’atmosphère contenait très peu, voire pas du tout, d’oxygène libre.

Certaines bactéries réalisaient déjà une photosynthèse dite anoxygénique qui, contrairement à celle des plantes et des algues actuelles, ne libère pas d’oxygène mais produit des composés soufrés.

Il y a environ 2,4 milliards d’années survient un tournant majeur : la Grande Oxygénation. L’oxygène commence à s’accumuler dans l’atmosphère grâce à l’activité de bactéries photosynthétiques (les cyanobactéries) capables de réaliser la photosynthèse oxygénique, le même processus que celui utilisé aujourd’hui par les plantes et les algues.

Cette accumulation d’oxygène transforme profondément la biosphère. Pour la première fois, une molécule extrêmement réactive est produite en grande quantité par des organismes vivants. L’oxygène peut oxyder et endommager les structures cellulaires des organismes qui n’y sont pas adaptés. La vie se trouve alors confrontée à un paradoxe : devoir composer avec une molécule qu’elle produit elle-même mais qui représente un danger pour la majorité des formes de vie existantes.

Cette transition provoque une crise biologique majeure. De nombreuses espèces anaérobies sont repoussées vers des milieux pauvres en oxygène, comme les sédiments ou les profondeurs marines. Parallèlement, certaines lignées développent des mécanismes capables de neutraliser l’oxygène, puis de l’utiliser comme source d’énergie. La respiration oxygénique, bien plus efficace que les métabolismes anaérobies, permet ainsi l’émergence de formes de vie plus complexes.

Illustration des changements observés dans une colonne de Winogradsky installée à la station marine de Concarneau (Finistère). La colonne a été réalisée à partir de vase prélevée dans les viviers de la station. Les deux tiers de la colonne ont été remplis de vase, et le dernier tiers d’eau de mer provenant du site. Du carbone a été ajouté au fond de la colonne sous forme de petits morceaux de papier. L’objectif du projet est d’illustrer l’incroyable diversité des microorganismes et de proposer un parallèle entre les changements observés dans la colonne et certaines étapes de l’histoire évolutive de la vie sur Terre.
Cédric Hubas, CC BY

Le paradoxe de l’oxygène

Bien que souvent associé à la vie, l’oxygène demeure chimiquement dangereux et peut provoquer ce que l’on appelle le stress oxydant. En effet, le dioxygène peut générer des espèces réactives de l’oxygène (ERO) – superoxyde, peroxyde d’hydrogène ou radical hydroxyle – capables d’endommager protéines, lipides et ADN.

Tous les organismes aérobies (y compris les humains) possèdent donc des systèmes enzymatiques permettant de neutraliser ces molécules : superoxyde dismutases, catalases ou peroxydases. Sans ces mécanismes de défense, l’oxygène serait rapidement létal. La vie moderne repose ainsi sur un équilibre délicat : utiliser l’oxygène pour produire de l’énergie tout en limitant ses effets toxiques.

Longtemps considérées uniquement comme des sous-produits nocifs impliqués dans le vieillissement ou certaines maladies, les ERO sont aujourd’hui reconnues comme des molécules de signalisation participant à la régulation de nombreux processus cellulaires (prolifération cellulaire ou régulation de certains gènes par exemple). Leur rôle exact reste cependant encore largement inexploré.

Le stress oxydant dans les environnements naturels

Le stress oxydant ne concerne pas seulement les organismes humains : il affecte l’ensemble du vivant. Il apparaît lorsque la production d’ERO dépasse les capacités de défense de la cellule. Ce phénomène est particulièrement marqué dans des environnements soumis à de fortes variations de conditions physiques ou chimiques.

Ces milieux extrêmes comme la mer morte, le désert du Sahara ou certains déserts d’altitude recevant un fort rayonnement solaire, possèdent des conditions très salées, très sèches ou fortement irradiées, mais abritent pourtant une biodiversité étonnante. Des organismes spécialisés, appelés extrêmophiles, y prospèrent grâce à des adaptations physiologiques remarquables. La notion d’environnement extrême dépend donc toujours de l’organisme considéré.

Même des milieux plus familiers peuvent imposer des contraintes importantes. Nos zones côtières, par exemple, connaissent des fluctuations rapides de lumière. L’intensité lumineuse y varie fortement au cours de la journée, ce qui influence directement l’activité photosynthétique.

Les organismes photosynthétiques sont particulièrement exposés à ce problème, car la capture d’énergie lumineuse favorise la formation d’espèces réactives de l’oxygène. Ainsi, si la lumière est indispensable à la photosynthèse, un excès d’énergie lumineuse peut perturber l’équilibre cellulaire et favoriser la formation d’ERO. Les organismes doivent donc exploiter la lumière tout en se protégeant de ses effets potentiellement toxiques.

Les adaptations des microalgues aux variations journalières de lumière

Les diatomées, microalgues très abondantes dans les sédiments marins, ont développé plusieurs stratégies pour faire face à ces variations lumineuses. Des pigments protecteurs, notamment les xanthophylles, limitent la formation de radicaux libres. Les cellules peuvent également modifier l’organisation de leur appareil photosynthétique afin d’optimiser la capture de lumière tout en réduisant les dommages.

Ces microalgues possèdent aussi des photorécepteurs capables de détecter les variations lumineuses et de déclencher des réponses physiologiques rapides, comme l’activation de mécanismes de photoprotection ou l’expression de certains gènes.

L’une de leurs adaptations les plus remarquables est leur migration verticale dans le sédiment. Lorsque la lumière est modérée, les diatomées remontent vers la surface afin de maximiser la photosynthèse. Lorsque l’intensité devient trop forte, elles s’enfoncent légèrement dans le sédiment, comme pour se mettre à l’ombre. Ces déplacements sont synchronisés par une horloge circadienne interne qui permet d’anticiper les cycles jour-nuit.

ERO et diatomées : un dialogue plus complexe qu’on ne le croyait

Des travaux récents suggèrent que les espèces réactives de l’oxygène pourraient jouer un rôle plus actif qu’on ne le pensait. Au-delà de leur caractère potentiellement toxique, elles pourraient agir comme signaux déclenchant certaines réponses comportementales.

Notre dernière étude montre que les ERO participent notamment au contrôle de la migration verticale des diatomées, alors que l’on pensait jusqu’à présent que ces migrations servaient principalement à limiter leur production et leur accumulation au niveau cellulaire.

Deux mécanismes semblent donc se combiner : la migration permet de réduire l’exposition à des conditions génératrices d’ERO, mais ces mêmes molécules pourraient également agir comme signaux déclenchant la réponse lorsque leur concentration dépasse un certain seuil.

Ce système fonctionnerait ainsi comme un véritable dispositif de surveillance interne. Les variations du stress oxydant reflètent rapidement les changements de l’environnement et permettent aux cellules d’ajuster leurs réponses physiologiques et comportementales.

Les diatomées étant très diversifiées et largement distribuées à l’échelle globale, il est probable que ces capacités de détection, de traitement de l’information et de mise en place de réponses varient selon les espèces et le contexte environnemental. Cette diversité confère aux diatomées une forte capacité d’adaptation, jouant un rôle essentiel dans leur survie.

Photographie de diatomées (Pleurosigma strigosum) au microscope optique.
Alexandre Desparmet, Fourni par l’auteur

Ce travail montre, à travers un exemple frappant, que le vivant n’a pas seulement appris à se défendre contre l’oxygène et ses dérivés toxiques : il a aussi appris à les utiliser. Des déchets métaboliques oxygénés, autrefois considérés comme uniquement dangereux pour les cellules, peuvent devenir de véritables outils biologiques.

Cela rappelle que le rôle des ERO reste complexe et encore largement méconnu. Loin d’être de simples agents de stress, elles apparaissent aujourd’hui comme des molécules ambivalentes : des messagers subtils intégrés à des mécanismes fins de communication, d’adaptation cellulaire et de perception de l’environnement, notamment chez les diatomées.

Et comme souvent en sciences, ces découvertes ouvrent surtout de nouvelles questions… qui restent encore à explorer.


Nous remercions l’école doctorale DIVONA, la station marine de Concarneau (Finistère) et le laboratoire BOREA.

The Conversation

Alexandre Desparmet a reçu des financements de l’institut de l’Océan de l’Alliance Sorbonne Université.

Cédric Hubas a reçu des financements de l’institut de l’Océan de l’Alliance Sorbonne Université.

ref. L’oxygène, cette molécule paradoxale, base de la vie et poison mortel : comment les microorganismes y font face – https://theconversation.com/loxygene-cette-molecule-paradoxale-base-de-la-vie-et-poison-mortel-comment-les-microorganismes-y-font-face-278706

Contre le glioblastome, la tumeur cérébrale la plus fréquente, la piste du cytomégalovirus

Source: The Conversation – France in French (3) – By Gaëtan Ligat, Maître de Conférences, Université de Toulouse; Inserm

Le glioblastome, cancer rare mais agressif, résiste aux traitements. La recherche a mis en évidence la présence du cytomégalovirus, CMVH, un virus fréquent chez l’humain, dans les cellules tumorales. Le CMVH ne serait pas à l’origine de ce cancer mais en modulerait l’agressivité, selon l’hypothèse retenue actuellement. Et l’étude des interactions entre les cellules tumorales du glioblastome et le CMVH ouvre de nouvelles perspectives thérapeutiques.


Le glioblastome est la tumeur cérébrale la plus fréquente et aussi l’une des plus agressives chez l’adulte.

C’est un gliome (c’est-à-dire une tumeur qui se développe dans le cerveau ou la moelle épinière) à croissance rapide. Il se développe à partir de cellules gliales, ces « cellules de soutien » des neurones en forme d’étoile, appelées astrocytes et oligodendrocytes.

Un cancer rare mais agressif qui résiste aux traitements

Cette agressivité explique pourquoi, même en combinant des traitements lourds, comme la chirurgie, la radiothérapie et la chimiothérapie, les résultats restent souvent limités. Cette difficulté thérapeutique se reflète dans les chiffres : bien que relativement rare (environ 2 à 5 cas pour 100 000 personnes dans le monde), le glioblastome est associé à un pronostic très sombre, avec une survie moyenne d’environ dix-huit mois après le diagnostic.

Ainsi, sa gravité et l’efficacité encore insuffisante des traitements en font un enjeu majeur de santé publique. Depuis une vingtaine d’années, des chercheurs explorent une piste intrigante : un virus très courant dans la population, le cytomégalovirus humain, pourrait être présent dans ces tumeurs. Il pourrait influencer leur évolution et contribuer à leur résistance aux traitements classiques. Une hypothèse qui suscite beaucoup d’intérêt et qui ouvre la voie à de nouvelles approches thérapeutiques.

Cytomégalovirus humain : le virus qui manipule nos cellules

Le cytomégalovirus humain (CMVH) appartient à la grande famille des virus de l’herpès, comme ceux responsables de l’herpès labial ou de la varicelle.

C’est un virus très répandu : dans de nombreux pays, plus d’un adulte sur deux y a déjà été exposé. Après la première infection, souvent sans symptôme, le virus ne disparaît pas. Il reste présent dans l’organisme sous une forme « endormie », notamment dans certaines cellules du sang. Il peut se réactiver plus tard, surtout lorsque le système immunitaire est affaibli.

Ce qui rend le CMVH particulièrement intéressant, c’est sa capacité à influencer le fonctionnement des cellules qu’il infecte. Il peut stimuler leur division, les aider à échapper à la mort programmée des cellules et modifier la réponse immunitaire locale. Autant d’effets qui, en théorie, pourraient favoriser le développement d’une tumeur et contribuer à sa résistance aux traitements. Le CMVH est aussi la principale cause d’infection transmise de la mère au bébé pendant la grossesse.

Détection du cytomégalovirus dans les glioblastomes

Les premières observations suggérant un lien entre le CMVH et les glioblastomes remontent au début des années 2000. Des équipes de recherche ont alors détecté de l’ADN viral ainsi que des protéines spécifiques du virus dans des échantillons de tumeurs cérébrales. Ces résultats ont ouvert une nouvelle perspective : le glioblastome, déjà très complexe sur le plan biologique, pourrait aussi être influencé par un virus courant et persistant.

Depuis ces premières découvertes, de nombreuses équipes ont confirmé la présence du CMVH dans des glioblastomes. La quantité de virus détectée reste faible comparée à une infection active, mais même à ces niveaux, il peut produire des protéines capables d’influencer le comportement des cellules tumorales.

La présence du CMVH ne signifie pas pour autant qu’il soit à l’origine de la tumeur. Bien qu’une étude ait montré la transformation de cellules humaines greffées dans le cerveau de souris, la majorité des données suggère plutôt que le virus agit comme un « oncomodulateur » : il ne déclenche pas la formation de la tumeur, mais peut en modifier l’agressivité, certaines caractéristiques biologiques et amplifier la résistance aux traitements.

Le rôle indirect du CMVH dans la progression du glioblastome : « l’oncomodulation »

Le CMVH ne semble pas être à l’origine du glioblastome, mais pourrait en moduler l’agressivité par un phénomène appelé « oncomodulation ». Contrairement aux virus oncogènes classiques qui rendent les cellules cancéreuses, il n’induit pas directement la transformation cancéreuse d’une cellule saine. Les données expérimentales suggèrent plutôt qu’il agit sur l’environnement tumoral et sur certains mécanismes clés de la biologie cellulaire.

L’infection par le CMVH peut favoriser la formation de nouveaux vaisseaux sanguins, permettant à la tumeur de recevoir davantage de nutriments. Elle peut également inhiber l’apoptose, processus naturel d’élimination des cellules anormales, et interférer avec des régulateurs majeurs du cycle cellulaire.

Par ailleurs, le virus modifie le métabolisme cellulaire au profit de la survie tumorale et contribue à instaurer un microenvironnement immunosuppresseur, c’est-à-dire qui réduit l’efficacité des défenses de l’organisme.

Ensemble, ces observations pourraient renforcer la croissance et la résistance des glioblastomes. Elles ouvrent aussi de nouvelles perspectives de recherche et de stratégies thérapeutiques en ciblant non seulement la tumeur, mais aussi ses interactions virales.

Implications thérapeutiques

La découverte du CMVH dans les glioblastomes a rapidement conduit à explorer des interventions antivirales comme piste thérapeutique complémentaire. Des études pilotes ont testé le valganciclovir, un traitement antiviral déjà utilisé contre les infections à CMVH, chez des patients atteints de glioblastome. Bien que les résultats restent préliminaires, certains patients ont montré une amélioration relative de la survie, suggérant que limiter l’activité du virus pourrait freiner la progression tumorale.

En parallèle, la recherche se tourne vers des approches immunothérapeutiques ciblant le CMVH. L’objectif est de stimuler le système immunitaire pour qu’il reconnaisse et attaque spécifiquement les cellules exprimant des protéines virales, offrant ainsi une nouvelle voie pour traiter un cancer qui reste difficile à combattre avec les traitements classiques.

L’intérêt de ces stratégies dépasse les glioblastomes : le concept de virus « oncomodulateur » pourrait s’appliquer à d’autres cancers, y compris certains cancers pédiatriques comme le médulloblastome, soulignant le rôle possible de l’infection congénitale (infection transmise au bébé avant sa naissance, pendant la grossesse, par sa mère) dans la modulation de la tumeur. De plus, le CMVH a été classé en 2025 comme « probablement cancérogène pour l’humain » (groupe 2B) par le Centre international de recherche sur le cancer (CIRC/IARC), renforçant l’attention scientifique portée à ses effets sur le développement et la progression tumorale.

Enfin, afin de pallier l’émergence de résistances et à la toxicité des traitements classiques contre le CMVH, de nouvelles stratégies antivirales innovantes sont en cours d’exploration. Par exemple, de petits peptides conçus pour bloquer l’interaction entre deux protéines virales essentielles peuvent inhiber la réplication du CMVH. Cette approche pourrait compléter, ou même remplacer, les antiviraux classiques.

Un virus discret qui influence une tumeur agressive

Le CMVH illustre parfaitement comment un virus discret et très répandu peut influencer la biologie d’une tumeur agressive. Dans les glioblastomes, son rôle d’« oncomodulateur » ne consiste pas à déclencher la maladie, mais à amplifier son agressivité.

Étudier cette interaction ouvre de nouvelles perspectives pour mieux comprendre et traiter ces cancers difficiles, et montre le potentiel d’une approche intégrative mêlant virologie et oncologie.

Le glioblastome reste un défi majeur, mais la recherche sur le CMVH révèle que même des virus apparemment silencieux peuvent aider à décrypter la complexité des maladies humaines et offrir de nouvelles stratégies thérapeutiques.

The Conversation

Gaëtan LIGAT est membre de la section virologie de la Société Française de Microbiologie. Il est également administrateur et responsable du comité scientifique de l’association « Des étoiles dans la mer, vaincre le glioblastome ». Il a reçu des financements de : la Ligue contre le cancer, l’Association pour la Recherche sur les Tumeurs Cérébrales (ARTC), Des étoiles dans la mer, vaincre le glioblastome, la Fondation Flavien, FONROGA, Grandir sans cancer, Eva pour la vie ; Raphaël cœur chocolat, 111 Des Arts Toulouse, la région Occitanie, Défi clé CeBBOc, GEMSI.

ref. Contre le glioblastome, la tumeur cérébrale la plus fréquente, la piste du cytomégalovirus – https://theconversation.com/contre-le-glioblastome-la-tumeur-cerebrale-la-plus-frequente-la-piste-du-cytomegalovirus-281280

Libéraux et conservateurs ont-ils raison de s’attaquer à l’assistanat et à l’État social ?

Source: The Conversation – France in French (3) – By Érik Neveu, Sociologue, Université de Rennes 1 – Université de Rennes

Les révolutions conservatrices et libérales ont reconfiguré l’action publique à l’origine des États-providence. Prétendant résoudre les phénomènes supposés d’assistanat et d’essor bureaucratique, les nouvelles formes d’action publique ont surtout déplacé les dysfonctionnements sociaux. Le volontarisme individuel ne saurait répondre à des problèmes d’ordre systémique.


L’expression « culture des problèmes publics » a été proposée par le sociologue états-unien Joseph Gusfield. Il désigne par là ce qui était devenu dans l’après-guerre une manière de sens commun quant aux façons d’identifier et de gérer dossiers et enjeux devenus assez saillants pour apparaître comme des problèmes à traiter. Si elle plonge ses racines dès le XIXᵉ siècle et les mobilisations autour de la « question sociale », cette culture va triompher avec les Trente Glorieuses (1945-1975, ndlr).

Elle se condense dans un schéma simple. Une situation, un rapport social est constitué – souvent par des mobilisations – comme injuste et problématique, et ainsi perçu par une large part de l’opinion. L’État est invité à y répondre. Il le fait par un double processus. D’une part, par la reconnaissance d’un « droit à » : la protection contre les accidents du travail, l’interruption volontaire de grossesse, la formation continue… D’autre part, par la désignation ou la création d’un corps d’agents publics pour répondre au problème ainsi reconnu. On pensera à la création des inspecteurs du travail, plus tard des travailleurs sociaux, ou encore d’agents surveillant les atteintes à l’environnement.

Une culture en actes

Cette culture des problèmes publics a donné naissance à des « institutions-cathédrales » (comme la sécurité sociale), contribué à protéger de nombreux risques, limité une partie des inégalités que produit une société sans régulations. On peut aussi la lire comme une police d’assurance contre des changements sociaux radicaux. À l’image de ce que souligne Martin Lipsky dans un ouvrage classique sur le travail des « bureaucrates de terrain », il est moins contraignant de doter un quartier pauvre d’un foyer socioculturel, d’un dispensaire et d’un poste de police avec leurs fonctionnaires que de réduire les inégalités scolaires, celles de revenus et de patrimoines.

Cette culture des problèmes publics s’est incarnée dans des variantes de l’État social, tributaires des histoires et des singularités nationales. Si Bismarck a donné son nom au système « bismarckien » d’État-providence, c’est que dans le dessein de contrer les socialistes allemands, il a dans les années 1880 combiné au bâton de la répression un système basé sur des cotisations, d’abord d’assurances maladie et accident, puis de retraite. Aux États-Unis, ce sera davantage la question de la protection des anciens combattants de la guerre de Sécession et de leurs familles qui suscitera de premières lois sociales.

Le politiste danois Gøsta Esping-Andersen a proposé une typologie de ces États sociaux. On peut ainsi identifier parmi eux un système libéral, qui met le marché au centre (notamment via un système d’assurances volontaires). Celui-ci cible aussi les aides publiques sur les plus démunis, dans des conditions qui peuvent les stigmatiser, comme le symbolise la catégorie du « cassos » en France, ou le mythe de la « Welfare Queen » aux États-Unis.

Dans le modèle « conservateur corporatiste », la place de l’État est centrale, mais les droits sociaux sont initialement dépendants du statut de salarié (longtemps largement masculin), avant de s’élargir via un financement par l’impôt après 1945.

Enfin, le modèle social-démocrate d’Europe du Nord offre à des bénéficiaires nombreux une large palette de garanties et de services publics, financés par l’État sur la base d’un impôt très progressif. Si l’étendue des droits reconnus ainsi que la place dévolue aux marchés et acteurs privés varient, la formule génératrice de ces modèles est, elle, fixe : reconnaissance d’un problème – traduction en un « droit à » protecteur – déploiement d’une réglementation et de professionnels spécifiques pour sa mise en œuvre.

Le procès de l’État-providence

Avec les révolutions conservatrices des années Reagan-Thatcher, c’est le noyau de ce sens commun qui est remis en cause. On reproche aux « bureaucraties » du « Welfare State » (l’équivalent en anglais de l’expression « État-providence ») d’être peu productives. Elles seront bientôt soumises au « New Public Management » qui, encadrant toute activité dans un réseau de hiérarchies plus fermes et de mesures statistiques, promet d’objectiver et de conforter la productivité.




À lire aussi :
Les origines néolibérales de la mondialisation : retour sur l’émergence d’un ordre géopolitique aujourd’hui menacé


On reproche aussi aux « bureaucrates » une tendance à identifier sans fin de nouveaux problèmes et besoins d’intervention, qui ont pour effet d’élargir leur juridiction et leurs effectifs. Un adage ironique disait des missionnaires : « Ils vinrent faire le bien. Ils restèrent et s’en trouvèrent bien. » Il vaudrait ainsi pour les agents de l’État social qui – c’est un aspect du rapport « vocationnel » qu’elles et ils ont souvent à leur travail – se penseraient comme les porte-paroles de leurs « gens à problèmes ».

C’est encore la multiplication des causes et des revendications (minorités, environnement, santé publique) et des progrès techniques faisant passer certaines situations de contraintes fatales à la possibilité d’agir (comme l’infertilité avec la procréation médicalement assistée, par exemple) qui aboutiraient à une incessante inflation des effectifs et des budgets publics.

Dans la veine de ce qu’Hirschman a identifié comme les invariants d’une rhétorique réactionnaire, l’argument est aussi de souligner que les politiques destinées à conjurer les problèmes publics en créent de nouveaux : sous prétexte de lutter contre la ségrégation scolaire on ferait baisser le niveau global, les programmes de lutte contre la pauvreté auraient davantage fait croître le nombre des « assistés » qu’ils n’auraient réduit celui de malheureux.

Ce virage critique, alimenté par des visions conservatrices et néolibérales, en vient aussi à questionner le statut des bénéficiaires des aides publiques. Ont-ils ou font-ils des problèmes ? Seraient-ils toujours fondés à jouer de la plainte si l’obésité vient de comportements alimentaires malsains, si traire l’État-providence est une stratégie pour ne pas travailler ? Un trop de compassion et de « droits à… » aurait-il engendré le « cancer de l’assistanat » ?

Répondre aux problèmes en les individualisant

Si la critique de la culture des problèmes publics a pu aboutir à réduire des droits et des prestations, il serait injuste de soutenir qu’elle se réduit à l’obsession du moins de droits et de coûts, au déni de tous les malaises sociaux. Cette dernière propose surtout de répondre à ces problèmes en les individualisant.

Selon elle, c’est d’abord par un travail sur eux-mêmes que celles et ceux qui font face à des difficultés en sortiront. Aux femmes d’acquérir par des formations ou thérapies psychiques d’empowerment la confiance en elles-mêmes ou d’apprendre à optimiser leurs « atouts féminins ». Aux demandeurs d’emploi de sortir de l’assistanat en acceptant plus de mobilité spatiale et des emplois moins rémunérateurs. Alors ministre de l’économie, Emmanuel Macron avait ainsi expliqué les problèmes d’emploi d’ouvrières bretonnes du secteur sinistré de la volaille par leur « illettrisme »… auquel pourrait remédier un stage bien choisi.

Dans cette nouvelle culture, la solidarité n’est plus un droit inconditionnel, la réglementation n’est plus la voie royale des solutions. Priment désormais la logique contractuelle-conditionnelle, et un maillage d’incitations (les fameux nudges, « coups de coude » en anglais) qui n’ont pas forcément besoin d’État pour se structurer.

Un RSA ? Oui, mais le A soulignant une solidarité « active », il pourrait s’accompagner de l’obligation contractuelle de fournir des heures de service. Une allocation chômage ? Certainement, mais associée à la preuve d’un comportement actif et à l’impossibilité de refuser des offres décalées des expériences antérieures. Une politique de lutte contre la malbouffe qui engendre l’obésité ? Bien sûr, mais sans réglementation liberticide puisque s’affichent des Nutri-Scores et des injonctions à consommer cinq fruits et légumes par jour, et que même Coca-Cola incite ses consommateurs à faire du sport. Faut-il encore consacrer d’énormes ressources à une politique du trafic urbain quand il suffit de s’équiper de l’application Waze pour se jouer des bouchons ?

Renouveler la « nouvelle » culture des problèmes publics

Si la critique de la culture des problèmes publics a pu en souligner des inefficacités, des points aveugles, elle a également généré davantage de problèmes qu’elle n’a pu en résoudre. La pathologie du chiffre qui a consommé un temps croissant en production de statistiques a, par exemple, amené les policiers à remplacer du temps de terrain par du temps devant un clavier, et à ne pas enregistrer certaines plaintes pour ne pas avoir de mauvais chiffres.

La prise en charge des problèmes publics par le privé engendre elle-même de nouveaux problèmes : contourner l’État, c’est aussi se priver de ses agents quand il faut systématiquement vérifier le respect des règles. La complexité de certains dossiers et mécanismes de conditionnalité ont fait par ailleurs croître ce qu’on nomme le « non-recours » à des droits ou services. Si les finances publiques y gagnent, la justice moins.

La nouvelle culture des problèmes publics est, enfin, dépolitisante. Renvoyant à la responsabilité individuelle la genèse de bien des malaises, elle suggère l’oxymore du problème public privé. Mais les causes du réchauffement climatique, les réponses qu’il exige n’ont-elles pas une dimension plus structurelle que des négligences individuelles, toutes comparables ? Si 20 % des États-Uniens souffrent de difficultés relationnelles majeures, n’y aurait-il pas là le symptôme d’un dysfonctionnement social dont la solution n’est peut-être pas un open-bar d’anxiolytiques ? Cette culture promeut ainsi le chacun pour soi, et une vision du monde où – au-delà du caritatif – l’agir ensemble ne serait qu’énergie et argent gaspillés, voire probabilité de catastrophes liberticides.

Les économies radicales sur l’action publique ont, enfin, un coût – expansion de la pauvreté, déclin de la santé publique, canalisation des naufragés de l’État-providence vers des économies souterraines ou criminelles.

Mais si la nouvelle culture des problèmes publics peut être contestée sur ses résultats pratiques, elle doit tout autant l’être par les débats qu’elle rend impossibles ou biaisés en diabolisant tout ce qui est « public » et en faisant de l’initiative et du volontarisme individuels les seuls outils légitimes de réponse à des problèmes qui restent, quant à eux, obstinément systémiques.

The Conversation

Érik Neveu ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Libéraux et conservateurs ont-ils raison de s’attaquer à l’assistanat et à l’État social ? – https://theconversation.com/liberaux-et-conservateurs-ont-ils-raison-de-sattaquer-a-lassistanat-et-a-letat-social-272291

Affaire Grasset : la relation auteur-éditeur, une ressource précieuse et menacée

Source: The Conversation – France in French (3) – By Olivier Bessard-Banquy, Professeur des universités, spécialiste du livre et de l’édition période contemporaine, Université Bordeaux Montaigne

Le limogeage d’Olivier Nora, à la tête de la prestigieuse maison d’édition Grasset depuis vingt-six ans, a entraîné le départ concerté de 200 auteurs, choqués par le séisme provoqué par Vincent Bolloré. Si le couple auteur-éditeur a traversé deux siècles d’histoire du livre, en France, il n’avait jamais encore affronté une telle mise à l’épreuve.

(Déclaration d’intérêts : Didier Pourquery, président de l’association The Conversation France, fait partie des auteurs ayant déclaré qu’ils quittaient Grasset à la suite du limogeage d’Olivier Nora.)


Le départ de plus de 200 auteurs – signant la fin du label fondé par Bernard Grasset en 1907 – dit assez le choc que constitue le limogeage d’Olivier Nora, démis de ses fonctions par les dirigeants du groupe Hachette, sous la coupe de Lagardère que contrôle Vincent Bolloré par l’intermédiaire de Vivendi, mais aussi le lien fort qui unit l’éditeur à ses auteurs.

Tout a été dit déjà sur les causes de cette démission forcée et sur la façon dont ce nouveau capitalisme aux puissants ressorts idéologiques entend imposer son logiciel non pas seulement au cœur d’une maison reprise – Fayard qui a publié, depuis, Marion Maréchal-Le Pen –, mais bien à l’ensemble du groupe Hachette, le premier de l’édition française, dont on vient de célébrer le bicentenaire.

C’est qu’un éditeur n’est pas du tout aux yeux de ses auteurs un simple industriel au service de leur œuvre, comme le rappelle Anthony Glinoer dans son livre Être éditeur. Il est leur premier lecteur, celui qui les aide à perfectionner leurs pages, mais il est aussi celui qui les protège, qui les défend et qui, en leur permettant de trouver place au cœur d’un catalogue, riche d’une histoire qui en impose, leur donne une force de groupe.

S’inscrire dans une descendance

Qu’y a-t-il de plus prestigieux pour un jeune auteur que de démarrer sa carrière dans la collection « Blanche » chez Gallimard, là même où ont été proposées au public les œuvres de Gide, Proust, Malraux, Saint-Exupéry, Sartre ou Camus, parmi tant d’autres ?

Tous ceux qui ont été accueillis chez Grasset par Olivier Nora ont pu, eux aussi, s’inscrire dans une descendance, prolonger la longue histoire d’une fabrication d’événements littéraires de premier ordre, depuis le lancement de Raymond Radiguet dans les années 1920, les réussites éclatantes avec la révélation d’auteurs, comme Irène Némirovsky, et toutes les parutions heureuses de Jean Cocteau, d’Henry de Monfreid ou de Bruce Chatwin sans oublier les classiques Lettres à un jeune poète, de Rilke, ou le Nom de la rose d’Umberto Eco, parmi tant d’autres, comme l’a rappelé Pascal Fouché dans sa tribune au Monde.

De François Mauriac à Charles Bukovski, l’évolution de la maison Grasset a pu surprendre. Mais elle est restée une maison généraliste, pluraliste, où toutes sortes de sensibilités, littéraires ou politiques, ont pu s’exprimer. Olivier Nora poussé dehors, c’est la garantie de cette diversité qui disparaît – et, avec elle, tout le professionnalisme d’équipes dévouées pour assurer le plus grand rayonnement à l’œuvre des créateurs.

Le couple auteur-éditeur, indissociable de l’histoire de l’édition

Depuis le XIXᵉ siècle et l’affirmation de la figure de l’éditeur, ce professionnel au carrefour de la culture et de l’économie n’a cessé de nouer des liens toujours plus forts avec ses auteurs. Quand les espérances de vente ont pu devenir plus importantes, quand les plumes ont eu le légitime espoir de réussir à percer grâce au travail des maisons qui les ont portées, les écrivains n’ont pas tardé à saisir tout l’intérêt de lier leur destinée à celle d’un patron capable de transformer la valeur littéraire en valeur marchande.

Ernest Renan a été l’un des premiers à saluer l’action efficace de son éditeur, Michel Lévy ; toute l’histoire du livre est riche de ces couples légendaires que sont Gracq et Corti, Beckett et Lindon ou Perec et POL, après Verne et Hetzel ou Céline et Denoël.

Le soutien sans faille des auteurs Grasset en faveur d’Olivier Nora suffit à dire combien ce patron charismatique a su les publier au mieux – de ce point de vue la tribune publiée par Vincent Bolloré dans le JDD du 19 avril paraît tout aussi peu recevable que choquante. Peu d’éditeurs eussent fait mieux que le patron limogé à la tête de Grasset quand on sait qu’il a eu à affronter la séduction plus flamboyante que jamais de la NRF, la débrouillardise étonnante d’Albin Michel, la force d’attraction du Seuil toujours vive, dans un contexte de tassement des lectures ou de montée en puissance de l’occasion au détriment du livre neuf.

Recherche de rentabilité

Sans nul doute, au fur et à mesure des rachats de maisons au fil des ans, après 1945, tantôt par Hachette, tantôt par Gallimard ou le Groupe de la Cité, les auteurs ont-ils appris à distinguer la figure de l’editor, chargé de les suivre au sein de la maison, du publisher, présidant aux destinées de la marque.

Mais la très forte dimension personnelle du lien auteur-éditeur, rappelée par Sylvie Perez dans son livre Un couple infernal, a sans doute longtemps occulté la question pourtant devenue prégnante du capital tapi derrière le label. La parution de l’Édition sans éditeurs, d’André Schiffrin, en 1999 a fait prendre conscience des mutations en cours dans un contexte de concentration accrue dans le monde des médias et de la recherche furieuse de rentabilité maximale au sein des conglomérats du livre au détriment de toute logique éditoriale.

La brutalité avec laquelle les maisons du groupe Hachette sont sommées de s’adapter à ce qu’est l’idéologie qui doit animer l’ensemble des marques récupérées bouleverse toute l’édition, car il apparaît évident que la relation auteur-éditeur aujourd’hui ne peut plus être déconnectée des risques qui peuvent peser sur les maisons demain, quand elles seront peut-être reprises par des intérêts inconnus aux projets insondables.

La question de la clause de conscience que de plus en plus d’auteurs appellent de leurs vœux mérite assurément d’être étudiée – quand bien même elle demeure en l’état difficile à mettre en œuvre s’il s’agit de rendre tous les catalogues des maisons virtuellement vides en cas de départ des auteurs. C’est toute une nouvelle réflexion juridique qui doit être envisagée, débouchant peut-être sur de nouvelles dispositions légales afin que des équilibres soient trouvés. Pour donner toute forme de liberté possible aux auteurs sans vider les marques de leurs richesses.

Les petites maisons d’édition dans ce dispositif ont-elles une carte à jouer ? Sont-elles moins concernées que les grandes par ces menaces de mise au pas politique ? On peut le croire à première vue, car on voit mal de belles marques, comme Le Temps qu’il fait, comme L’Échappée, comme Allia, se vendre à de nouveaux propriétaires susceptibles de suivre la voie de la « trumpisation » de la culture.

Mais les malheurs de quelques maisons, vendues puis revendues, tombées de Charybde en Scylla, montre que tout est possible. La NRF dans les années 1980 n’a-t-elle pas été à deux doigts d’être reprise par Bouygues ?.

Bien malin qui peut dire ce que l’avenir du livre réserve aux maisons généralistes d’aujourd’hui sans le moindre projet politique. Car le livre comme la presse demeurent des secteurs attirants pour de grands argentiers qui pensent ainsi pouvoir faire triompher leurs idées et manipuler l’opinion. Il s’agissait jadis d’investissement, il s’agit désormais d’influence. Personne n’est à l’abri nulle part. Minuit, Bourgois, POL ont pu glisser dans le portefeuille des Gallimard, sans dommage, mais qu’en sera-t-il demain ?

Les rapports entre auteurs et éditeurs en sont forcément modifiés. Non qu’ils ne puissent plus se nouer dans la confiance. Mais s’ils sont idylliques le lundi, qu’est-ce qui prouve que la donne capitalistique ou idéologique ne s’en trouvera pas modifiée le mardi ?

The Conversation

Olivier Bessard-Banquy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Affaire Grasset : la relation auteur-éditeur, une ressource précieuse et menacée – https://theconversation.com/affaire-grasset-la-relation-auteur-editeur-une-ressource-precieuse-et-menacee-281443

Gazprom et les stratégies de l’artwashing et du sportwashing

Source: The Conversation – France in French (3) – By Oriana Jimenez, Doctorante en études slaves, Université Bordeaux Montaigne

Publicité de Gazprom mettant en avant son association avec la Ligue des champions de football, 2020. Capture d’écran issue d’un spot publicitaire de Gazprom

L’« artwashing » et le « sportwashing » représentent deux formes contemporaines de soft power. Ces stratégies, dont les dénominations sont inspirées du plus fréquent « greenwashing », consistent à mobiliser l’art, la culture ou le sport afin d’améliorer l’image d’acteurs étatiques ou économiques controversés. L’entreprise Gazprom, géant russe du gaz, s’est largement impliquée dans ce genre d’activités au cours des vingt dernières années pour tenter de donner à la Russie la réputation d’un État moderne, bienveillant et constructif. Des efforts auxquels l’invasion à grande échelle de l’Ukraine en 2022 a mis fin presque partout en Occident, mais qui ont depuis été réorientés vers les pays des BRICS.


Depuis quelques années, les notions d’artwashing et de sportwashing se sont imposées dans le débat public pour désigner de nouvelles stratégies d’influence. Ces pratiques consistent à mobiliser l’art, la culture ou le sport afin d’améliorer l’image d’acteurs étatiques ou économiques – souvent dans un contexte de controverses politiques ou éthiques. Elles s’inscrivent dans une logique de soft power, en agissant non sur les gouvernements, mais directement sur les opinions publiques.

L’artwashing désigne une utilisation de l’art, de la culture ou du mécénat artistique pour améliorer l’image publique d’un acteur. Le terme apparaît sous la plume de Mel Evans, dans Artwash : Big Oil and the Arts (2015), où il est employé pour dénoncer les liens entre une compagnie pétrolière (BP) et le financement de la culture (le musée Tate de Londres). Le sportwashing, quant à lui, renvoie à l’usage du sport comme outil de communication et de légitimation politique. Il s’agit, pour un État ou une entreprise, d’associer son image aux valeurs positives du sport. Selon Stephen Crossley et Adam Woolf, la première mention du terme daterait de 2012.

L’analyse de ces campagnes met en lumière un élément central : elles reposent sur une représentation précise du public visé. Chaque opération suppose une connaissance fine des imaginaires sociaux, culturels ou moraux mobilisables pour susciter l’adhésion. L’artwashing s’adresse principalement à un public plus restreint. Le sportwashing, à l’inverse, s’adresse à un public de masse. Ces deux logiques ne s’opposent pas, elles se complètent. Ensemble, elles forment les deux faces d’un même projet : redéfinir l’image d’une entreprise ou d’un État dans un langage accessible à tous.

C’est dans cette perspective que le cas de Gazprom, leader mondial du gaz naturel, mérite une attention particulière.

Gazprom et le « sportwashing »

L’industrie gazière Gazprom – abréviation de Gazovaïa Promychlennost – est contrôlée par le « clan Poutine » depuis le début des années 2000. L’État russe en détient une participation majoritaire et lui a accordé le monopole de l’exportation de gaz. Dans le domaine sportif, l’entreprise a multiplié les investissements stratégiques. En 2012, elle signe d’abord un contrat avec l’UEFA (Union des associations européennes de football, ndlr) jusqu’en 2015, estimé à 40 millions d’euros annuels, pour sponsoriser la principale compétition continentale de clubs : la Ligue des champions. Cet accord a été renouvelé à plusieurs reprises jusqu’à sa rupture en 2022, au lendemain de l’invasion à grande échelle de l’Ukraine en février 2022.

En finale de la Ligue des champions 2017, le Croate Mario Mandžukić marque un but spectaculaire pour la Juventus de Turin contre le Real Madrid, qui sera finalement victorieux 4-1. Derrière le gardien du Real Keylor Navas, les panneaux publicitaires de Gazprom sont parfaitement placés.
Uefa.com

L’année suivante, Gazprom conclut un accord avec la Fifa (Fédération internationale de football association, ndlr) pour la période 2015-2018. Ces investissements constituent à la fois un moyen de compenser une image dégradée par l’annexion de la Crimée et un outil de promotion dans la lignée de l’expansionnisme russe du XIXᵉ siècle. En sponsorisant ces compétitions internationales, Gazprom devient une « entreprise-monde », captant une partie de la valeur symbolique des événements sportifs auxquels son nom est accolé. L’un des rapports publics de la compagnie sur son financement de la Coupe du monde 2018 ne laisse pas de doute sur l’efficacité de cette campagne publicitaire. Elle se reflète dans les enquêtes d’opinion menées par Gazprom : plus de la moitié des Européens interrogés perçoivent Gazprom comme un fournisseur de gaz fiable, notamment parmi les amateurs de football.

À l’échelle locale, Gazprom développe dès 2005 un lien étroit avec le Zénith Saint-Pétersbourg – club situé à proximité du point de départ du gazoduc Nord Stream, à Vyborg – dont le stade est d’ailleurs renommé Gazprom Arena. En 2007, elle devient le sponsor principal du club allemand Schalke 04 de Gelsenkirchen (Rhénanie-du-Nord-Westphalie) pour environ 9 millions d’euros par an – un prix bien supérieur à la moyenne du marché. Ainsi, Schalke se place au sixième rang des clubs les mieux financés, juste après des géants comme l’AC Milan, Chelsea ou encore le Real Madrid – ce qui ne correspond pas à son niveau sportif ni à sa notoriété. Ce choix est symbolique : Gelsenkirchen est l’un des centres historiques du marché énergétique allemand.

Depuis 2010, Gazprom sponsorise aussi l’Étoile rouge de Belgrade, sauvant le club de la disparition, à une époque où le gazoduc South Stream – depuis, abandonné – était en négociation. Ce gazoduc devait traverser sept pays européens, dont la Serbie – alliée historique de la Russie. South Stream s’inscrivait dans la stratégie russe de consolidation d’alliances régionales. Un document officiel du gouvernement serbe de 2025 détaille l’intention de Belgrade de renforcer les liens économiques avec la Russie, notamment dans le domaine de l’énergie. Ainsi, la stratégie de Gazprom semble porter ses fruits. L’accord a été maintenu en dépit de l’invasion de l’Ukraine.

Depuis février 2022, après avoir perdu de nombreux contrats, l’entreprise cherche de nouveau à étendre son réseau d’influence sportive, notamment en Hongrie, où le FC Ferencváros était visé. Cependant, l’accord n’a pas été officiellement conclu, et la récente défaite électorale du premier ministre Viktor Orban – l’un des rares dirigeants européens à soutenir ouvertement Vladimir Poutine et sa politique – ne semble pas laisser présager un quelconque rapprochement entre le géant russe et le club de Budapest.

Gazprom et l’« artwashing »

Parallèlement, Gazprom possède un vaste groupe médiatique, Gazprom-Media, qui contrôle des dizaines de chaînes de télévision, de radios, de plateformes numériques et de salles de cinéma. L’entreprise finance également expositions, festivals et projets artistiques en Russie et à l’étranger.

Gazprom fut notamment mécène, au côté d’Engie, de l’exposition Pierre le Grand, un tsar en France. 1717 au château de Versailles en 2017. Le PDG de Gazprom France déclarait alors que, si les énergies fossiles venaient un jour à disparaître, les grandes institutions culturelles demeureraient et conserveraient le nom de leurs bienfaiteurs. Ce mécénat s’inscrivait dans un contexte diplomatique précis : malgré les sanctions liées à l’annexion de la Crimée, la France et la Russie ont affiché une volonté de rapprochement, incarnée par cette exposition à laquelle Emmanuel Macron et Vladimir Poutine ont assisté côte à côte.

Depuis 2022 et l’exclusion de la Russie des grandes compétitions sportives internationales, Gazprom semble avoir réorienté ses investissements.

À l’étranger, les projets culturels de Gazprom se concentrent désormais majoritairement sur la Chine, les pays des BRICS et le Sud global – une telle initiative qui traduit une volonté de construire de nouveaux relais symboliques hors du cadre occidental.

En 2025, Gazprom-Media a soutenu le film russe Groupe sanguin, présenté au China Film International Festival. Ce film, consacré à la mémoire de la Seconde Guerre mondiale, participe à une relecture historique valorisant la souffrance soviétique et créant des parallèles avec la mémoire chinoise. Cette démarche s’est inscrite dans une stratégie plus large de rapprochement entre la Russie et la Chine, dans un contexte de recomposition géopolitique et de volonté de dissociation du monde occidental.

Du mécénat au soft power

Ces pratiques illustrent l’émergence d’une nouvelle forme de diplomatie qui ne s’adresse plus seulement aux gouvernements, mais directement aux publics.

Le père fondateur du soft power, Joseph Nye, définit celui-ci comme la « capacité d’influencer par l’attraction plutôt que par la contrainte », tandis que Nicholas Cull évoque une « nouvelle diplomatie publique » impliquant entreprises, institutions culturelles et médias. Cependant, comme le rappelle Maxime Audinet, cette diplomatie reste historiquement liée à des formes de propagande.

L’artwashing et le sportwashing apparaissent ainsi comme des avatars contemporains de cette diplomatie du public. Ils mobilisent les émotions et les valeurs culturelles pour influencer les perceptions internationales, tout comme les nouvelles formes de déstabilisation employées par le Kremlin. Ils sont un moyen innovant de faire basculer l’opinion publique sur certains sujets. Ce fonctionnement n’est pas sans rappeler les récentes stratégies d’influence et d’ingérence employées par le Kremlin après 2022, comme celle des étoiles de David peintes en région parisienne, suggérant une démultiplication des stratégies d’influence.

La frontière entre diplomatie culturelle, soft power et propagande demeure cependant fragile. Derrière la valorisation de l’art ou du sport se cachent souvent des objectifs économiques et politiques, soulevant des enjeux éthiques majeurs.

Gazprom apparaît ainsi comme un acteur innovant en matière d’influence et de diplomatie. Le géant russe a été l’un des premiers acteurs étatiques à financer massivement le football européen moderne, ciblant notamment des zones stratégiques liées aux infrastructures énergétiques. Depuis 2022, l’entreprise semble accorder une certaine importance au mécénat culturel et aux collaborations artistiques pour continuer à façonner l’opinion publique étrangère, établissant des ponts émotionnels et culturels qui échappent aux canaux gouvernementaux traditionnels et s’adressant directement aux populations. L’année 2022 marque ainsi un tournant pour Gazprom et la Russie, avec un réajustement stratégique orienté vers de nouvelles opportunités, en particulier la Chine, les BRICS et leurs rares alliés européens.

The Conversation

Oriana Jimenez ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Gazprom et les stratégies de l’artwashing et du sportwashing – https://theconversation.com/gazprom-et-les-strategies-de-lartwashing-et-du-sportwashing-278615

« Source »: la méthode des armées françaises pour faire de l’incertitude une opportunité

Source: The Conversation – France (in French) – By Marie Roussie, Docteur en science de gestion, spécialisée en prospective, Université Paris Dauphine – PSL

Face à des environnements stratégiques toujours plus incertains, les outils classiques peinent à transformer l’analyse en action. La méthode « Source », développée par les armées françaises, propose une approche en six dimensions pour relier diagnostic, ressources et décisions concrètes.


L’incertitude et la complexité dominent nos environnements stratégiques. Une conception aujourd’hui largement partagée, tous secteurs d’activité confondus. Le monde change, et ses transformations semblent de plus en plus difficiles à anticiper et à appréhender entre innovations technologiques, tensions géopolitiques, menaces écologiques, instabilités économiques ou encore bouleversements démographiques.

Dans ce contexte chaotique, la panoplie d’outils stratégiques disponibles peut sembler dépassée. Depuis les années 1960, la stratégie d’entreprise s’est progressivement dotée de nombreuses méthodes et matrices pour analyser la création de valeur. Mais la plupart ont privilégié des approches analytiques et compartimentées, au détriment d’une lecture plus systémique et relationnelle (c’est-à-dire pensant les liens entre les différentes thématiques analysées).

Elles n’offrent souvent qu’une vision parcellaire des enjeux stratégiques, et se cantonnent à offrir un constat et non des clés d’actions.

Beaucoup d’analyses, peu de décisions

C’est le cas par exemple du modèle en cinq forces de Porter en 1980. Outil fondateur de la stratégie, il se limite à proposer une analyse de la structure d’un marché, à décrire les pressions à l’œuvre sans éclairer la manière dont une entreprise peut transformer ces contraintes en opportunités.

De même, en 1970, la matrice BCG du Boston Consulting Group permet d’orienter l’allocation des ressources, mais la complexité de l’environnement stratégique est réduite à deux variables et postule un lien mécanique entre parts de marché et rentabilité – une hypothèse souvent contredite par la pratique.

Autrement dit, les analyses et rapports se multiplient, sans que les prises de décisions stratégiques suivent.

Les armées françaises font face à ce constat, avec une intensité toute particulière liée aux particularités de leurs métiers. Une mauvaise stratégie peut impliquer la mise en danger des intérêts de la nation, le déclassement industriel, technologique et scientifique, voire la mort. Elles ont alors travaillé à une méthode d’analyse stratégique qui leur soit propre et qui réponde à ces enjeux.

C’est la méthode « Source », développée en 2025 par la Direction générale de l’armement français. Quelle est la portée de cette approche sur le plan scientifique et quelles sont les possibilités d’applications managériales ?

Un changement de focale

Le cœur de réacteur de « Source » réside dans la posture stratégique fondée sur l’anticipation et l’action.

Les armées françaises l’ont, par exemple, appliquée à la problématique de l’énergie. Plus spécifiquement, à celle de l’accès au pétrole : comment assurer des approvisionnements suffisants pour les armées ? Comment garantir des capacités opérationnelles sans s’attirer les foudres de la société civile qui militent pour une baisse drastique de l’usage du pétrole ? Des questions sur lesquelles nombre d’experts s’arrachent les cheveux depuis des années.

« Source » a offert un nouvel éclairage : s’octroyer une capacité souveraine de production de biocarburants, en attirant des acteurs étrangers sur le sol français et en faisant fructifier leurs expertises. Les armées ne tiennent pas à livrer ici tous leurs secrets stratégiques… mais, demain, le biopétrole pourrait être un atout de souveraineté stratégique.

Ici repose le premier enseignement à tirer de cette méthode. La culture propre aux armées amène à toujours considérer l’action au-delà de la réflexion. Pour le biocarburant, les acteurs à approcher ont été identifiés ainsi que les différentes étapes stratégiques à mettre en place (de l’achat sur étagère à des montages de joint venture). Car une bonne analyse qui n’offre qu’une cartographie d’enjeux reste lettre morte. La traduction de cette même cartographie en actions retient l’intention et enclenche déjà un mouvement au sein de l’organisation.

Une méthode en six dimensions

Cette approche stratégique très active se traduit dans le processus de réflexion de « Source ». Chaque sujet traité est analysé, problématisé et exploité au travers de six dimensions clés :

Situation De manière classique mais indispensable, tout part de l’analyse d’une situation contextualisée pour en comprendre les enjeux.

Opportunités Cette situation est traduite en opportunités, identifiées depuis un point de vue singulier (d’un acteur, d’une institution, d’un pays, etc.).

Utilité Une opportunité n’a d’intérêt que si elle est utile pour l’acteur qui doit l’exploiter, ce qui permet de sélectionner le champ d’action à plus-value parmi les opportunités identifiées.

L’enchaînement de ces trois dimensions permet de qualifier une situation stratégique externe. Par la suite, la méthode « Source » se consacre à questionner les capacités de réponses internes.

Ressources Tous les éléments, tangibles et intangibles, à disposition et pertinents en vue d’atteindre l’utilité préalablement définie.

Connexions Tous les acteurs à inclure et à mobiliser pour exploiter les ressources identifiées et assurer leur bonne mise en résonance.

Exploitations Listes d’actions concrètes à mettre en place suivant un calendrier donné, intégrant les premiers petits pas les plus faciles à engager.

Des fiches stratégiques courtes et explicites

Sur le plan formel, cette méthode se diffuse via des fiches stratégiques. Elles sont volontairement courtes (quatre pages maximum) et graphiques (illustration, infographie, schéma). En un coup d’œil, tout décideur doit pouvoir comprendre la thématique abordée et les recommandations stratégiques qui en découlent. Une ambition forte à une époque où la chute de la concentration se cumule à une explosion du nombre d’informations auxquelles un même individu est exposé chaque jour. Dans la course à l’économie de l’attention, les armées ont misé sur un format très court, loin des rapports stratégiques classiques.

Là où l’entreprise multiplie les slides de présentation, « Source » opte pour une approche synthétisée et visuelle. Et la méthode semble offrir des intérêts bien plus larges…

Elle met tout d’abord en place un outil d’analyse intégrative, capable d’articuler une analyse externe et interne en vue d’une exploitation la plus holistique possible. Cet outil ne se contente pas de décrire les positions ou les actifs, mais il aide à comprendre comment les forces armées peuvent composer des écosystèmes, prototyper des coopérations et développer des modèles évolutifs. Autrement dit, passer de la stratégie comme lecture d’un champ de forces, à la stratégie comme design d’un système vivant.

Une approche qui peut avoir un écho fort en management stratégique dans différentes entreprises et différents secteurs. Placer les ressources (internes, externes) au cœur du processus de décision stratégique n’est pas inédit. Mais si l’on raisonne simplement, il s’agit de les envisager de façon pratique : voir comment utiliser concrètement les ressources déjà disponibles, définir les connexions et les relations à créer ou à activer entre ces ressources afin d’obtenir l’effet recherché à l’avance.

Avec « Source », la stratégie devient un système à faire fonctionner. La place accordée aux connexions stimule également d’autres réflexions. Elle introduit une pensée interservices, interdirections, qui dépasse les seules expertises métiers. Elle assume un désilotage stratégique fort.

Encore à ses débuts

« Source » en reste cependant à ses débuts, peu de retours existent à date sur son impact sur les prises de décision stratégique. Si la méthode est explicite (avec ces six dimensions clés), la question de sa bonne appropriation en dehors des sujets de défense reste ouverte. Un format si court permet-il de convaincre sur les recommandations proposées ? Ne favorise-t-il pas à l’inverse des biais cognitifs dans l’analyse ?

Derrière la volonté de présentation synthétique de « Source » se cachent en réalité des heures de recherche et d’entretiens pour être capable d’appréhender un enjeu stratégique en quelques pages (voire mots) et décider d’une vision sécante à son sujet. Cette vision sécante questionne, car elle relève principalement aujourd’hui de l’intuition. Si « Source » outille pour transmettre cette vision, elle n’offre pas de méthode pour la construire.


Cet article a été écrit avec le concours de Jean-Baptiste Colas, Direction générale de l’armement.

The Conversation

Marie Roussie est membre du Collectif Making Tomorrow et de la société Alt-a. Elle a travaillé au sein de la Red Team Défense du ministère des Armées français, qui a constitué son terrain de recherche pour sa thèse. Elle poursuit les explorations stratégiques et prospective du futur des conflits auprès de différents acteurs.

Nicolas Minvielle est membre du comité d’orientation de la Fabrique de la Cité. Il a été animateur de la Red Team Défense des armées, et et LCL(R) au sein du Commandement du Combat Futur de l’armée de terre. Il est par ailleurs membre du collectif Making Tomorrow

ref. « Source »: la méthode des armées françaises pour faire de l’incertitude une opportunité – https://theconversation.com/source-la-methode-des-armees-francaises-pour-faire-de-lincertitude-une-opportunite-276821

Diversité-équité-inclusion : pas de jackpot immédiat pour les entreprises

Source: The Conversation – France (in French) – By Salomée Ruel, Professeur, Pôle Léonard de Vinci

Depuis l’élection de Donald Trump, certaines entreprises reviennent sur leur politique diversité-équité-inclusion. Certaines remettent en cause le coût de ces politiques, d’autres son efficience. Mais que recouvrent vraiment ces coûts et ces bénéfices ?


Alors que certaines entreprises revoient leurs engagements en matière de diversité-équité-inclusion (DEI) à la baisse (aux États-Unis, Goldman Sachs envisage par exemple de retirer l’origine ou le genre des critères de sélection de ses administrateurs), d’autres, comme Colgate Palmolive, les défendent publiquement.

Ce mouvement s’inscrit dans un « DEI backlash » : depuis 2023, pressions politiques et propositions d’actionnaires se multiplient pour supprimer certains dispositifs. Cette séquence relance une question très opérationnelle : la DEI améliore-t-elle vraiment la performance ?

Un sujet uniquement RH ?

La DEI est souvent discutée comme un sujet RH ou politique. Dans la gestion des opérations et de la logistique, c’est aussi un sujet de fiabilité, de résolution de problèmes et de capacité d’adaptation : en crise, une entreprise dépend de la qualité de ses relations avec ses équipes et ses fournisseurs qui peuvent être divers. Qu’en est-il réellement ?




À lire aussi :
Comment lutter pour la diversité en entreprise à l’ère du trumpisme ?


Pour dépasser les slogans, dans une recherche récente, nous avons combiné une analyse statistique de données issues de grandes entreprises américaines (tout secteur) à dix entretiens avec des praticiens DEI et des professionnels de la logistique et des opérations afin de comprendre les raisons pour lesquels les résultats en termes de DEI sont si nuancés.

Nous avons rapproché deux bases : des évaluations « diversité & inclusion » laissées par des salariés sur Glassdoor et des données financières et opérationnelles sur des entreprises du Fortune 500. Les données portent sur la période allant de 2020 à 2024. Les analyses montrent que quand la perception de la DEI est meilleure, la rentabilité comptable (ROA) est légèrement plus faible l’année suivante. Par ailleurs, les résultats ne montrent pas d’association statistiquement robuste avec la valorisation boursière ni avec l’innovation (nombre de brevets).

Un signal à court terme

Lorsque l’on regarde à deux ou trois ans, l’effet négatif sur le ROA disparaît : le signal est donc à court terme. Les données ne confirment pas l’existence d’un « jackpot » immédiat de la DEI sur les indicateurs financiers et opérationnels. Elles suggèrent plutôt des coûts et des frictions au démarrage, tandis que les bénéfices, s’ils existent, peuvent être plus diffus ou captés par d’autres indicateurs que le résultat comptable.

Les entretiens aident à comprendre ces résultats. Ils font apparaître deux réalités simultanées :

  • la DEI peut améliorer les opérations,

  • mais une DEI mal conçue ou conçue pour « faire bien » peut créer des effets contre-productifs.

Plusieurs interviewés décrivent des bénéfices, côté gestion des opérations et de la logistique, notamment via la diversité des fournisseurs et des équipes. Prenons trois exemples. Au sujet de la résilience des fournisseurs, un interviewé raconte que, en pleine crise Covid, une entreprise cherchant des équipements de protection a trouvé « une entreprise appartenant à une minorité qui nous a garanti un approvisionnement ininterrompu ». Autrement dit, des fournisseurs souvent plus petits, parfois ignorés des panels habituels, peuvent être agiles quand les canaux standards saturent.

À propos de la négociation, une manager supply chain note :

« Nous obtenons de meilleurs accords maintenant […] dans nos équipes de négociation, il y a un meilleur équilibre entre hommes et femmes et des manières de négocier plus collaboratives. »

Ici, l’idée n’est pas qu’un genre « négocie mieux », mais que la diversité peut changer les styles d’interaction, avec des effets sur la qualité des accords.

Une capacité d’accès à de nouveaux réseaux

Enfin, quant au sujet de l’inclusion du handicap, un responsable explique avoir longtemps peiné à « faire quelque chose d’impactant » jusqu’à travailler avec une organisation « dirigée et entièrement composée de personnes en situation de handicap ». Résultat : « Immédiatement, nous avons constaté une augmentation de la représentation des personnes en situation de handicap dans nos effectifs. »

Le levier, ici, n’est pas un discours, mais une capacité d’accès à des réseaux et à des candidats que l’entreprise ne touchait pas, alors que le domaine des opérations et de la logistique peine à recruter des employés. Ces exemples convergent : la DEI crée de la valeur quand elle est embarquée dans les processus (sourcing, contrats, management au quotidien), pas quand elle reste une tâche pour « faire bien » sur une To-Do-List.

Néanmoins, les entretiens éclairent aussi les raisons du signal négatif à court terme sur la rentabilité. Car, sur le terrain, la DEI peut vite se heurter à une série de pièges très concrets. D’abord, il y a le coût de la mise en œuvre. Faire entrer la DEI dans les processus (recrutement, formation, relations fournisseurs, accompagnements individualisés) mobilise des ressources et de l’énergie managériale. Un interviewé résume la tension sans détour : « Les compromis autour de la DEI se sont toujours faits au détriment des économies ».

Radio Canada, 2025.

Inefficace DEI de façade

Ensuite, la dynamique interne peut se tendre lorsque certains salariés ont le sentiment d’être relégués au second plan lorsque les politiques de DEI sont mises en place. Un participant évoque « une période […] où certains groupes de personnes se sont sentis oubliés », au profit d’actions en faveur de l’intégration de personnes issues de minorités. Dans son exemple, des hommes blancs expérimentés qui se vivent comme devenus persona non grata. Ces perceptions alimentent résistance, démotivation et frictions quotidiennes. Or, ces frictions finissent par se voir dans les résultats financiers à court terme.

Enfin, un dernier écueil revient souvent, celui de la DEI de façade. Quand l’entreprise privilégie ce qui est le plus simple et le plus visible, sans toucher aux règles de gestion de carrière, d’évaluation ou d’allocation des opportunités, l’inertie demeure. Comme le dit une consultante :

« Ils font souvent ce qui est le plus facile à faire […] Rien de tout cela ne fonctionne, mais ça donne une bonne image de l’entreprise. »

Dans ce cas, les bénéfices attendus en termes de fidélisation, d’innovation et de qualité des décisions restent largement hors d’atteinte.

Au vu de ces résultats, la question n’est peut-être pas tant « faut-il faire de la DEI ? », mais « de quoi parle-t-on exactement quand on parle de DEI ? ». Nos analyses statistiques montrent un effet financier négatif plutôt à court terme et qui ne persiste pas. Puis nos entretiens racontent une réalité plus qualitative : des bénéfices opérationnels existent, mais ils ne sont ni automatiques, ni gratuits, ni garantis.

Au-delà du débat binaire

C’est aussi ce qui rend la séquence actuelle (entre retraits et défenses publiques) difficile à interpréter. Une annonce de « recul » peut parfois traduire un arbitrage prudent face à des contraintes juridiques ou politiques ; elle peut aussi masquer l’abandon discret d’initiatives pourtant utiles sur le terrain. À l’inverse, « maintenir la DEI » peut signifier des changements de processus profonds… ou seulement un effort de communication mieux maîtrisé.

Plutôt qu’un débat binaire, nos résultats invitent surtout à regarder les faits : la DEI se traduit-elle dans les pratiques de recrutement, dans la façon d’intégrer et de faire progresser les personnes, dans la relation avec les fournisseurs, dans la capacité des équipes à résoudre les problèmes sans s’épuiser ? C’est à ces endroits, concrets, que se joue l’impact. C’est aussi là que les coûts initiaux peuvent être compensés, ou au contraire s’accumuler.

Au fond, si la DEI peut ressembler à une dépense à court terme, c’est peut-être parce qu’elle est une transformation comme les autres : elle ne produit des effets que quand elle entre dans les routines et elle déçoit quand elle reste à la surface. C’est ce décalage entre affichage et pratiques qui explique aussi pourquoi l’actualité américaine est si difficile à décoder : derrière « DEI », certaines entreprises changent réellement leurs modes de fonctionnement, quand d’autres ne font que déplacer le curseur ou changer le vocabulaire.

The Conversation

Salomée Ruel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Diversité-équité-inclusion : pas de jackpot immédiat pour les entreprises – https://theconversation.com/diversite-equite-inclusion-pas-de-jackpot-immediat-pour-les-entreprises-277763

Influence des collègues : obtenir un crédit dépend-il uniquement des échanges avec son banquier ?

Source: The Conversation – France (in French) – By Sarah Maire, Assistant Professor in Accounting and Control, Ph.D., IÉSEG School of Management

Les conditions de crédits accordées aux entreprises ne dépendent pas uniquement de données quantitatives. Certains chargés de clientèle font confiance à des facteurs plus qualitatifs et consultent leurs collègues avant de prendre des décisions. Les directions des banques devraient se saisir de ce sujet pour tenter de corriger des écarts difficiles à objectiver.


Deux entreprises au profil financier similaire devraient obtenir les mêmes conditions de crédit. Dans le cas contraire, quels seraient les facteurs expliquant des conditions différentes d’une entreprise à une autre si ces deux entreprises représentent le même risque ?

Si l’évaluation d’un dossier de crédit repose sur une procédure objective établie par la banque, comment une telle situation peut-elle se produire ?

L’influence des collègues

L’une des pistes envisagées dans notre étude porte sur l’influence des collègues du chargé de crédit au sein d’un même centre d’affaires et soulève la question suivante : comment, à travers une discussion entre deux chargés de crédit, la décision finale se retrouve altérée selon l’opinion de son voisin de bureau ? Réussir à identifier une telle influence est crucial pour appréhender les inégalités de financement pouvant en résulter et ainsi envisager une modification des pratiques bancaires.

Lors d’une demande de financement à la banque, l’entreprise doit fournir un certain nombre d’informations et de documents pour que le chargé de crédit analyse le projet à financer et la situation financière de son client, tout en tenant compte du contexte économique. La décision d’octroyer ou non un crédit et ses conditions n’est pas aisée : quel montant d’emprunt autoriser ? À quel taux ?

La part du « feeling »

Ces décisions reposent non seulement sur des données chiffrées comme sa notation financière ou son chiffre d’affaires, appelées informations quantitatives, mais aussi sur une part importante de jugement humain basé entre autres sur le ressenti en rendez-vous, la durée de la relation entre la banque et l’entreprise, ou la maîtrise de la langue de l’emprunteur, appelées informations qualitatives.

Dans ce genre de situation impliquant de nombreux paramètres et un niveau de technicité important, le chargé de crédit peut être tenté de demander l’avis d’un de ses collègues afin d’être sûr de prendre la bonne décision. L’influence des collègues, ce qu’on appelle l’effet de pairs, peut ainsi influencer les préférences individuelles des chargés de crédit, allant jusqu’à un pour cent d’écart de taux.

Assimilation ou contraste ?

De manière générale, un individu a davantage tendance à demander l’avis d’une personne qui lui ressemble, mais cette attitude est principalement motivée par le désir d’obtenir des informations qui lui seront utiles dans sa situation personnelle. Ainsi, demander l’avis ne veut pas forcément dire adopter le même point de vue.

Dans le cas d’un chargé de crédit qui demande l’avis de son collègue, ce chargé de crédit peut donc avoir deux réactions différentes. Soit il décide d’ajuster son point de vue pour aligner sa décision avec ce que pense son collègue (posture d’assimilation), soit il choisit de ne pas aller dans le même sens que son collègue (posture de contraste). Les résultats de notre étude révèlent que les deux postures existent et dépendent du profil du chargé de crédit.

Dans le cas d’un chargé de crédit qui a tendance à privilégier les informations qualitatives davantage liées à la relation banque-emprunteur et qui en plus de ça travaille dans une agence où cette préférence est partagée, l’effet de pairs amplifie cette tendance et les chargés de crédit prêtent plus d’attention à ces informations. Ils se renforcent dans leurs positions et leurs décisions de crédit sont ajustées en conséquence : c’est un exemple d’assimilation où le chargé de crédit s’aligne sur ses pairs.

À l’inverse, l’effet de pairs peut atténuer les préférences individuelles dans le cas des chargés de crédit qui ont une préférence pour l’utilisation d’informations financières dites quantitatives pour prendre leur décision. Autrement dit, un chargé de crédit valorisant fortement l’analyse des documents comptables dans une agence où cette approche est moins partagée ajustera sa décision pour tenir davantage compte d’informations qualitatives, à priori moins importantes pour lui. Cette dynamique témoigne d’une posture de contraste où le chargé de crédit va ajuster sa décision dans le sens contraire de ce qu’il aurait fait sans l’avis de ses collègues.

Une question d’expérience ?

Les données qui soutiennent notre étude permettent en outre d’identifier les profils des chargés de crédit les plus sensibles à l’effet de pairs. D’abord, si l’on regarde les caractéristiques des chargés de crédits : les femmes, plus sensibles aux informations qualitatives, sont davantage influencées que les hommes. Leur évaluation des prêts est renforcée quand leurs collègues partagent leur vision relationnelle du crédit.

Si on se tourne vers l’expérience des chargés de crédits, les moins expérimentés sont plus perméables à l’opinion de leurs pairs. À l’inverse, les chargés seniors maintiennent davantage leurs positions initiales. Enfin, un fait surprenant est apparu : le niveau d’études ne semble pas influencer la sensibilité à l’effet de pairs.

L’environnement de travail joue également. Dans les petites agences où la socialisation est élevée, l’effet de pairs s’intensifie. Dans les plus grandes agences, où les interactions sont plus diluées, cet effet diminue. Enfin, un chargé de crédits privilégiant les informations qualitatives qui rejoint une agence partageant cette préférence verra l’impact de ses préférences accentué. Le résultat est le même pour ceux valorisant les informations quantitatives. Cela démontre que la composition d’une agence bancaire façonne les décisions d’emprunt, au-delà des politiques globales de la banque.

Une question pour les RH des banques

Ces conclusions amènent à poser la question de la meilleure organisation pour les banques ? Pour éviter une homogénéité excessive des décisions, qui peut conduire à discriminer certains emprunteurs ou à sous-évaluer certaines informations, les banques devraient favoriser la diversité des profils au sein d’une même agence en privilégiant la mixité de genre et la diversité d’expérience. Les mutations entre agences devraient également tenir compte de la composition actuelle des équipes, et pas seulement des affinités personnelles ou des postes vacants. Le recours à des outils d’IA ne supprimerait pas ce possible écart, car l’IA peut être très biaisée en fonction de la base qui l’a entraînée, et à ce jour une décision ne peut pas être prise par une IA.

Les décisions liées à l’octroi d’un crédit et à la détermination des conditions d’emprunt ne sont jamais purement individuelles. Elles se construisent dans un dialogue implicite avec les pairs, et cela ne peut être ignoré. Comprendre les mécanismes sous-jacents à ces prises de décisions permet aux banques de comprendre leurs propres pratiques et de rechercher des décisions plus justes pour elles-mêmes et leurs clients.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Influence des collègues : obtenir un crédit dépend-il uniquement des échanges avec son banquier ? – https://theconversation.com/influence-des-collegues-obtenir-un-credit-depend-il-uniquement-des-echanges-avec-son-banquier-278838