À Fos-sur-Mer, un territoire industriel portuaire à l’épreuve de la transition verte

Source: The Conversation – in French – By Fabien Bartolotti, Docteur en histoire contemporaine, Aix-Marseille Université (AMU)

Sous couvert de décarbonation, un projet de réindustrialisation de la zone industrialo-portuaire de Fos-sur-Mer, qui héberge des industries lourdes depuis le XIXe siècle, pourrait voir le jour. Il impliquerait notamment la création d’un « hub » d’hydrogène vert. Mais il n’est pas aussi vertueux au plan environnemental qu’il n’y paraît : il entretient la confusion entre décarbonation et dépollution. Surtout, il n’implique pas assez les populations locales dans la prise de décision.


Depuis plus de 200 ans – une durée sans équivalent dans l’ensemble du bassin méditerranéen – le territoire de Fos-étang de Berre, dans les Bouches-du-Rhône, est confronté aux effets des aménagements industriels et portuaires. Depuis presque aussi longtemps, ses habitants s’inquiètent régulièrement des nuisances et pollutions engendrées. Tout ceci dans le cadre d’un rapport de force inégal impliquant riverains, industriels, pouvoirs publics et experts.

Nouvel épisode en date, un projet de réindustrialisation et de décarbonation. C’est le sujet de la consultation organisée par la Commission nationale du débat public (CNDP) jusqu’au 13 juillet. Dans ce cadre, la zone industrialo-portuaire (ZIP) de Fos-sur-Mer serait transformée façon « Silicon Valley de la transition écologique ».

Un projet qui implique en réalité une nouvelle densification industrielle de la ZIP, et derrière lequel on retrouve beaucoup d’incertitudes et de non-dits.




À lire aussi :
Faut-il décarboner des usines qui ferment ? En Bretagne, les mésaventures de Michelin et l’hydrogène vert


Un territoire marqué par l’industrie lourde

Le territoire de Fos – étang de Berre a connu trois grandes phases industrielles depuis le début du XIXᵉ siècle. Chacune d’elles a contribué à créer des emplois et à intégrer ce territoire dans les flux économiques internationaux. Elles ont eu aussi d’importantes répercussions en matière de recompositions démographiques, d’aménagement du territoire mais, elles ont également occasionné des pollutions qui ont marginalisé les activités traditionnelles et mis en danger la santé des ouvriers et des riverains.

Les mobilisations contre la pollution apparaissent dès le début du XIXe siècle, lorsque la production de soude indispensable à la fabrication du savon de Marseille débute : pétitions, manifestations, interpellations des pouvoirs publics, procès, émeutes

L’État se préoccupe très tôt de la question des pollutions : décret du 15 octobre 1810 pour limiter les odeurs, création de conseils d’hygiène et de salubrité dans les départements (1848), loi du 19 décembre 1917 sur les établissements dangereux, insalubres ou incommodes, lois sur la pollution de l’atmosphère (1961) et de l’eau (1964), création du Secrétariat permanent pour la prévention des pollutions et des risques industriels (S3PI) en 1971…

Des historiens ont cependant démontré que ces dispositions étaient avant tout fondées sur une perception partielle des pollutions et qu’elles imposaient une gestion administrative pilotée par le préfet, plutôt libérale, industrialiste et technophile, généralement favorable aux industriels.

Ces travaux historiques ont souligné le rôle ambivalent dévolu à l’innovation technologique. Elle peut jouer un rôle clé dans la mesure, la compréhension, la dénonciation puis la réduction des pollutions industrielles, mais aussi faciliter leur acceptation. Ceci à cause des discours qui réduisent les enjeux à des aspects techniques véhiculant l’idée que la technologie finira par réparer ce qu’elle a abîmé.


Visuel d’illustration de la newsletter Ici la Terre représentant la planète Terre sur un fond bleu

Abonnez-vous dès aujourd’hui.

Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».


Le mythe de l’innovation technologique « salvatrice » favorise ainsi la densification industrielle et la perpétuation du mode de croissance à l’origine de la crise climatique et écologique.

Une « industrie du futur » qui se conjugue au passé

À Fos-sur-Mer, l’avenir de la ZIP se joue sous nos yeux. Il y a la volonté d’amorcer une nouvelle phase de croissance fondée sur des secteurs dits « verts ». Après avoir incarné le productivisme pollueur et le centralisme des Trente Glorieuses, le territoire fosséen deviendrait ainsi une vitrine du green business et un hub de la transition énergétique.

L’écologisation des pratiques entrepreneuriales se voit désignée sous une myriade de concepts : écologie industrielle, circulaire, durabilité, etc. De fait, elle reste surtout associée à la décarbonation, c’est-à-dire à la réduction des émissions de CO2.

La dynamique entraîne un retour massif des investissements (12 milliards d’euros), dans la zone. De nouvelles implantations industrielles sont ainsi envisagées à l’horizon 2028-2030 : fabrication de panneaux photovoltaïques (Carbon), d’éoliennes flottantes (Deos), d’hydrogène « vert » (H2V), de fer bas-carbone (Gravithy), d’e-carburants (Neocarb) ou encore de biosolvants (GF Biochemicals).

Les industries lourdes héritées des « Trente Glorieuses » connaissent, quant à elles, une rupture technique. C’est le cas d’ArcelorMittal (ex-SOLMER), qui abandonne son haut-fourneau au profit d’un four à arc électrique pour la production d’acier « vert ».

Mais cet élan industrialiste est loin d’être totalement disruptif. Il réinvestit les logiques mêmes qui, il y a 60 ans, ont présidé à la création de la ZIP.

Les prophéties économiques continuent de véhiculer un culte du progrès, non plus pour « reconstruire ou moderniser » la France, mais pour l’insérer dans les nouveaux marchés du capitalisme climatique. À l’instar du discours des années 1960, qui faisait alors miroiter la création de quelque 200 000 emplois, il est estimé que la décarbonation de la ZIP générera à elle seule 15 000 emplois.

Présentation du projet à l’occasion de l’ouverture du débat public en avril 2025.

On serait passé de l’aménagement au bulldozer à un processus plus horizontal, participatif et soucieux des aspirations locales. De nouvelles structures de coordination industrielle et de concertation (par exemple PIICTO) ont certes vu le jour. Mais elles n’ont ni permis d’apaiser les inquiétudes des riverains, ni d’amoindrir le rôle de l’État.

Dans sa grande tradition colbertiste, celui-ci garde la mainmise sur le processus décisionnel, la répartition des financements (par exemple à travers le plan d’investissement France 2030) et la diffusion de narratifs tels que le « réarmement industriel » ou la « souveraineté nationale et européenne ».

Des incertitudes et des risques minimisés

Il existe surtout une confusion trompeuse entre décarbonation (baisse des émissions de gaz à effet de serre) et dépollution (industries non polluantes).

Cette idée nourrit des imaginaires sociotechniques qui nous projettent dans des futurs confortables et nous laissent penser que nous allons pouvoir continuer à consommer comme avant. La question des externalités négatives, sociales et sanitaires des activités industrielles n’est jamais vraiment discutée. L’administration s’en remet aux lois en vigueur pour encadrer les débordements des nouvelles usines, traitées individuellement, c’est-à-dire, sans bilan global des émissions et rejets associés aux nouveaux hydrocarbures verts, qui viendraient s’ajouter aux pollutions accumulées depuis plusieurs décennies.

Ceci alors même que les pouvoirs publics n’ont pas réussi à juguler l’existant et que l’époque est à l’allègement des contraintes réglementaires pour un « réarmement industriel » et pour une décarbonation, ces définitions étant laissées à la libre définition des entrepreneurs : l’État intervient pour poser un cadre favorable aux investissements sans exercer ses prérogatives en matière de régulation.

La création d’un « hub de la transition énergétique » tel qu’il est envisagé aujourd’hui n’est pas nécessairement une bonne nouvelle pour les riverains. Elle engendrera un phénomène de « dépendance au sentier » (où les trajectoires possibles pour l’avenir seront influencées par les décisions et développements passés), dont il sera difficile de s’extraire par la suite, même s’il s’avère finalement que ce choix n’était pas judicieux.

D’autant plus que des incertitudes – voire des non-dits – pèsent sur le projet.

Notamment en ce qui concerne la production d’hydrogène « vert » par hydrolyse. Il s’agit d’un procédé coûteux, très gourmand en eau et électricité. Rien ne garantit, à l’heure actuelle, que le procédé sera rentable, ni ne permet de prédire quels emplois seront détruits et lesquels seront sauvés.

Les scientifiques qui s’intéressent aux hubs d’hydrogène pointent ainsi deux écueils qui prolongent les problèmes rencontrés lors de l’industrialisation du territoire Fos-étang de Berre dans les années 1970 :

  • l’impossibilité de mener des tests à petite échelle qui permettraient de maîtriser une technologie avant de la déployer – et de s’assurer de son efficacité sur les plans industriels, économiques et écologiques,

  • la mise à l’écart des riverains qui devront vivre avec les conséquences de choix technologiques réalisés pour le très long terme – sans bénéfices directs.

Autre incertitude : la maintenance des pipelines qui devront connecter le hub aux sites de stockage et aux usagers. En effet, la spécificité de l’hydrogène, par rapport à d’autres gaz, est sa faible densité. Il nécessite d’être acheminé avec des précautions particulières, parce qu’il corrode l’acier et fuit à la moindre fissure. Il peut ainsi avoir des effets négatifs sur la couche d’ozone.

Comment parer à ces nouveaux risques ? Conscient de ces problèmes, le Département de l’énergie (DoE) américain a provisionné 8 millions de dollars pour les surveiller.

Qu’en est-il de la ZIP de Fos où l’Institut écocitoyen, une association, œuvre depuis 15 ans pour produire les d onnées environnementales et sanitaires manquantes réclamées par les populations ? De fait, les nouveaux projets industriels relèvent de la directive SEVESO qui s’applique aux usines dangereuses. Les riverains sont-ils prêts à voir le plan de prévention des risques technologiques, très contraignant pour l’urbanisme, s’étendre ?

Surtout, la production d’hydrogène repose aussi sur la disponibilité en électricité et en eau, des ressources dont l’accaparement n’est pas assez problématisé.

Pour répondre aux besoins d’électricité, il faudra envisager un raccordement électrique au nucléaire de la vallée du Rhône. Ainsi, la décision de construire une ligne à très haute tension (THT) entre Fos-sur-Mer et Jonquières Saint Vincent, dans le Gard, aggrave la colère de ceux qui pensaient que le zonage des années 1960 suffirait à sanctuariser la Crau et la Camargue. Or, ces lignes font courir aux écosystèmes des risques d’incendie, sans parler des problèmes de maintenance qui peuvent survenir lorsque la température extérieure dépasse 35 °C.

La région est régulièrement en situation de stress hydrique). Pourtant, certains ingénieurs arguent que l’eau ne sera plus un problème lorsque le projet visant à amener par voie souterraine les eaux de turbinage de la centrale hydroélectrique de Saint-Chamas jusqu’à la ZIP de Fos, d’un coût de plusieurs milliards d’euros, aura été réalisé. Ils oublient toutefois, de façon commode, d’évoquer la question des transferts de vulnérabilité qui en découleront : réduction à venir des débits des rivières, sécheresses de plus en plus fortes et fréquentes…

Quelle place pour le débat démocratique ?

Cette débauche de solutions technologiques est-elle compatible avec les objectifs de transition affichés ? On peut aussi se demander si leur adoption est aussi démocratique que ce que leurs promoteurs voudraient croire.

La Commission nationale du débat public (CNDP) a pu, après hésitation des autorités et grâce à la pression exercée par les riverains mobilisés contre la ligne THT, organiser la consultation. Mais ses conclusions, aussi intéressantes soient-elles, ne seront pas contraignantes. L’expertise scientifique et citoyenne locale, développée depuis quarante ans du fait de la cohabitation subie avec les pollutions, ne sera très certainement pas intégrée au processus de décision. Aux riverains d’accepter ce qu’on leur propose, au nom d’un intérêt général conforme aux visées d’une poignée d’acteurs politico-économiques dominants – au risque d’un conflit social potentiellement dur.

Tout porte à croire, alors que les défis climatiques et écologiques sont majeurs, que ce bégaiement de l’histoire ne permettra pas d’accoucher d’une transition véritablement robuste et juste. Pour cela, il faudrait qu’elle adopte une dimension réflexive et réellement partagée entre tous quant à ses conséquences sociales, économiques, sanitaires et environnementales.

The Conversation

Christelle Gramaglia est membre du Conseil scientifique de l’Institut écocitoyen pour la connaissance des pollutions de Fos (instance consultative)

Xavier Daumalin a reçu des financements de l’ANR

Béatrice Mésini, Carole Barthélémy et Fabien Bartolotti ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. À Fos-sur-Mer, un territoire industriel portuaire à l’épreuve de la transition verte – https://theconversation.com/a-fos-sur-mer-un-territoire-industriel-portuaire-a-lepreuve-de-la-transition-verte-260437

Comment redonner une nouvelle vie aux friches industrielles en ville ?

Source: The Conversation – in French – By Loïc Sauvée, Directeur, unité de recherche InTerACT (Beauvais – Rouen), UniLaSalle

Jardin partagé de l’Astéroïde à Rouen. Ouiam Fatiha Boukharta, Fourni par l’auteur

Dans les villes post-industrielles comme Rouen, la cohabitation historique entre ville et industrie est à réinventer. Il s’agit de concilier les enjeux de la relocalisation industrielle, les nouvelles attentes de la société et les exigences de la transition écologique, notamment en termes de végétalisation urbaine.


Les villes contemporaines font face à de nouveaux enjeux, en apparence contradictoires. Il y a d’abord la nécessité de relocaliser la production industrielle près des centres urbains, mais aussi l’importance de reconstruire des espaces verts pour améliorer le bien-être des habitants et maintenir la biodiversité. Enfin, il faut désormais rationaliser le foncier dans l’optique de l’objectif « zéro artificialisation nette ».

Des injonctions paradoxales d’autant plus exacerbées dans le contexte des villes industrielles et post-industrielles, où se pose la question de la place de l’usine dans la ville.

C’est pour explorer ces défis que nous avons mené des recherches interdisciplinaires à l’échelle d’une agglomération concernée par ces défis, Rouen. Nos résultats mettent en avant la notion de « requalification territoriale » et soulignent la condition fondamentale de son succès : que le territoire urbain soit étudié de manière globale, en tenant compte de ses caractéristiques géohistoriques et environnementales. Celles-ci doivent être évaluées, à différentes échelles, à l’aune de différents indicateurs de soutenabilité.

Les villes post-industrielles, un contexte particulier

La notion de villes post-industrielles désigne des territoires urbains qui ont connu un fort mouvement de reconversion industrielle, ce qui a transformé l’allocation foncière. Ces territoires industriels en milieu urbain se trouvent par conséquent face à des enjeux complexes, mais présentent aussi un potentiel en matière de durabilité du fait de quatre caractéristiques :

  • ils sont dotés de nombreuses friches disponibles, mais qui peuvent être polluées ;

  • de nouvelles industries y émergent, mais ont des besoins fonciers de nature différente ;

  • la densité urbaine y est forte, avec une imbrication des espaces industriels et des zones d’habitation ;

  • les populations se montrent défiantes, voire opposées aux activités industrielles, tout en ayant des demandes sociétales fortes, comme la création de zones récréatives (espaces verts) ou d’atténuation des chocs climatiques (lutte contre les îlots de chaleur) ;

Ce contexte spécifique a plusieurs implications pour ces territoires, qui ont chacun leur particularité. En raison de la densité d’occupation des villes européennes et de la concurrence pour le foncier, on ne peut laisser les friches – issues en grande partie de la désindustrialisation – occuper de précieux espaces.


Visuel d'illustration de la newsletter Ici la Terre représentant la planète Terre sur un fond bleu.

Abonnez-vous dès aujourd’hui.

Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».


La requalification de ces lieux doit donc être mise au service de la lutte contre l’étalement urbain. Cela permet de redensifier les activités et de reconstruire la « ville sur la ville ». Mais aussi « l’usine dans la ville », car se pose en parallèle la nécessité de relocaliser notre industrie pour accroître notre souveraineté et réduire notre dépendance externe.

Or, celle-ci doit tenir compte des enjeux d’une transition durable. Ce nouveau développement industriel et territorial, pour être plus vertueux que dans le passé, doit être envisagé dans une perspective de transition durable. Il lui faut aussi intégrer les attentes diverses de la population urbaine (bien-être, environnement sain, emploi et refus des nuisances).

Les acteurs de l’aménagement du territoire, qui se heurtent souvent à la suspicion des habitants vis-à-vis des industriels et des institutions gouvernementales, doivent donc veiller à maintenir équilibrée cette cohabitation historique entre ville et industrie.

Rouen et son héritage industriel

Pionnière de la révolution industrielle au XIXᵉ siècle, l’agglomération de Rouen fait partie des villes traversées par ces enjeux.

Elle se distingue par ses plus de 400 friches urbaines. Historiquement implantées à proximité de l’ancienne ville (actuel centre), elles ont été rattrapées par l’expansion urbaine et se trouvent aujourd’hui encastrées dans les territoires habités, près du cœur de l’agglomération.

En nous appuyant sur cet exemple, nous avons identifié trois conditions fondamentales pour requalifier de façon durable ces espaces industriels urbains et y déployer des infrastructures vertes adaptées :

  • les initiatives doivent tenir compte des spécificités géohistoriques des territoires,

  • envisager diverses échelles d’analyse,

  • et être conçues à l’aune d’indicateurs de durabilité qui intègrent la diversité des acteurs impliqués.

Le potentiel des friches urbaines

La recherche, menée à Rouen, est fondée sur des outils de système d’information géographique (SIG), des outils d’analyse fondée sur plusieurs critères et enfin des outils de modélisation. Elle propose un dispositif pour guider les décideurs de l’aménagement du territoire et les chercheurs dans l’identification et la priorisation des friches susceptibles d’être transformées en infrastructures vertes.

Le modèle propose une approche systématique de prise de décision pour éviter une répartition aléatoire. Il couple les caractéristiques locales des friches urbaines et les demandes environnementales au niveau territorial, par exemple lorsqu’une ancienne zone industrielle se trouve valorisée par un projet d’agriculture urbaine. Cette étape initiale aide à créer différents scénarios de projets de requalification des friches.

Par la suite, il s’agit d’identifier les parties prenantes, les porteurs de projets d’agriculture urbaine et les associations de quartiers afin de les engager dans le processus de décision. Pour cela, l’utilisation des méthodes participatives est essentielle pour répondre à la demande d’information des riverains et faciliter la participation des acteurs territoriaux.

Par exemple, le projet « Le Champ des possibles » a permis d’impliquer les habitants de la zone via une association dans une démarche combinant aspects éducatifs (jardinage) et visites récréatives. L’investissement local a été facilité par un appel d’offres de la ville, de manière à créer une gouvernance partagée.

Des projets d’agriculture urbaine

Forts de ces constats, nous avons pu dans le cas de notre recherche à Rouen, passer au crible d’indicateurs de durabilité un ensemble de projets d’agriculture urbaine implantés depuis les années 2013 à 2018. L’objectif était d’identifier dans quelles conditions ils pourraient s’inscrire dans de la requalification de friches industrielles et participer à une transition durable.

Nous en avons conclu que deux grandes exigences étaient à remplir : d’un côté, s’appuyer sur des indicateurs de soutenabilité (économique, sociale et environnementale), de l’autre garantir que la gouvernance des projets se fasse en lien avec les différents acteurs territoriaux du milieu urbain.


Ouiam Fatiha Boukharta, CC BY-NC-SA

En l’occurrence, de telles opérations de requalification via l’agriculture urbaine de territoires industriels en déshérence ou sous-utilisés ont généré des bénéfices en matière d’éducation à l’environnement et à l’alimentation, d’intégration des populations et de réduction des fractures territoriales. Cela permet également de développer la biodiversité des espaces renaturés.

Des liens à réinventer entre ville et industrie

Les territoires industriels, passés (sous forme de friches) ou présents ont incontestablement leur place dans la ville de demain. Mais celle-ci doit prendre en compte de manière plus contextuelle les enjeux locaux actuels.

L’exemple de Rouen révèle que les liens entre la ville et ses territoires industriels doivent sans cesse se réinventer, mais que la situation contemporaine place les exigences de durabilité au premier plan.

Les opérations de qualification des territoires urbains supposent une planification stratégique et minutieuse. Elle doit s’appuyer sur des processus de décision plus clairs et plus justes qui requièrent, outre les aspects techniques et réglementaires, une logique « bottom up », plus ascendante.

Les démarches de qualification durable des territoires industriels existent et sont suffisamment génériques pour être répliquées dans d’autres milieux urbains. La multiplication d’expériences de ce type en France et dans le monde démontre leur potentiel.

The Conversation

Ce travail est réalisé dans le cadre d’une chaire d’enseignement et de recherche développée depuis 2021 en collaboration entre l’institut Polytechnique UniLaSalle Rouen et le groupe Lubrizol.
Site internet de la Chaire : https://chaire-usinovert-unilasalle.fr/

Fabiana Fabri ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Comment redonner une nouvelle vie aux friches industrielles en ville ? – https://theconversation.com/comment-redonner-une-nouvelle-vie-aux-friches-industrielles-en-ville-254497

À Fos-sur-Mer, un territoire industriel portuaire à l’épreuve de la transition énergétique

Source: The Conversation – France (in French) – By Fabien Bartolotti, Docteur en histoire contemporaine, Aix-Marseille Université (AMU)

Sous couvert de décarbonation, un projet de réindustrialisation de la zone industrialo-portuaire de Fos-sur-Mer, qui héberge des industries lourdes depuis le XIXe siècle, pourrait voir le jour. Il impliquerait notamment la création d’un « hub » d’hydrogène vert. Mais il n’est pas aussi vertueux au plan environnemental qu’il n’y paraît : il entretient la confusion entre décarbonation et dépollution. Surtout, il n’implique pas assez les populations locales dans la prise de décision.


Depuis plus de 200 ans – une durée sans équivalent dans l’ensemble du bassin méditerranéen – le territoire de Fos-étang de Berre, dans les Bouches-du-Rhône, est confronté aux effets des aménagements industriels et portuaires. Depuis presque aussi longtemps, ses habitants s’inquiètent régulièrement des nuisances et pollutions engendrées. Tout ceci dans le cadre d’un rapport de force inégal impliquant riverains, industriels, pouvoirs publics et experts.

Nouvel épisode en date, un projet de réindustrialisation et de décarbonation. C’est le sujet de la consultation organisée par la Commission nationale du débat public (CNDP) jusqu’au 13 juillet. Dans ce cadre, la zone industrialo-portuaire (ZIP) de Fos-sur-Mer serait transformée façon « Silicon Valley de la transition écologique ».

Un projet qui implique en réalité une nouvelle densification industrielle de la ZIP, et derrière lequel on retrouve beaucoup d’incertitudes et de non-dits.




À lire aussi :
Faut-il décarboner des usines qui ferment ? En Bretagne, les mésaventures de Michelin et l’hydrogène vert


Un territoire marqué par l’industrie lourde

Le territoire de Fos – étang de Berre a connu trois grandes phases industrielles depuis le début du XIXᵉ siècle. Chacune d’elles a contribué à créer des emplois et à intégrer ce territoire dans les flux économiques internationaux. Elles ont eu aussi d’importantes répercussions en matière de recompositions démographiques, d’aménagement du territoire mais, elles ont également occasionné des pollutions qui ont marginalisé les activités traditionnelles et mis en danger la santé des ouvriers et des riverains.

Les mobilisations contre la pollution apparaissent dès le début du XIXe siècle, lorsque la production de soude indispensable à la fabrication du savon de Marseille débute : pétitions, manifestations, interpellations des pouvoirs publics, procès, émeutes

L’État se préoccupe très tôt de la question des pollutions : décret du 15 octobre 1810 pour limiter les odeurs, création de conseils d’hygiène et de salubrité dans les départements (1848), loi du 19 décembre 1917 sur les établissements dangereux, insalubres ou incommodes, lois sur la pollution de l’atmosphère (1961) et de l’eau (1964), création du Secrétariat permanent pour la prévention des pollutions et des risques industriels (S3PI) en 1971…

Des historiens ont cependant démontré que ces dispositions étaient avant tout fondées sur une perception partielle des pollutions et qu’elles imposaient une gestion administrative pilotée par le préfet, plutôt libérale, industrialiste et technophile, généralement favorable aux industriels.

Ces travaux historiques ont souligné le rôle ambivalent dévolu à l’innovation technologique. Elle peut jouer un rôle clé dans la mesure, la compréhension, la dénonciation puis la réduction des pollutions industrielles, mais aussi faciliter leur acceptation. Ceci à cause des discours qui réduisent les enjeux à des aspects techniques véhiculant l’idée que la technologie finira par réparer ce qu’elle a abîmé.


Visuel d’illustration de la newsletter Ici la Terre représentant la planète Terre sur un fond bleu

Abonnez-vous dès aujourd’hui.

Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».


Le mythe de l’innovation technologique « salvatrice » favorise ainsi la densification industrielle et la perpétuation du mode de croissance à l’origine de la crise climatique et écologique.

Une « industrie du futur » qui se conjugue au passé

À Fos-sur-Mer, l’avenir de la ZIP se joue sous nos yeux. Il y a la volonté d’amorcer une nouvelle phase de croissance fondée sur des secteurs dits « verts ». Après avoir incarné le productivisme pollueur et le centralisme des Trente Glorieuses, le territoire fosséen deviendrait ainsi une vitrine du green business et un hub de la transition énergétique.

L’écologisation des pratiques entrepreneuriales se voit désignée sous une myriade de concepts : écologie industrielle, circulaire, durabilité, etc. De fait, elle reste surtout associée à la décarbonation, c’est-à-dire à la réduction des émissions de CO2.

La dynamique entraîne un retour massif des investissements (12 milliards d’euros), dans la zone. De nouvelles implantations industrielles sont ainsi envisagées à l’horizon 2028-2030 : fabrication de panneaux photovoltaïques (Carbon), d’éoliennes flottantes (Deos), d’hydrogène « vert » (H2V), de fer bas-carbone (Gravithy), d’e-carburants (Neocarb) ou encore de biosolvants (GF Biochemicals).

Les industries lourdes héritées des « Trente Glorieuses » connaissent, quant à elles, une rupture technique. C’est le cas d’ArcelorMittal (ex-SOLMER), qui abandonne son haut-fourneau au profit d’un four à arc électrique pour la production d’acier « vert ».

Mais cet élan industrialiste est loin d’être totalement disruptif. Il réinvestit les logiques mêmes qui, il y a 60 ans, ont présidé à la création de la ZIP.

Les prophéties économiques continuent de véhiculer un culte du progrès, non plus pour « reconstruire ou moderniser » la France, mais pour l’insérer dans les nouveaux marchés du capitalisme climatique. À l’instar du discours des années 1960, qui faisait alors miroiter la création de quelque 200 000 emplois, il est estimé que la décarbonation de la ZIP générera à elle seule 15 000 emplois.

Présentation du projet à l’occasion de l’ouverture du débat public en avril 2025.

On serait passé de l’aménagement au bulldozer à un processus plus horizontal, participatif et soucieux des aspirations locales. De nouvelles structures de coordination industrielle et de concertation (par exemple PIICTO) ont certes vu le jour. Mais elles n’ont ni permis d’apaiser les inquiétudes des riverains, ni d’amoindrir le rôle de l’État.

Dans sa grande tradition colbertiste, celui-ci garde la mainmise sur le processus décisionnel, la répartition des financements (par exemple à travers le plan d’investissement France 2030) et la diffusion de narratifs tels que le « réarmement industriel » ou la « souveraineté nationale et européenne ».

Des incertitudes et des risques minimisés

Il existe surtout une confusion trompeuse entre décarbonation (baisse des émissions de gaz à effet de serre) et dépollution (industries non polluantes).

Cette idée nourrit des imaginaires sociotechniques qui nous projettent dans des futurs confortables et nous laissent penser que nous allons pouvoir continuer à consommer comme avant. La question des externalités négatives, sociales et sanitaires des activités industrielles n’est jamais vraiment discutée. L’administration s’en remet aux lois en vigueur pour encadrer les débordements des nouvelles usines, traitées individuellement, c’est-à-dire, sans bilan global des émissions et rejets associés aux nouveaux hydrocarbures verts, qui viendraient s’ajouter aux pollutions accumulées depuis plusieurs décennies.

Ceci alors même que les pouvoirs publics n’ont pas réussi à juguler l’existant et que l’époque est à l’allègement des contraintes réglementaires pour un « réarmement industriel » et pour une décarbonation, ces définitions étant laissées à la libre définition des entrepreneurs : l’État intervient pour poser un cadre favorable aux investissements sans exercer ses prérogatives en matière de régulation.

La création d’un « hub de la transition énergétique » tel qu’il est envisagé aujourd’hui n’est pas nécessairement une bonne nouvelle pour les riverains. Elle engendrera un phénomène de « dépendance au sentier » (où les trajectoires possibles pour l’avenir seront influencées par les décisions et développements passés), dont il sera difficile de s’extraire par la suite, même s’il s’avère finalement que ce choix n’était pas judicieux.

D’autant plus que des incertitudes – voire des non-dits – pèsent sur le projet.

Notamment en ce qui concerne la production d’hydrogène « vert » par hydrolyse. Il s’agit d’un procédé coûteux, très gourmand en eau et électricité. Rien ne garantit, à l’heure actuelle, que le procédé sera rentable, ni ne permet de prédire quels emplois seront détruits et lesquels seront sauvés.

Les scientifiques qui s’intéressent aux hubs d’hydrogène pointent ainsi deux écueils qui prolongent les problèmes rencontrés lors de l’industrialisation du territoire Fos-étang de Berre dans les années 1970 :

  • l’impossibilité de mener des tests à petite échelle qui permettraient de maîtriser une technologie avant de la déployer – et de s’assurer de son efficacité sur les plans industriels, économiques et écologiques,

  • la mise à l’écart des riverains qui devront vivre avec les conséquences de choix technologiques réalisés pour le très long terme – sans bénéfices directs.

Autre incertitude : la maintenance des pipelines qui devront connecter le hub aux sites de stockage et aux usagers. En effet, la spécificité de l’hydrogène, par rapport à d’autres gaz, est sa faible densité. Il nécessite d’être acheminé avec des précautions particulières, parce qu’il corrode l’acier et fuit à la moindre fissure. Il peut ainsi avoir des effets négatifs sur la couche d’ozone.

Comment parer à ces nouveaux risques ? Conscient de ces problèmes, le Département de l’énergie (DoE) américain a provisionné 8 millions de dollars pour les surveiller.

Qu’en est-il de la ZIP de Fos où l’Institut écocitoyen, une association, œuvre depuis 15 ans pour produire les d onnées environnementales et sanitaires manquantes réclamées par les populations ? De fait, les nouveaux projets industriels relèvent de la directive SEVESO qui s’applique aux usines dangereuses. Les riverains sont-ils prêts à voir le plan de prévention des risques technologiques, très contraignant pour l’urbanisme, s’étendre ?

Surtout, la production d’hydrogène repose aussi sur la disponibilité en électricité et en eau, des ressources dont l’accaparement n’est pas assez problématisé.

Pour répondre aux besoins d’électricité, il faudra envisager un raccordement électrique au nucléaire de la vallée du Rhône. Ainsi, la décision de construire une ligne à très haute tension (THT) entre Fos-sur-Mer et Jonquières Saint Vincent, dans le Gard, aggrave la colère de ceux qui pensaient que le zonage des années 1960 suffirait à sanctuariser la Crau et la Camargue. Or, ces lignes font courir aux écosystèmes des risques d’incendie, sans parler des problèmes de maintenance qui peuvent survenir lorsque la température extérieure dépasse 35 °C.

La région est régulièrement en situation de stress hydrique). Pourtant, certains ingénieurs arguent que l’eau ne sera plus un problème lorsque le projet visant à amener par voie souterraine les eaux de turbinage de la centrale hydroélectrique de Saint-Chamas jusqu’à la ZIP de Fos, d’un coût de plusieurs milliards d’euros, aura été réalisé. Ils oublient toutefois, de façon commode, d’évoquer la question des transferts de vulnérabilité qui en découleront : réduction à venir des débits des rivières, sécheresses de plus en plus fortes et fréquentes…

Quelle place pour le débat démocratique ?

Cette débauche de solutions technologiques est-elle compatible avec les objectifs de transition affichés ? On peut aussi se demander si leur adoption est aussi démocratique que ce que leurs promoteurs voudraient croire.

La Commission nationale du débat public (CNDP) a pu, après hésitation des autorités et grâce à la pression exercée par les riverains mobilisés contre la ligne THT, organiser la consultation. Mais ses conclusions, aussi intéressantes soient-elles, ne seront pas contraignantes. L’expertise scientifique et citoyenne locale, développée depuis quarante ans du fait de la cohabitation subie avec les pollutions, ne sera très certainement pas intégrée au processus de décision. Aux riverains d’accepter ce qu’on leur propose, au nom d’un intérêt général conforme aux visées d’une poignée d’acteurs politico-économiques dominants – au risque d’un conflit social potentiellement dur.

Tout porte à croire, alors que les défis climatiques et écologiques sont majeurs, que ce bégaiement de l’histoire ne permettra pas d’accoucher d’une transition véritablement robuste et juste. Pour cela, il faudrait qu’elle adopte une dimension réflexive et réellement partagée entre tous quant à ses conséquences sociales, économiques, sanitaires et environnementales.

The Conversation

Christelle Gramaglia est membre du Conseil scientifique de l’Institut écocitoyen pour la connaissance des pollutions de Fos (instance consultative)

Xavier Daumalin a reçu des financements de l’ANR

Béatrice Mésini, Carole Barthélémy et Fabien Bartolotti ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. À Fos-sur-Mer, un territoire industriel portuaire à l’épreuve de la transition énergétique – https://theconversation.com/a-fos-sur-mer-un-territoire-industriel-portuaire-a-lepreuve-de-la-transition-energetique-260437

Le quiz Environnement de l’été

Source: The Conversation – France (in French) – By Service Environnement, The Conversation France

Visuel d’illustration de la newsletter Ici la Terre représentant la planète Terre sur un fond bleu

Pour recevoir régulièrement nos quiz Environement, Abonnez-vous dès aujourd’hui à notre newsletter thématique « Ici la Terre ».

Chaque jeudi, de nouveaux éclairages sur les questions environnementales.


Avant de jouer, n’hésitez pas à prendre quelques minutes pour relire les articles de la semaine écoulée.

Besoin d’un peu d’aide ? Ok, voici quelques indices. Vous pouvez lire (ou relire) :

3, 2, 1, à vous de jouer c’est parti !

The Conversation

Service Environnement ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le quiz Environnement de l’été – https://theconversation.com/le-quiz-environnement-de-lete-260875

En ville, comment redonner une nouvelle vie aux friches industrielles ?

Source: The Conversation – France (in French) – By Loïc Sauvée, Directeur, unité de recherche InTerACT (Beauvais – Rouen), UniLaSalle

Jardin partagé de l’Astéroïde à Rouen. Ouiam Fatiha Boukharta, Fourni par l’auteur

Dans les villes post-industrielles comme Rouen, la cohabitation historique entre ville et industrie est à réinventer. Il s’agit de concilier les enjeux de la relocalisation industrielle, les nouvelles attentes de la société et les exigences de la transition écologique, notamment en termes de végétalisation urbaine.


Les villes contemporaines font face à de nouveaux enjeux, en apparence contradictoires. Il y a d’abord la nécessité de relocaliser la production industrielle près des centres urbains, mais aussi l’importance de reconstruire des espaces verts pour améliorer le bien-être des habitants et maintenir la biodiversité. Enfin, il faut désormais rationaliser le foncier dans l’optique de l’objectif « zéro artificialisation nette ».

Des injonctions paradoxales d’autant plus exacerbées dans le contexte des villes industrielles et post-industrielles, où se pose la question de la place de l’usine dans la ville.

C’est pour explorer ces défis que nous avons mené des recherches interdisciplinaires à l’échelle d’une agglomération concernée par ces défis, Rouen. Nos résultats mettent en avant la notion de « requalification territoriale » et soulignent la condition fondamentale de son succès : que le territoire urbain soit étudié de manière globale, en tenant compte de ses caractéristiques géohistoriques et environnementales. Celles-ci doivent être évaluées, à différentes échelles, à l’aune de différents indicateurs de soutenabilité.

Les villes post-industrielles, un contexte particulier

La notion de villes post-industrielles désigne des territoires urbains qui ont connu un fort mouvement de reconversion industrielle, ce qui a transformé l’allocation foncière. Ces territoires industriels en milieu urbain se trouvent par conséquent face à des enjeux complexes, mais présentent aussi un potentiel en matière de durabilité du fait de quatre caractéristiques :

  • ils sont dotés de nombreuses friches disponibles, mais qui peuvent être polluées ;

  • de nouvelles industries y émergent, mais ont des besoins fonciers de nature différente ;

  • la densité urbaine y est forte, avec une imbrication des espaces industriels et des zones d’habitation ;

  • les populations se montrent défiantes, voire opposées aux activités industrielles, tout en ayant des demandes sociétales fortes, comme la création de zones récréatives (espaces verts) ou d’atténuation des chocs climatiques (lutte contre les îlots de chaleur) ;

Ce contexte spécifique a plusieurs implications pour ces territoires, qui ont chacun leur particularité. En raison de la densité d’occupation des villes européennes et de la concurrence pour le foncier, on ne peut laisser les friches – issues en grande partie de la désindustrialisation – occuper de précieux espaces.


Visuel d'illustration de la newsletter Ici la Terre représentant la planète Terre sur un fond bleu.

Abonnez-vous dès aujourd’hui.

Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».


La requalification de ces lieux doit donc être mise au service de la lutte contre l’étalement urbain. Cela permet de redensifier les activités et de reconstruire la « ville sur la ville ». Mais aussi « l’usine dans la ville », car se pose en parallèle la nécessité de relocaliser notre industrie pour accroître notre souveraineté et réduire notre dépendance externe.

Or, celle-ci doit tenir compte des enjeux d’une transition durable. Ce nouveau développement industriel et territorial, pour être plus vertueux que dans le passé, doit être envisagé dans une perspective de transition durable. Il lui faut aussi intégrer les attentes diverses de la population urbaine (bien-être, environnement sain, emploi et refus des nuisances).

Les acteurs de l’aménagement du territoire, qui se heurtent souvent à la suspicion des habitants vis-à-vis des industriels et des institutions gouvernementales, doivent donc veiller à maintenir équilibrée cette cohabitation historique entre ville et industrie.

Rouen et son héritage industriel

Pionnière de la révolution industrielle au XIXᵉ siècle, l’agglomération de Rouen fait partie des villes traversées par ces enjeux.

Elle se distingue par ses plus de 400 friches urbaines. Historiquement implantées à proximité de l’ancienne ville (actuel centre), elles ont été rattrapées par l’expansion urbaine et se trouvent aujourd’hui encastrées dans les territoires habités, près du cœur de l’agglomération.

En nous appuyant sur cet exemple, nous avons identifié trois conditions fondamentales pour requalifier de façon durable ces espaces industriels urbains et y déployer des infrastructures vertes adaptées :

  • les initiatives doivent tenir compte des spécificités géohistoriques des territoires,

  • envisager diverses échelles d’analyse,

  • et être conçues à l’aune d’indicateurs de durabilité qui intègrent la diversité des acteurs impliqués.

Le potentiel des friches urbaines

La recherche, menée à Rouen, est fondée sur des outils de système d’information géographique (SIG), des outils d’analyse fondée sur plusieurs critères et enfin des outils de modélisation. Elle propose un dispositif pour guider les décideurs de l’aménagement du territoire et les chercheurs dans l’identification et la priorisation des friches susceptibles d’être transformées en infrastructures vertes.

Le modèle propose une approche systématique de prise de décision pour éviter une répartition aléatoire. Il couple les caractéristiques locales des friches urbaines et les demandes environnementales au niveau territorial, par exemple lorsqu’une ancienne zone industrielle se trouve valorisée par un projet d’agriculture urbaine. Cette étape initiale aide à créer différents scénarios de projets de requalification des friches.

Par la suite, il s’agit d’identifier les parties prenantes, les porteurs de projets d’agriculture urbaine et les associations de quartiers afin de les engager dans le processus de décision. Pour cela, l’utilisation des méthodes participatives est essentielle pour répondre à la demande d’information des riverains et faciliter la participation des acteurs territoriaux.

Par exemple, le projet « Le Champ des possibles » a permis d’impliquer les habitants de la zone via une association dans une démarche combinant aspects éducatifs (jardinage) et visites récréatives. L’investissement local a été facilité par un appel d’offres de la ville, de manière à créer une gouvernance partagée.

Des projets d’agriculture urbaine

Forts de ces constats, nous avons pu dans le cas de notre recherche à Rouen, passer au crible d’indicateurs de durabilité un ensemble de projets d’agriculture urbaine implantés depuis les années 2013 à 2018. L’objectif était d’identifier dans quelles conditions ils pourraient s’inscrire dans de la requalification de friches industrielles et participer à une transition durable.

Nous en avons conclu que deux grandes exigences étaient à remplir : d’un côté, s’appuyer sur des indicateurs de soutenabilité (économique, sociale et environnementale), de l’autre garantir que la gouvernance des projets se fasse en lien avec les différents acteurs territoriaux du milieu urbain.


Ouiam Fatiha Boukharta, CC BY-NC-SA

En l’occurrence, de telles opérations de requalification via l’agriculture urbaine de territoires industriels en déshérence ou sous-utilisés ont généré des bénéfices en matière d’éducation à l’environnement et à l’alimentation, d’intégration des populations et de réduction des fractures territoriales. Cela permet également de développer la biodiversité des espaces renaturés.

Des liens à réinventer entre ville et industrie

Les territoires industriels, passés (sous forme de friches) ou présents ont incontestablement leur place dans la ville de demain. Mais celle-ci doit prendre en compte de manière plus contextuelle les enjeux locaux actuels.

L’exemple de Rouen révèle que les liens entre la ville et ses territoires industriels doivent sans cesse se réinventer, mais que la situation contemporaine place les exigences de durabilité au premier plan.

Les opérations de qualification des territoires urbains supposent une planification stratégique et minutieuse. Elle doit s’appuyer sur des processus de décision plus clairs et plus justes qui requièrent, outre les aspects techniques et réglementaires, une logique « bottom up », plus ascendante.

Les démarches de qualification durable des territoires industriels existent et sont suffisamment génériques pour être répliquées dans d’autres milieux urbains. La multiplication d’expériences de ce type en France et dans le monde démontre leur potentiel.

The Conversation

Ce travail est réalisé dans le cadre d’une chaire d’enseignement et de recherche développée depuis 2021 en collaboration entre l’institut Polytechnique UniLaSalle Rouen et le groupe Lubrizol.
Site internet de la Chaire : https://chaire-usinovert-unilasalle.fr/

Fabiana Fabri ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. En ville, comment redonner une nouvelle vie aux friches industrielles ? – https://theconversation.com/en-ville-comment-redonner-une-nouvelle-vie-aux-friches-industrielles-254497

Faut-il décarboner des usines qui ferment ? En Bretagne, les mésaventures de Michelin et l’hydrogène vert

Source: The Conversation – France (in French) – By Hugo Vosila, Doctorant en science politique , Sciences Po Bordeaux

À Vannes, le groupe Michelin a mis en place une station d’hydrogène début 2024 pour décarboner le processus industriel de son usine. Mais moins d’un an après le lancement de ce projet, l’industriel a annoncé la fermeture de l’usine. Un exemple des défis que pose la décarbonation dans un contexte encore prégnant de désindustrialisation.


Le 5 novembre 2024, le groupe Michelin annonçait à ses salariés de Cholet et de Vannes l’arrêt de la production des sites à horizon 2026.

« Saignée industrielle » selon la secrétaire générale de la CGT Sophie Binet, la fermeture de l’usine vannetaise du Prat, outre les quelque 299 emplois qu’elle concentrait, met également en péril le devenir de la station d’hydrogène vert HyGO attenante, qui participait à la décarbonation du processus industriel de Michelin pour la fabrication des pneus.

L’annonce de la fermeture de l’industriel – principal consommateur de l’hydrogène (H2) du site – et l’absence d’usages identifiés pour la mobilité interrogent sur le futur de la station, et plus largement sur la pérennité du déploiement des écosystèmes territoriaux basés sur l’hydrogène.

La ruée vers l’hydrogène de la décennie 2010

À l’écart des grands axes de transport nationaux, faiblement industrialisée, la Bretagne n’apparaît pas d’emblée comme la région de prédilection pour le développement d’une filière hydrogène. À la fin de la décennie 2010, elle n’échappe pourtant pas à l’engouement d’acteurs territoriaux publics et privés, qui ambitionnent alors de faire émerger des projets sur les territoires. Sans grand succès toutefois : en Ille-et-Vilaine, rares sont les initiatives qui dépassent le stade des études de faisabilité.

Au niveau étatique, un Plan national de déploiement de l’hydrogène voit le jour en 2018, ciblant la décarbonation de l’industrie, de la mobilité lourde et le soutien à l’innovation.

En parallèle, l’Agence de la Transition écologique (Ademe) lance un premier appel à projet « Écosystèmes mobilité hydrogène » en 2018. L’enjeu est d’assurer des boucles production-distribution-usages, d’essayer de cadrer les velléités locales et de faire le tri parmi les projets.

Du côté de la région, la feuille de route hydrogène renouvelable, publiée en 2020, identifie le maritime et les mobilités comme des axes forts du potentiel breton.

Mais les premières réflexions autour d’un écosystème hydrogène à Vannes remontent au début de cette effervescence, à l’écart des futures orientations régionales. Elles visent à décarboner le process de l’un des seuls sites industriels consommateurs d’hydrogène : l’usine Michelin de Vannes.

Les promesses locales du projet HyGO

Implantée dans l’agglomération depuis 1963, cette dernière utilisait de l’H2 gris fossile, issu du vaporeformage de gaz naturel, pour travailler les membranes métalliques des pneumatiques.

Soucieux de réduire l’empreinte carbone de ses sites, le Bibendum s’engage aux côtés d’acteurs de l’énergie dans une stratégie « tout durable ». Si de premiers appels du pied sont lancés par Engie dès 2015 pour verdir le procédé de l’industriel, il faut attendre 2020 et la création de la société HyGO pour que ces aspirations se concrétisent.

Dans les faits, il s’agit d’un petit électrolyseur sur site, alimenté par de l’électricité renouvelable fournie par Engie, capable de produire 270 kilos quotidiens d’hydrogène vert. Si Michelin est identifié comme le principal consommateur (avec uniquement 40 à 70 kg d’H2/jour cependant), la molécule est également avitaillée au sein d’une station de distribution ouverte pour le rechargement des quelques véhicules qui roulent à l’hydrogène dans l’agglomération – moins d’une dizaine.


Visuel d'illustration de la newsletter Ici la Terre représentant la planète Terre sur un fond bleu.

Abonnez-vous dès aujourd’hui.

Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».


À l’heure actuelle, le coût de l’hydrogène vert est toujours prohibitif pour des usages diffus (c’est-à-dire, qui émaneraient de particuliers ou de privés qui s’approvisionneraient en H2 de façon non planifiée). En l’absence d’un marché compétitif, la présence d’un industriel historique comme consommateur rassure et garantit un débouché constant. D’autant que le passage de l’H2 gris à l’H2 vert n’a pas modifié le procédé de production de Michelin.

Catalyseur de la station, l’industriel doit donc amortir la faible rentabilité de la distribution, le temps que les usages mobilité se déploient. Après un délai de quelques années, la station HyGO est finalement inaugurée en janvier 2024.

La fermeture de l’usine, coup d’arrêt au projet ?

Moins d’un an plus tard, pourtant, Michelin annonce la fermeture de l’usine. Dans un communiqué de presse, le maire David Robo réagit :

« Ce 5 novembre 2024 […] est une journée noire pour Vannes et un séisme pour le territoire ».

Les raisons invoquées par le PDG Florent Menegaux ? La concurrence chinoise et la hausse de coûts de production du pneumatique en Europe – omettant toutefois de mentionner la rémunération record des actionnaires cette année-là.

Si aucun lien n’est officiellement établi avec le surcoût de l’hydrogène renouvelable consommé depuis peu sur le site, l’annonce est pour le projet HyGO une fâcheuse nouvelle. Les plus optimistes, certes, gagent que la partie mobilité sera amenée à décoller, compensant ainsi la perte commerciale liée à la fermeture de Michelin. Mais à ce stade, les usages mobilité de la station sont extrêmement limités, et ne promettent aucunement un avenir à l’écosystème. Même en couvrant les besoins de l’usine, la consommation d’hydrogène permet au mieux à HyGO d’être sous perfusion, sans rentabiliser les investissements.

Contrairement à Lorient, qui convertit une partie de sa flotte de bus à l’hydrogène renouvelable, l’agglomération de Vannes n’a pas émis le souhait d’utiliser la molécule produite localement pour assurer un débouché stable à la station via ses transports urbains.

Désintérêt de l’État pour la filière ?

Quel avenir pour HyGO ? Certains acteurs souhaiteraient que des aides à la consommation soient promulguées au niveau national pour réduire le prix de l’hydrogène à la pompe.

Mais c’est mal connaître la nouvelle conjoncture étatique de soutien à l’H2. Désormais, finis les appels à projets de l’Ademe qui favorisaient les boucles locales production-usages y compris de mobilité. L’heure est aux économies : la Stratégie nationale hydrogène, actualisée en avril 2025 – ainsi que les futurs appels à projets de l’Ademe – sont moins généreux dans leurs aides aux écosystèmes territoriaux, en particulier les plus petits.

Dans un contexte budgétaire limité, l’accompagnement étatique se resserre sur les usages considérés comme indispensables de l’hydrogène renouvelable, c’est-à-dire la décarbonation de l’industrie, au détriment des usages au lien avec la mobilité, à l’exception de ceux liés à la production de e-carburant pour l’aérien. C’est ironique pour HyGO Vannes, qui perd son atout industriel au moment même où ce dernier est consacré par les pouvoirs publics.

Cette restriction du soutien national à l’hydrogène est concomitante avec un recul critique plus diffus sur les vertus révolutionnaires de cette technologie, symptomatique des trajectoires des processus d’innovation.

Promesses techno-scientifiques et désillusions

Pour l’économiste Pierre Benoît Joly, une des caractéristiques pathologiques de ce qu’il nomme « régime d’économies des promesses techno-scientifiques » serait l’inévitable cycle hype (effet de mode)/hope (espoir)/disappointment (déception), auquel le déploiement de l’hydrogène renouvelable ne semble pas échapper. À l’excitation initiale véhiculée par l’apparition d’une nouvelle technologie succéderait un « creux de désillusion » (où les attentes exagérées se heurtent à la réalité), suivi d’une reprise plus mesurée et restreinte de son développement.

Un membre de l’Ademe Bretagne, avec qui j’ai eu un entretien dans le cadre de mon travail de thèse, a indiqué :

« À dire tout et n’importe quoi sur l’hydrogène, au bout d’un moment, les gens ont perdu espoir. Ils se sont dit non, mais l’hydrogène, c’est nul en fait. Il y a eu ce retour de bâton. Mais l’industrie, ça sera effectivement quelque chose de plus solide, à mon avis, quand ça va partir ».

Mais comment s’en assurer ? À Vannes, c’est précisément l’industriel qui a fait défaut. Projet lancé trop tôt ou surestimation de l’ancrage territorial de Michelin ? Les accompagnateurs de la station côté société d’économie mixte expriment le sentiment d’avoir « essuyé les plâtres » (selon les mots d’un membre de la société d’économie mixte (SEM) Énergies 56) en prenant le risque de se lancer les premiers.

La faute à pas de chance ? Prise isolément, la fermeture de Michelin à Vannes peut paraître anecdotique dans l’économie nationale de l’hydrogène. On l’a vu, l’industriel consommait moins de 70kg/jour d’hydrogène vert. La filière pneumatique battait déjà de l’aile, et la Bretagne, après tout, n’est pas une terre d’industrie.

La pertinence de l’hydrogène pour la décarbonation de l’industrie en France serait davantage à aller chercher du côté de la sidérurgie, de la chimie, ou du raffinage, dans le Nord-Pas-de-Calais, ou en Auvergne-Rhône-Alpes.

Des industries qui ne jouent pas le jeu ?

À s’y pencher de plus près, pourtant, ces filières n’échappent pas non plus aux menaces de fermeture.

Pour la sidérurgie, le géant ArcelorMittal, avec Genvia, investit certes dans un électrolyseur pour utiliser de l’hydrogène bas-carbone à la place du charbon et décarboner sa production d’acier. Mais il ferme en parallèle ses sites de Denain et de Reims, quelques semaines seulement après l’annonce de Michelin, laissant craindre un prochain plan social à Dunkerque.

Pour la chimie et la production d’engrais, la multinationale Yara s’est associée avec Lhyfe en Normandie pour utiliser de l’hydrogène vert dans sa production d’ammoniac. Mais elle ferme son site de Montoir-de-Bretagne en Loire-Atlantique, déficitaire et non conforme aux normes environnementales.

Citons également le groupe LAT Nitrogen, fournisseur européen d’engrais qui, après avoir bénéficié de 4 milliards d’euros de subventions pour réduire les émissions de ses sites via le développement d’électrolyseurs et la production-consommation d’hydrogène vert, cesse sa production à Grandpuits, bien qu’engagé auprès de l’État à décarboner le site via un contrat de transition écologique.

Dans la vallée de la chimie, en Isère, Vencorex et par effet domino Arkema, deux firmes consommatrices d’hydrogène dans leurs procédés, sont en voie de liquidation.

Les efforts de l’État en matière de réindustrialisation verte se multiplient pourtant : Loi industrie verte en octobre 2023, France Nation Verte en 2022… Mais quelles contraintes pour les entreprises ? À quoi bon décarboner des industries qui ferment ?

« Grand État vert » régulateur et planificateur ?

Inséré dans des marchés internationaux, le groupe Michelin peut se permettre de produire moins cher ailleurs, en Asie en l’occurrence. Est-ce la conséquence d’une décennie de politique de l’offre ? Les règles de la concurrence et du marché semblent peu adaptées aux enjeux de souveraineté industrielle et énergétique.

Dans un contexte de renouveau protectionniste exacerbé outre-Atlantique, la problématique des rapports entre stratégies multinationales et ambitions climatiques nationales mérite une actualisation. Planification, nationalisation… expropriation ?

Ce que l’économiste britannique Daniela Gabor nomme le Wall Street Climate Consensus, modèle d’une transition douce par les marchés, qui confie aux fonds d’investissement et aux entreprises privées le soin de s’écologiser, paraît avoir atteint ses limites : délocalisations à bas coût quand la conjoncture économique se dégrade, persistance d’actifs fossiles et d’activités extractives…

À l’opposé, le modèle du « Grand État vert », régulateur et planificateur, pourrait avoir certaines vertus. Sans nécessairement prôner le « léninisme écologique » d’un Andreas Malm, des formes plus poussées d’interventionnisme public, voire de coercition auprès de firmes, pourraient assurer une pérennité à certaines filières émergentes comme l’hydrogène vert.

The Conversation

Hugo Vosila a reçu des financements de l’Agence Nationale de la Recherche (ANR) pour son travail de thèse.

ref. Faut-il décarboner des usines qui ferment ? En Bretagne, les mésaventures de Michelin et l’hydrogène vert – https://theconversation.com/faut-il-decarboner-des-usines-qui-ferment-en-bretagne-les-mesaventures-de-michelin-et-lhydrogene-vert-257033

Votre manager est-il toxique ? Six signes qui ne trompent pas…

Source: The Conversation – France (in French) – By George Kassar, Full-time Faculty, Research Associate, Performance Analyst, Ascencia Business School

Si la gestion de la performance n’est pas mise en œuvre de manière adéquate, elle peut devenir un formidable outil pour démotiver, épuiser et pousser au départ vos collaborateurs. PeopleImages.comYuri A/Shutterstock

La recherche en gestion de performance offre une gamme complète de pratiques managériales toxiques à appliquer sans modération pour faire fuir les talents les plus précieux. Si ces conseils sont à prendre au second degré, ces pratiques restent bien réelles dans la gestion quotidienne de certains managers.


Qui a dit que la principale ressource d’une entreprise, et son véritable avantage concurrentiel, résidait dans ses employés, leur talent ou leur motivation ?

Après tout, peut-être souhaitez-vous précisément vider vos bureaux, décourager durablement vos collaborateurs et saboter méthodiquement votre capital humain.

Dans ce cas, la recherche en gestion de performance vous offre généreusement tout ce dont vous avez besoin : une gamme complète de pratiques managériales toxiques à appliquer sans modération pour faire fuir les talents les plus précieux.

En fait, la gestion de la performance, issue des pratiques de rationalisation au début du XXe siècle, est devenue aujourd’hui un élément clé du management moderne. En théorie, elle permet d’orienter l’action des équipes, de clarifier les attentes et de contribuer au développement individuel. En pratique, si elle n’est pas mise en œuvre de manière adéquate, elle peut également devenir un formidable outil pour démotiver, épuiser et pousser au départ vos collaborateurs les plus précieux.

Voici comment :

Management par objectifs flous

Commencez par fixer des objectifs vagues, irréalistes ou contradictoires. Surtout, évitez de leur donner du sens ou de les relier à une stratégie claire, et évidemment ne pas leur assurer les ressources appropriées. Bref, adoptez les « vrais » objectifs SMART : Stressants, Mesurés arbitrairement, Ambigus, Répétés sans contexte, Totalement déconnectés du terrain !

Selon les recherches en psychologie organisationnelle, cette approche garantit anxiété, confusion et désengagement parmi vos équipes, augmentant significativement leur intention de quitter l’entreprise.


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Le silence est d’or

Éviter toute forme de dialogue et de communication. Ne donnez jamais de feedback. Et si vraiment vous ne pouvez pas l’éviter, faites-le rarement, de manière irrégulière, strictement détachée du travail, et portez-le plutôt sur une critique de la personne. L’absence d’un retour d’information régulier, axé sur les tâches et exploitable, laisse les employés dans l’incertitude et les surprend au moment de l’évaluation et mine progressivement leur engagement.

Plus subtilement encore, c’est la manière dont vos employés interprètent vos intentions, et le feedback que vous leur donnez, qui compte le plus. Attention, lorsqu’il est perçu comme ayant une intention constructive, il risque de renforcer la motivation à apprendre et l’engagement. Mais lorsque ce même feedback est perçu comme incité par des intérêts personnels du manager (attribution égoïste), il produit l’effet inverse : démotivation, repli et départ.

« Procès » d’évaluations de performance

Organisez des entretiens annuels où vous ne relevez que les erreurs et oubliez totalement les réussites ou les efforts invisibles. Soyez rigide, critique, et concentrez-vous uniquement sur les faiblesses. Prenez soin de vous attribuer tout le mérite lorsque l’équipe réussit – après tout, sans vous, rien n’aurait été possible. En revanche, lorsque les résultats ne sont pas à la hauteur, n’hésitez pas à pointer les erreurs, à individualiser la faute et à rappeler que « vous aviez pourtant prévenu ».

Ce type d’évaluation de performance, mieux vaut le qualifier de procès punitif, garantit une démotivation profonde et accélère la rotation des équipes.




À lire aussi :
Détruire une carrière professionnelle, nouvelle forme de harcèlement moral


Compétition interne poussée à l’extrême

Favorisez une culture de rivalité entre collègues : diffusez régulièrement des classements internes, récompensez uniquement les meilleurs, éliminer systématiquement les moins bien classés, dévaloriser l’importance de la coopération, et laisser la concurrence interne faire le reste. Après tout, ce sont les caractéristiques essentielles de la « célèbre » méthode que Jack Welch a popularisée chez General Electric.

Si vous remarquez un possible élan de motivation à court terme, ne vous inquiétez pas, les effets de la « Vitality Curve » de Jack Welch seront, à terme, beaucoup plus néfastes que bénéfiques. La féroce concurrence interne vous sera un excellent outil de détruire la confiance entre coéquipiers, de créer une atmosphère toxique durable et d’augmenter le nombre de départs volontaires.

Ignorez le bien-être : surtout, restez sourd

Nous avons déjà établi qu’il fallait éviter le feedback et tout dialogue. Mais si, par malheur, un échange survient, surtout n’écoutez pas les plaintes ni les signaux d’alerte liés au stress ou à l’épuisement. Ne proposez aucun soutien, aucun accompagnement, et bien sûr, ignorez totalement le droit à la déconnexion.

En négligeant la santé mentale et en refusant d’aider vos employés à trouver du sens à leur travail – notamment lorsqu’ils effectuent des tâches perçues comme ingrates ou difficiles – vous augmentez directement l’éventualité de burn-out et d’absentéisme chronique

De plus, privilégiez systématiquement des primes de rémunération très variables et mal conçues : cela renforcera l’instabilité salariale des employés et tuera ce qui reste d’engagement.

L’art d’user sans bruit

Envie d’aller plus loin dans l’art de faire fuir vos équipes ? Inspirez-vous de ce que la recherche classe parmi les trois grandes formes de violence managériale. Il s’agit de pratiques souvent banalisées, telles que micro-gestion, pression continue, absence de reconnaissance ou isolement, qui génèrent une souffrance durable. Ces comportements, parfois invisibles mais répétés, finissent par user les salariés en profondeur, jusqu’à les pousser à décrocher, mentalement puis physiquement jusqu’à rupture.


Évidemment, ces conseils sont à prendre au second degré !

Pourtant, les pratiques toxiques décrites ici restent malheureusement bien réelles dans la gestion quotidienne de certains managers. Si l’objectif est véritablement de retenir les talents et d’assurer le succès durable d’une entreprise, il devient indispensable d’orienter la gestion de la performance autour du sens, de l’équité et du développement authentique du potentiel humain.

The Conversation

George Kassar ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Votre manager est-il toxique ? Six signes qui ne trompent pas… – https://theconversation.com/votre-manager-est-il-toxique-six-signes-qui-ne-trompent-pas-260438

Après Dune, Denis Villeneuve s’attaque à James Bond : à quoi ressemblera son 007 ?

Source: The Conversation – in French – By William Proctor, Associate Professor in Popular Culture, Bournemouth University

Le Québécois Denis Villeneuve réalisera le prochain James Bond. (Wiki Commons/Canva), CC BY-SA

La franchise James Bond est en pause depuis quatre ans, à la suite du départ de Daniel Craig dans le rôle de 007 dans Mourir peut attendre. Une querelle juridique entre les producteurs de Bond, Michael G. Wilson et Barbara Broccoli, et Amazon Studios a abouti à une impasse et la production d’un nouveau film de Bond est restée dans les limbes.

Néanmoins, les spéculations vont bon train quant à l’identité du futur interprète du super-espion créé par Ian Fleming (le dernier acteur à avoir été associé au rôle est l’ancien Spider-man Tom Holland).

Lorsque l’on a appris, en février 2025, qu’Amazon MGM (Amazon a racheté MGM en 2021) était devenu le nouveau gardien de Bond, les critiques et le public ont exprimé leur inquiétude — et le mot est faible. Beaucoup craignaient que Jeff Bezos soit plus intéressé par la stimulation de l’adhésion à Amazon Prime en multipliant les produits dérivés et les produits sous license.

Cependant, l’annonce, la semaine dernière, de la nomination du Québécois Denis Villeneuve en tant que réalisateur du 26e film de Bond a été perçue comme une décision stratégique forte. Il s’agit d’une déclaration d’intention qui ambitionne de faire d’Amazon MGM le nouveau bastion de la franchise Bond.

L’annonce positionne la nouvelle ère de Bond comme un exercice prestigieux dirigé par « un maître du cinéma », et non par un simple artisan expérimenté. Villeneuve s’était déjà vu offrir l’opportunité de réaliser Mourir peut attendre, mais a refusé le rôle en raison de son engagement dans les films Dune.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


En nommant Villeneuve, Amazon a réussi à faire basculer le débat public. Villeneuve est « bien plus qu’un technicien de l’image », a écrit Peter Bradshaw, critique de cinéma du Guardian. « C’est un auteur de classe alpha, au même titre que Christopher Nolan. »

D’autres critiques ont souligné sa rare capacité à « combiner l’élan des superproductions (et les ventes de billets) avec les sensibilités plus fines et plus nuancées d’un cinéaste toujours soucieux de ralentir, de creuser des personnages et des thèmes ».

Si Sam Mendes, réalisateur de 007 Skyfall (2012) et de Spectre (2015), a bénéficié d’un statut artistique, Villeneuve représente autre chose : un nom de marque, souvent considéré comme un auteur à part entière.

Villeneuve parle de son amour pour Bond.

Depuis ses débuts dans le cinéma québécois à son arrivée à Hollywood avec Prisoners (2013), mettant en vedette Hugh Jackman et Jake Gyllenhaal, Villeneuve a accumulé une filmographie d’un éclectisme impressionnant.

Il a prouvé qu’il était aussi à l’aise dans les films policiers réalistes (Sicario, 2015) et le cinéma surréaliste dont David Lynch serait fier (Enemy, 2013), que dans la science-fiction (L’arrivée, 2016, Blade Runner 2049, 2017, et les films Dune, 2021 et 2024).

Le Bond de Villeneuve

Bien que Sicario soit le film le plus proche, en termes de genre, des films de Bond, établissant Villeneuve comme un réalisateur capable de tourner des séquences d’action de manière experte, il est néanmoins difficile à ce stade de conceptualiser ce que pourrait être un film de Bond signé Villeneuve.

Certains critiques ont suggéré que le parcours professionnel du réalisateur, aussi éclectique soit-il, pourrait ne pas être de bon augure pour Bond. Benjamin Svetkey, critique de cinéma au Hollywood Reporter, par exemple, s’inquiète du fait que le « cinéma lugubre et méditatif » de Villeneuve manque cruellement d’humour — ce qui pourrait être fatal pour 007. « Une certaine dose d’esprit et de clins d’œil est essentielle pour le personnage », affirme-t-il.

Amazon MGM et Villeneuve n’en sont qu’à leurs débuts. Pour l’instant, il n’y aurait pas encore de traitement, de scénario, de scénariste et, plus important encore, d’acteur désigné pour le rôle. Quoi qu’il en soit, le 26e film de Bond sera probablement une refonte radicale qui effacera (à nouveau) l’ardoise après le sort réservé à 007 dans Mourir peut attendre.

Le choix de Villeneuve pour Bond ne sera probablement pas aussi caricatural que l’incarnation de Pierce Brosnan.

Bien que Villeneuve ait déclaré qu’il avait l’intention d’honorer la tradition et que Bond était pour lui un « territoire sacré », la capacité de renouvellement et de réinvention du personnage a été la clé de la longévité de la franchise.

Comme l’affirment les sociologues Tony Bennett et Janet Woollacott dans leur étude fondamentale, Bond and Beyond, le personnage de Bond a, au cours des six dernières décennies, « été construit différemment à différents moments », avec « différents ensembles de préoccupations idéologiques et culturelles ».

Le type de film de Bond que Villeneuve réalisera dépendra donc en grande partie de l’histoire et de l’acteur qui sera désigné pour incarner le prochain James Bond. Il est peu probable que le public s’attende à un Bond pantomime comme Roger Moore, ou à un Bond avec une voiture invisible, comme Pierce Brosnan dans le caricatural Meurs un autre jour (2002). En entrevue, Villeneuve a choisi Casino Royale comme son 007 préféré. Mais il est également peu probable que le réalisateur se contente de reproduire servilement le passé.

La Conversation Canada

William Proctor ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Après Dune, Denis Villeneuve s’attaque à James Bond : à quoi ressemblera son 007 ? – https://theconversation.com/apres-dune-denis-villeneuve-sattaque-a-james-bond-a-quoi-ressemblera-son-007-260863

Exportation du modèle des « notes de la communauté » de X vers Meta, TikTok et YouTube : ce que ça va changer

Source: The Conversation – in French – By Laurence Grondin-Robillard, Professeure associée à l’École des médias et doctorante en communication, Université du Québec à Montréal (UQAM)

En s’engageant dans le sillage de X, Meta pourrait avoir précarisé la fiabilité de l’information sur ses plateformes. (Shutterstock)

En février 2024, Meta réduisait la découvrabilité du contenu jugé « politique » sur Instagram et Threads afin de limiter l’exposition des utilisateurs à des publications controversées et de favoriser une expérience positive. Moins d’un an plus tard, Mark Zuckerberg annonçait plutôt l’inverse : la fin du programme de « vérification des faits », remplacé par les « notes de la communauté » comme sur X (anciennement Twitter) ainsi qu’un assouplissement du côté des politiques de modération.

Meta souhaitait « restaurer la liberté d’expression » sur ses plates-formes.

Les notes de la communauté sont un système de modération dit « participatif » permettant aux utilisateurs d’ajouter des annotations pour corriger ou contextualiser des publications. D’un média socionumérique à l’autre, les conditions pour devenir un contributeur de cette communauté varient peu : être majeur, actif sur la plate-forme depuis un certain temps et n’avoir jamais enfreint ses règles.

Sans tambour ni trompette, même YouTube et TikTok essayent désormais ce type de modération aux États-Unis. Dévoilé comme une réponse innovante aux défis posés par la circulation de fausses nouvelles, ce modèle mise sur l’autonomisation des utilisateurs pour arbitrer la qualité de l’information. Pourtant, cette tendance révèle un mouvement plus large : le désengagement progressif des médias socionumériques face à la vérification des faits et au journalisme.

D’ailleurs, que sait-on vraiment des notes de la communauté ?

Professeure associée et doctorante en communication à l’Université du Québec à Montréal, je m’intéresse aux transformations qui redéfinissent nos rapports aux technologies et à l’information, tout en reconfigurant les modes de gouvernance des médias socionumériques.

La modération communautaire : ce que dit la recherche

Les notes de la communauté demeurent une fonctionnalité très récente. Connues sous le nom initial de Birdwatch sur Twitter, elles sont déployées à la suite de l’assaut du Capitole en janvier 2021 avec un premier groupe de 1000 contributeurs aux États-Unis. L’accès est progressivement élargi à un échantillon atteignant environ 10 000 participants en mars 2022.

Après le rachat de Twitter par Elon Musk la même année et les licenciements massifs qui en ont suivi, notamment dans les équipes de modération, ce système devient primordial dans la stratégie de modération décentralisée de la plate-forme.

La littérature scientifique traitant de la question est limités, non seulement parce que le modèle est récent, mais également parce que la plate-forme X est son unique objet d’étude. Cependant, elle met en lumière des éléments intéressants sur ce type de modération.

D’abord, les notes de la communauté contribueraient à freiner la circulation de la mésinformation, réduisant jusqu’à 62 % les repartages. Elles augmenteraient également de 103,4 % les probabilités que les utilisateurs suppriment le contenu ciblé en plus de diminuer son engagement global.

Toutefois, il importe de distinguer mésinformation et désinformation. Les études se concentrent sur la première, car l’intention malveillante propre à la désinformation est difficile à démontrer méthodologiquement. Celle-ci est même absente des catégories imposées aux noteurs par X, qui doivent classifier les contenus comme misinformed (mésinformé), potentially misleading (potentiellement trompeur) et not misleading (non trompeur). Ce cadrage restreint contribue à invisibiliser un phénomène pourtant central dans les dynamiques de manipulation de l’information.




À lire aussi :
De Twitter à X : Comment Elon Musk façonne la conversation politique américaine


Ensuite, les utilisateurs jugeraient les notes de la communauté plus crédibles que les simples étiquettes de fausses nouvelles ou de désinformation, car elles fournissent un contexte explicatif. De plus, les contributeurs se concentreraient davantage sur les publications de comptes influents, ce qui pourrait limiter la portée de la mésinformation.

Enfin, la recherche souligne la complémentarité entre vérification des faits et notes de la communauté. Ces dernières s’appuient fréquemment sur des sources professionnelles, particulièrement pour les contenus complexes, et prolongent le travail amorcé par les professionnels.

Les vérificateurs et journalistes assurent rigueur, rapidité, fiabilité, tandis que les notes, plus lentes à se diffuser, bénéficient d’un capital de confiance sur une plate-forme où journalisme et médias d’information sont souvent contestés. Leur rôle conjoint s’impose donc comme une évidence, contrairement aux idées prônées par Musk et Zuckerberg.

L’illusion d’une communauté au service de la rentabilité

Les bénéfices tirés de l’adoption de ce modèle par les géants du Web sont loin d’être négligeables : non seulement on mise sur les utilisateurs eux-mêmes pour contrer la « désinformation », mais on stimule en même temps leur activité et leur engagement au sein de la plate-forme.

Or, plus les usagers y passent du temps, plus leur attention devient monétisable pour les annonceurs, et donc profitable pour ces médias socionumériques. Ce modèle permet en outre de réaliser des économies substantielles en réduisant les besoins en personnel de modération et en limitant les investissements dans des programmes de vérifications des faits.

Malgré son apparente ouverture, ce système, comme déployé sur X, n’est pas réellement « communautaire » au sens où peut l’être un projet comme Wikipédia. Il ne repose ni sur la transparence des contributions ni sur un processus collaboratif et un but commun.

En réalité, il s’agit davantage d’un système algorithmique de tri, soit un filtre sélectif fondé sur des critères de visibilité optimisés pour préserver un équilibre perçu entre opinions divergentes. Bien que les notes soient factuelles, elles ne sont rendues visibles qu’à condition de franchir une série d’étapes comme celle de l’algorithme dit de « pontage » (bridging algorithm), qui n’affiche une note à l’ensemble des utilisateurs que si elle est approuvée à la fois par des utilisateurs aux opinions opposées.

En pratique, cette exigence freine considérablement la capacité du système à faire émerger les corrections mêmes pertinentes. Selon une analyse de Poynter, moins de 10 % des notes proposées sur X deviennent visibles. Ce taux aurait d’ailleurs chuté après une modification de l’algorithme en février dernier, une semaine après qu’Elon Musk s’est plaint d’une note réfutant de la désinformation anti-ukrainienne.

De plus, il n’existe aucune mesure concernant l’exactitude ou la qualité des notes. Leur visibilité dépend uniquement de leur perception comme « utile » par des utilisateurs issus de courants idéologiques variés. Or, ce n’est pas parce qu’un consensus se forme autour d’une note qu’elle reflète nécessairement un fait.

L’information de qualité n’est pas la priorité

Les rhétoriques de « liberté d’expression » portées par ceux qui contrôlent les canaux de diffusion sur les médias socionumériques relèvent au mieux du contresens, au pire de l’hypocrisie. Les géants du Web, par le biais d’algorithmes opaques, décident de la visibilité et de la portée des notes de la communauté.

Ces mécanismes et discours alimentent l’érosion de la confiance envers le journalisme et la vérification des faits, car sur ces médias socionumériques, la qualité de l’information importe moins que sa capacité à générer de l’attention et à circuler. Le cas de Meta au Canada en est révélateur. En bloquant l’accès aux médias d’information en réponse à la Loi C-18, l’entreprise a démontré qu’elle pouvait agir presque impunément. Même en période électorale, les investissements publicitaires ont afflué, y compris de la part des mêmes partis et élus qui avaient pourtant dénoncé ledit blocage.




À lire aussi :
J’ai testé l’abonnement Premium de X et Meta Verified sur Instagram : voici mes constats sur les crochets d’authentification


Face à cette réalité, la lutte à la « désinformation » est un combat noble, mais inégal, contre un ennemi insaisissable, alimenté par la mécanique impitoyable des algorithmes et de l’idéologie d’une broligarchie bien ancrée.

Comme le notaient déjà en 2017 les professeurs et économistes américains Hunt Allcott et Matthew Gentzkow, les fausses nouvelles prospèrent parce qu’elles sont moins coûteuses à produire que les vraies, plus virales et davantage gratifiantes pour certains publics. Tant que les plates-formes continueront de privilégier la circulation de contenu au détriment de la qualité, la bataille contre la « désinformation » restera profondément déséquilibrée quelle que soit la stratégie.

Repenser la liberté d’expression à l’ère des algorithmes

Si l’exportation des notes de la communauté au-delà des frontières américaines se confirme, elle représentera un progrès uniquement pour les propriétaires de ces plates-formes. Le modèle se présente comme ouvert, mais il repose sur une délégation contrôlée, balisée par des algorithmes qui filtrent toujours ce qui mérite d’être vu.

Ce n’est pas la communauté qui décide : c’est le système qui choisit ce qu’elle est censée penser.

En cédant une partie du travail journalistique à ces dispositifs opaques, nous avons affaibli ce qui garantit la qualité de l’information : exactitude, rigueur, impartialité, etc. Loin d’une démocratisation, c’est une dépolitisation de la modération qui s’opère où tout devient question de rentabilité, même les faits.

Elon Musk affirme « Vous êtes les médias maintenant ». La question à se poser désormais est la suivante : avons-nous vraiment une voix libre, ou sommes-nous de simples variables formatées dans un algorithme ?

La Conversation Canada

Laurence Grondin-Robillard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Exportation du modèle des « notes de la communauté » de X vers Meta, TikTok et YouTube : ce que ça va changer – https://theconversation.com/exportation-du-modele-des-notes-de-la-communaute-de-x-vers-meta-tiktok-et-youtube-ce-que-ca-va-changer-255680

Où placer les stablecoins parmi les cryptoactifs ?

Source: The Conversation – in French – By Françoise Vasselin, Maîtresse de conférences en Sciences Economiques – Université Paris-Est Créteil (UPEC), Université Paris-Est Créteil Val de Marne (UPEC)

L’USDT (Tether) et l’USDC (USD Coin) représentent plus de 90 % des stablecoins. ddRender/Shutterstock

Les stablecoins sont des actifs numériques conçus pour maintenir une valeur stable, généralement indexée sur le dollar américain. Leur capitalisation dépasse 260 milliards de dollars en juin 2025, dont plus de 99 % visent à suivre le dollar. Cette stabilité repose sur des réserves en monnaie fiduciaire, des cryptoactifs ou des mécanismes algorithmiques.


En ce mois de juin 2025, Circle, émetteur du stablecoin USDC, vient de déposer un dossier pour devenir une banque. La First National Digital Currency Bank. L’idée ? Se passer des acteurs bancaires traditionnels.

Les stablecoins jouent un rôle central dans les transformations monétaires actuelles. Loin d’être neutres, ils soulèvent des enjeux de régulation, de stabilité financière et de souveraineté. Dominés par l’USDT et l’USDC, qui représentent plus de 90 % du secteur, ils sont appelés à coexister avec les monnaies numériques de banques centrales — comme l’euro numérique — et les cryptoactifs décentralisés — comme le bitcoin.

Les comprendre, c’est anticiper l’évolution du système monétaire international.

Les stablecoins constituent l’une des quatre catégories de cryptoactifs — cryptomonnaies comme le bitcoin, jetons non monétaire comme le Basic Attention Token (BAT) sur ethereum, ou communautaire comme le $Trump –. On peut les distinguer à partir des deux critères : le mode d’émission et l’usage principal attendu.

Qu’en est-il des stablecoins ?

Natif et non natif

La majorité des cryptoactifs s’appuie sur des registres distribués — registre simultanément enregistré et synchronisé sur un réseau d’ordinateurs —, le plus souvent des blockchains, conçus pour enregistrer des données de manière fiable et infalsifiable.

Leur émission peut se faire de deux façons.

Les cryptoactifs natifs (ou cryptomonnaies) de paiement ou de plate-forme, comme le bitcoin ou l’ether, sont émis automatiquement par le logiciel de leur propre blockchain, conformément aux règles inscrites dans son protocole. De ce fait, ils ne sont associés à aucun émetteur identifiable.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


À l’inverse, les cryptoactifs non natifs sont créés après le lancement d’une blockchain, grâce à des programmes appelés contrats intelligents, ou smart contracts. Ces programmes autonomes, une fois lancés, fonctionnent de manière automatique et sans possibilité d’être modifiés. Ils sont installés sur une blockchain existante — comme Ethereum ou Solana — qui devient alors leur blockchain d’accueil.

Émetteur identifiable

Parmi les cryptoactifs non natifs, on distingue les jetons non monétaires, tels que les jetons utilitaires — comme le Basic Attention Token (BAT) sur Ethereum — ou communautaires — comme le $Trump ou Trump Coin —, et… les stablecoins, comme l’USDT.

L’émetteur d’un cryptoactif non natif est en général identifiable, car il existe une entité concevant le contrat intelligent, assurant la création et la gestion dudit jeton. Par exemple, le stablecoin USDC est émis par Circle, une entreprise spécialisée dans les services financiers numériques.

Sur la blockchain Ethereum, l’USDC prend la forme d’un jeton ERC-20, généré via un contrat intelligent. Ce jeton est conçu pour refléter la valeur du dollar américain, selon un principe de parité 1 :1. Lorsqu’un utilisateur envoie des dollars à Circle, celle-ci crée exactement la même quantité d’USDC et crédite l’adresse Ethereum de l’utilisateur. Les dollars reçus sont conservés en réserve, ce qui garantit la valeur des jetons émis. Circle reste responsable à la fois de l’émission et de la destruction des USDC, de manière à ce que chaque jeton en circulation corresponde à un dollar réel détenu en réserve.

Moyen de paiement

Les cryptoactifs sont principalement demandés pour deux types d’usages, correspondant à deux visions fondatrices de la blockchain.

Buste de Satoshi Nakamoto à Budapest, l’un des fondateurs du bitcoin.
Shutterstock

Dans la vision de Satoshi Nakamoto, confondateur du Bitcoin, les cryptoactifs servent de moyen de paiement, puisqu’ils sont conçus pour permettre des transactions de pair-à-pair. Le bitcoin illustre pleinement cette fonction. Les stablecoins remplissent le même rôle, avec une particularité : leur valeur reste stable par rapport à une monnaie de référence, comme le dollar.

De son côté, Vitalik Buterin, cofondateur d’Ethereum, considère que le rôle principal des cryptoactifs est de donner accès aux services et fonctionnalités offerts par l’infrastructure blockchain ; qu’il s’agisse d’y développer des applications décentralisées, d’interagir avec des protocoles sans intermédiaires, ou encore d’y enregistrer des droits de propriété numérique comme les NFTs. L’idée : permettre aux utilisateurs de tirer parti de cette infrastructure, sans passer par des autorités centrales.

Les stablecoins sont donc des cryptoactifs non natifs, dont l’usage principal est celui de moyen de paiement.

Cryptoactif adossé au dollar

Face à la volatilité des cryptoactifs traditionnels, trois entrepreneurs, Brock Pierce, Craig Sellars et Reeve Collins, ont lancé en 2014 le projet RealCoin, le premier stablecoin adossé au dollar. Quelques mois plus tard, le projet a été rebaptisé Tether (USDT), afin de mieux refléter son ancrage à la monnaie états-unienne. Leur objectif est de créer un actif numérique stable, conçu pour faciliter les échanges tout en limitant les fluctuations de prix.

La stabilité des stablecoins repose généralement sur la possibilité pour les utilisateurs de les échanger à tout moment contre des dollars, à un taux fixe de 1 :1 — autrement dit, un jeton stablecoin vaut un dollar. Cette parité est rendue possible par l’existence de réserves, censées garantir la valeur de chaque jeton en circulation. Ces réserves peuvent prendre la forme de dollars déposés sur des comptes bancaires, ou, dans d’autres cas, de cryptoactifs.

Cours du Tether USDt (USDT) de sa création à aujourd’hui.
Google Finance, FAL

Ce mécanisme d’émission et de rachat permet de corriger automatiquement les écarts de prix sur ce qu’on appelle le marché secondaire. Ce dernier regroupe les plateformes où les utilisateurs s’échangent directement les stablecoins entre eux, par opposition au marché primaire, où seuls les émetteurs créent ou détruisent les jetons.

Par exemple, si le prix d’un stablecoin dépasse un dollar, les utilisateurs sont incités à en vendre contre de la monnaie réelle, ce qui augmente l’offre du jeton et fait baisser son prix. À l’inverse, s’il passe sous un dollar, ils en rachètent, ce qui accroît la demande et fait remonter le prix. Ce jeu d’arbitrage contribue à maintenir la parité.

Trois types de stablecoins

Au sens strict, en excluant les cryptoactifs adossés à des matières premières, comme Tether Gold ou PAX Gold, qui suivent simplement le cours d’un actif réel tel que l’or, on distingue trois types de stablecoins :

  • Les stablecoins centralisés : adossés à des réserves en devises, souvent le dollar, ils sont émis par une entité centrale, comme Tether Limited, Circle, ou SG-Forge, une filiale de Société Générale, qui a lancé en avril 2023 un stablecoin adossé à l’euro (EURCV) destiné à des usages institutionnels sur la blockchain Ethereum.

  • Les stablecoins décentralisés comme DAI, dont la valeur est maintenue aussi proche que possible du dollar. Ils sont garantis par des cryptoactifs déposés dans des contrats intelligents sur la blockchain. Généralement surcollatéralisée, la valeur de ces cryptoactifs bloqués dépasse celle des jetons émis, afin d’absorber les pertes en cas de forte volatilité ou de défaut.

  • Les stablecoins algorithmiques, comme TerraUSD (UST), reposent sur un mécanisme à deux jetons : UST, censé rester stable à un dollar, et LUNA, utilisé pour absorber les variations de l’offre. Contrairement aux stablecoins garantis par des réserves réelles, UST n’était adossé à aucun collatéral tangible. Sa stabilité reposait sur des mécanismes incitatifs programmés, permettant notamment d’échanger 1 TerraUSD (UST) contre un dollar de LUNA. Mais en 2022, une perte de confiance a entraîné des ventes massives d’UST, forçant le protocole à émettre de grandes quantités de LUNA, ce qui a fait chuter sa valeur. Le système s’est enrayé, provoquant l’effondrement des deux jetons et révélant la fragilité de ce modèle.

Affaire Tether

En pratique, seuls les stablecoins centralisés bénéficient d’un mécanisme de stabilisation fondé sur l’arbitrage direct. Ce fonctionnement donne la possibilité pour les utilisateurs d’acheter ou de vendre des actifs numériques (jetons) en profitant d’écarts entre leur prix de marché et leur valeur théorique (1 dollar). Ils ont la garantie de pouvoir les échanger à tout moment contre des dollars auprès de l’émetteur, à un taux fixe de 1 :1. Ce mécanisme repose sur l’existence de réserves liquides, transparentes et bien gérées, permettant à l’émetteur d’assurer ce droit de rachat.




À lire aussi :
Bitcoin et cryptomonnaies en 2025 : opportunités ou dangers ?


Deux affaires ont mis en lumière les limites de ce modèle lorsque la transparence fait défaut ou que l’émetteur conserve un pouvoir de blocage sur les fonds. En 2021, l’affaire Tether se conclut par une amende de 18,5 millions de dollars pour manque de transparence sur les réserves. En 2023, 63 millions d’USDC sont gelés par Circle à la suite du piratage de Multichain, un service de transfert entre blockchains, détourné à hauteur de 125 millions de dollars).

Ces événements mettent en lumière les approches divergentes des deux leaders actuels du marché des stablecoins. Circle (USDC) privilégie depuis l’origine la transparence et des actifs très liquides comme les bons du Trésor des États-Unis. Tether (USDT), longtemps critiqué pour son opacité et ses réserves risquées, a récemment renforcé la qualité et la transparence de ses actifs.

Usages concrets dans le monde entier

Les stablecoins sont déjà utilisés dans des contextes très variés, souvent face à des contraintes économiques locales. En 2022, le Haut Commissariat des Nations unies pour les réfugiés (HCR) a lancé un programme d’aide aux réfugiés ukrainiens via l’USDC sur la blockchain Stellar. Confrontés à une inflation supérieure à 100 %, de nombreux citoyens argentins se tournent vers l’USDT comme réserve de valeur et moyen de transaction.

Au Nigeria, leur usage s’est développé avec la dévaluation du naira et des restrictions bancaires. Enfin, aux Philippines, les stablecoins réduisent le coût des transferts de fonds depuis l’étranger. Les stablecoins jouent également un rôle croissant dans les environnements numériques. Sur certaines plates-formes, ils servent au paiement de salaires, comme avec Bitwage, ou aux réservations en ligne. À Singapour, les volumes de paiement en stablecoins dépassent déjà un milliard de dollars.

Dans tous les cas mentionnés, les stablecoins utilisés sont adossés au dollar états-unien, ce qui pourrait renforcer le rôle du dollar à l’échelle mondiale.

Exclusion de l’Union européenne ?

Depuis 2024, le règlement européen MiCA impose aux émetteurs de stablecoins une autorisation, ainsi que des exigences de transparence sur les réserves. Le stablecoin Euro CoinVertible (EURCV), lancé par Société Générale–Forge et émis sur les blockchains publiques Ethereum et Solana, répond à ces nouvelles exigences. Aux États-Unis, un projet de loi comparable, le Clarity for Payment Stablecoins Act, est toujours en discussion.

C’est dans ce contexte que Tether (USDT), principal stablecoin en circulation, se retrouve potentiellement exclu des plateformes régulées qui opèrent légalement dans l’Union européenne. Tether est émis hors d’Europe, par une entité qui n’a pas sollicité d’autorisation au titre de MiCA. Or, depuis juillet 2024, les stablecoins non autorisés ne peuvent plus être offerts au public ni admis à la négociation sur ces plateformes. USDT risque donc d’être progressivement retiré de plusieurs plateformes telles que Binance, Kraken, Bitstamp ou OKX EU.

Fragmentation du marché

Cette exclusion pourrait conduire à une fragmentation géographique du marché des stablecoins et à un avantage compétitif pour les jetons conformes à MiCA, comme EURCV. Cette situation illustre les limites de l’action réglementaire dans un environnement décentralisé. Si MiCA renforce la sécurité juridique sur les plateformes régulées, il ne peut pas empêcher la circulation transfrontière de l’USDT, qui restera accessible via des canaux non supervisés.

C’est aussi dans ce contexte que Société Générale–Forge s’apprête à lancer, durant l’été 2025, un nouveau stablecoin adossé au dollar, l’USD CoinVertible (USDCV). Émis sur Ethereum et Solana, ses actifs de réserve seront déposés auprès de la banque New York Mellon Corporation. Ce lancement pourrait contribuer à capter une part du marché institutionnel européen laissée vacante par le retrait probable de l’USDT. Il offrirait une alternative conforme à MiCA, libellée en dollar américain. D’autres initiatives similaires commencent à émerger…

Instruments de politique monétaire

Au-delà des aspects juridiques, les stablecoins sont devenus des instruments de politique monétaire internationale. En mars 2025, le secrétaire au Trésor américain Scott Bessent a déclaré que le gouvernement utiliserait les stablecoins pour maintenir la domination du dollar comme monnaie de réserve mondiale. Il a souligné que ces actifs facilitent l’accès au dollar et soutiennent la demande pour la dette publique américaine.

Face à cette situation, l’Union européenne cherche à accélérer la mise en place d’un euro numérique, une forme de monnaie de banque centrale, émise par la BCE et accessible au grand public, qui fonctionnera sur une blockchain privée. Pierre Gramegna, directeur général du Mécanisme européen de stabilité, a récemment alerté sur le risque d’une dépendance aux stablecoins adossés au dollar. Selon lui, leur adoption massive pourrait fragiliser la stabilité financière de la zone euro.

The Conversation

Françoise Vasselin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Où placer les stablecoins parmi les cryptoactifs ? – https://theconversation.com/ou-placer-les-stablecoins-parmi-les-cryptoactifs-256663