Pourrait-on faire fonctionner des data centers dans l’espace ?

Source: The Conversation – in French – By David Monniaux, Chercheur en informatique, Centre national de la recherche scientifique (CNRS), Université Grenoble Alpes (UGA)

Différents acteurs de la tech envisagent d’utiliser des satellites pour faire des calculs. En d’autres termes, il s’agit d’envoyer des data centers dans l’espace. Est-ce réaliste ? Un informaticien fait le point.


On parle de l’idée d’installer dans l’espace, en orbite, des data centers destinés à l’intelligence artificielle. Par exemple, en novembre 2025, Google annonçait son projet Suncatcher.

Quel crédit accorder à cette proposition ? Je vais d’abord expliquer les difficultés techniques qui font que cela semble très compliqué et coûteux pour un avantage peu clair, avant de formuler des hypothèses sur les raisons qui motivent ces annonces.

L’intelligence artificielle, c’est beaucoup de calcul

L’apprentissage automatique à grande échelle est au cœur des applications d’intelligences artificielles (IA) génératives (ChatGPT et consorts). Pour cela, il faut beaucoup de processeurs de calcul, qui consomment de l’électricité et rejettent sous forme de chaleur l’énergie ainsi consommée. Sur Terre, un grand data center de calculs d’intelligence artificielle peut consommer 100 mégawatts (MW) et au-delà ; on a même projeté la construction de data centers à 1 000 MW.

Dans l’espace, du point de vue technique, se posent alors quatre problèmes :

  • les composants électroniques sont irradiés par les rayons cosmiques, ce qui peut causer des pannes ;

  • il faut produire de l’électricité ;

  • il faut évacuer la chaleur produite ;

  • les installations ne sont pas aisément accessibles pour intervenir.

Les radiations perturbent les composants électroniques

Récemment, un Airbus A320 a fait une embardée dans le ciel, car son informatique de commande avait été touchée par des rayons cosmiques. En effet, dans l’espace et, dans une moindre mesure, en altitude (les avions de ligne volent à une dizaine de kilomètres d’altitude), l’électronique est soumise à un rude régime.

Les rayonnements cosmiques peuvent au pire détruire certains composants, au mieux perturber temporairement leur fonctionnement. Pour cette raison, les fournisseurs conçoivent pour équiper les engins spatiaux des processeurs spéciaux résistant aux rayonnements, par exemple le LEON et le NOEL-V, mais ceux-ci ont des performances de calcul modestes (par exemple, le NOEL-V, pourtant moderne, est environ dix fois plus lent qu’un seul cœur de mon ordinateur portable, qui en comporte 12). Si l’on utilise dans l’espace des composants destinés à des applications terrestres conventionnelles, les radiations peuvent provoquer des pannes qui nécessitent des redémarrages de chaque processeur, allant d’une fois toutes les quelques semaines à plusieurs fois par jour, suivant les conditions d’utilisation, d’autant plus fréquemment que le processeur est gravé finement (haute performance).

Produire suffisamment d’électricité

Les géants de la tech parlent actuellement de construire des data centers terrestres consommant de l’ordre de 1 000 MW. À titre de comparaison, les réacteurs de centrales nucléaires françaises ont des puissances électriques nominales (ce qu’elles peuvent produire à 100 % de leur puissance normale d’utilisation) entre 890 MW et 1 600 MW. En d’autres termes, un tel data center consommerait complètement la puissance d’un des petits réacteurs français.

Or, dans l’espace, pour produire de l’électricité, il faut utiliser des panneaux solaires ou des procédés plus exotiques et peu utilisés – microréacteur nucléaire ou générateur à radioéléments, ces derniers étant utilisés pour des sondes partant vers des régions éloignées du Soleil et où il serait donc difficile d’utiliser des panneaux solaires.

Aujourd’hui, les panneaux solaires de la Station spatiale internationale produisent environ 100 kilowatt (kW) de puissance, autrement dit 1 000 fois moins que ce que consomme un data center de 100 MW. Suivant l’orbite, il peut être nécessaire de gérer les périodes où le satellite passe dans l’ombre de la Terre avec des batteries (qui ont une durée de vie limitée), ou accepter que chaque satellite ne fonctionne qu’une partie du temps, ce qui pose d’autres problèmes.

Évacuer la chaleur

Il peut paraître surprenant, vu le froid de l’espace, qu’il soit difficile d’y évacuer de la chaleur. Sur Terre, nous évacuons la chaleur des data centers directement dans l’air, ou encore via des liquides pour ensuite restituer cette chaleur à l’air via une tour de refroidissement. Dans l’espace, il n’y a pas d’air à qui transférer de la chaleur, que ce soit par conduction ou par convection.

Ainsi, la seule façon d’évacuer de la chaleur dans l’espace est le rayonnement lumineux qu’émet tout objet. Quand un objet est très chaud, comme du fer chauffé à blanc, ce rayonnement est intense (et en lumière visible). En revanche, pour des objets tels qu’un ordinateur en fonctionnement ou un corps humain, ce rayonnement (en lumière infrarouge, invisible aux yeux humains mais visible à l’aide de caméras spéciales), est peu intense. Il faut donc de grandes surfaces de radiateurs pour disperser de la chaleur dans l’espace. Organiser l’évacuation de chaleur n’a rien d’évident dans un satellite…

Des problèmes très terre-à-terre

Venons-en à des problèmes plus pratiques. Quand on a un problème dans un data center sur Terre, on envoie un·e technicien·ne. Dans l’espace, cela impliquerait une mission spatiale. Certes, certaines tâches pourraient être accomplies par des robots, mais on est à des ordres de grandeur de complications par rapport à une maintenance dans un bâtiment terrestre. Or, les panneaux solaires et les autres composants ont une durée de vie limitée. Enfin, communiquer avec un satellite est plus compliqué et offre un moindre débit que d’installer un raccordement fibre optique dans une zone bien desservie sur Terre.

Bien entendu, il y aurait également la question de la masse considérable de matériel à transférer en orbite, celle du coût des lancements et de l’assemblage.

On peut également évoquer la pollution, pour l’observation astronomique, du ciel par le passage de constellations de satellites, ainsi que la pollution des orbites par les débris des satellites détruits.

En résumé, même s’il était éventuellement possible techniquement de faire des calculs d’intelligence artificielle dans un satellite en orbite (ou sur une base lunaire), cela serait à un coût considérable et au prix de grandes difficultés. Dans les propos de ceux qui annoncent des data centers spatiaux, on peine à trouver une bonne raison à tant de complications. Parmi certaines justifications avancées, celle d’échapper dans l’espace aux législations des États.

Pourquoi donc parler de mettre des data centers en orbite ?

La question intéressante, plutôt que de savoir s’il serait possible de faire un centre de calcul IA dans l’espace, est donc de savoir à qui cela profite de parler dans les médias de projets relevant plus de la science-fiction que du développement industriel réaliste. Il est bien entendu périlleux de prétendre identifier les objectifs derrière les actes de communication, mais nous pouvons fournir quelques hypothèses.

L’industrie spatiale états-unienne, notamment SpaceX, nourrit l’idée de l’espace comme dernière frontière, avec en ligne de mire l’installation sur Mars, voire la colonisation de cette planète – qu’importe qu’elle soit froide (- 63 °C en moyenne à l’équateur), à l’atmosphère très ténue, et sans protection contre le rayonnement cosmique, autrement dit très hostile à la vie.

L’industrie de l’intelligence artificielle, quant à elle, nourrit l’idée du dépassement du cerveau humain.

Ces deux industries ont un besoin intense de capitaux – par exemple, OpenAI a une dette de 96 milliards de dollars (81,2 milliards d’euros). Pour les attirer, elles ont besoin de récits qui font rêver. Toutes deux créent la « fear of missing out » (ou FOMO), la peur de passer à côté d’une évolution importante et de devenir obsolètes.

D’ailleurs, cette communication fonctionne. La preuve, j’ai rédigé cet article qui, même si c’est pour expliquer à quel point ces projets sont irréalistes, leur accorde une publicité supplémentaire…

The Conversation

David Monniaux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Pourrait-on faire fonctionner des data centers dans l’espace ? – https://theconversation.com/pourrait-on-faire-fonctionner-des-data-centers-dans-lespace-274582

Fissures, sols instables… comment les aléas climatiques redessinent la carte du risque immobilier

Source: The Conversation – in French – By Miia Chabot, Associate Dean Pedagogy and Learning Innovation, Excelia

Acheter un logement, c’est parier sur l’avenir. Or, à l’horizon 2050, le changement climatique redessine la carte du risque immobilier : risque de submersion par exemple, mais également de retrait-gonflement des argiles, phénomène par lequel une sécheresse peut occasionner des dégâts parfois graves sur le bâti. On parle aussi de « maisons fissurées ». Dans ce contexte, comment évaluer la vulnérabilité d’un bien face aux enjeux climatiques ?


Lorsque l’on achète une maison, ce n’est pas seulement sur la solidité du bâti que l’on mise : c’est aussi sur la stabilité d’un sol. En France, près d’un logement sur deux – soit 48 % du territoire métropolitain – repose aujourd’hui sur un terrain vulnérable au retrait-gonflement des argiles, un phénomène silencieux, amplifié par les sécheresses, qui fissure les murs quand la terre se contracte.

Plus de 10 millions de maisons individuelles sont déjà exposées. Entre 1995 et 2019, les sécheresses géotechniques ont entraîné plus de 18 milliards d’euros d’indemnisations (en euros 2023) et en moyenne, près de 700 millions d’euros sont versés chaque année. En 2022, le coût des sinistres a dépassé 3 milliards d’euros, et il pourrait atteindre 43 milliards d’ici à 2050. Les dommages observés sur les bâtiments traduisent un déséquilibre économique à part entière : la déformation du sol devient un facteur de perte de valeur immobilière.

Ce risque n’est pas isolé. Il s’inscrit dans un ensemble plus large d’impacts climatiques physiques qui, partout en Europe, créent des effets économiques différenciés selon les territoires et les activités. La sécheresse, la chaleur ou les pluies extrêmes n’affectent pas de la même manière l’agriculture, l’industrie ou le logement.

Carte d’exposition des formations argileuses au phénomène de mouvement de terrain différentiel consécutif à la sécheresse et à la réhydratation des sols.
BRGM, Fourni par l’auteur

Relier le climat aux conditions du bâti et aux dynamiques locales permet de passer du constat au chiffrage. En combinant les données climatiques, géologiques et structurelles, il devient possible d’évaluer le coût réel d’un aléa, de passer des cartes d’exposition aux cartes de dommages, et d’estimer, à l’horizon 2050, l’ampleur potentielle des pertes liées à la sécheresse des sols. Les fissures de nos maisons traduisent la manière dont le climat pèse désormais sur la valeur du patrimoine et sur la continuité des activités qu’il abrite.




À lire aussi :
Retrait-gonflement des sols argileux : une explosion des risques depuis 2015


Un risque silencieux

Concrètement, le retrait-gonflement des argiles est provoqué par la « respiration » de la terre sous nos pieds : elle se gorge d’eau, puis se rétracte quand elle s’assèche. Dans les sols argileux, ce cycle naturel de gonflement et de retrait est amplifié par les sécheresses successives. Au fil du temps, ces mouvements différentiels déforment les fondations, engendrant fissures et désordres structurels. Le phénomène reste invisible jusqu’à ce qu’il soit trop tard : les murs se fendent, les seuils se déforment, les ouvrants ne ferment plus.

Des recherches récentes montrent que la structure des sols argileux, faite de pores de tailles différentes, explique leur forte sensibilité au manque d’eau. Lorsqu’ils se dessèchent, l’eau s’échappe d’abord des grands pores, provoquant un retrait rapide, puis des plus petits, ce qui accentue la contraction du sol. D’autres travaux relient directement la dynamique hydrique à la déformation mécanique : plus la perte d’eau est brutale, plus le sol se rétracte et la contrainte sur les structures augmente.

Ce risque n’est donc pas seulement une affaire de nature de sol : il dépend aussi de la variabilité climatique, de la profondeur des fondations et de la capacité du sol à retenir l’eau. Chaque été sec accentue la mémoire du précédent, laissant les terrains un peu plus fragiles.




À lire aussi :
Maisons, routes, rail, pistes cyclables… comment lutter contre les risques de retrait-gonflement argileux ?


Des cartes incomplètes, un risque qui grandit

Les cartes nationales, comme Géorisques ou celles du BRGM, constituent aujourd’hui la base de l’information publique sur le retrait-gonflement des argiles. Elles ont le mérite d’exister, mais restent pensées pour une lecture d’ensemble du territoire. Leur échelle, souvent kilométrique, ne permet pas d’évaluer la vulnérabilité réelle d’une maison ni la dynamique du sol à l’échelle de la parcelle. Entre deux terrains voisins, la composition du sous-sol, la présence d’argiles gonflantes ou la profondeur des fondations peuvent pourtant tout changer.

Certaines bases de données internationales offrent un éclairage complémentaire. La Digital Soil Map of the World (FAO – Unesco) décrit la nature des sols à l’échelle planétaire, tandis que les indices satellitaires comme le Soil Water Index (SWI) permettent de suivre l’humidité des sols au fil du temps. Ces approches sont précieuses pour la recherche, mais leur résolution (souvent de l’ordre du kilomètre) reste trop faible pour évaluer le comportement réel d’un terrain face à la sécheresse.

De nouveaux outils plus opérationnels cherchent à combler ce vide. L’application Risque Maison Climat RGA propose, à partir d’une simple adresse, une première estimation du niveau d’exposition d’un logement. En combinant la nature du sol, la fréquence des sécheresses et la vulnérabilité du bâti, elle offre une lecture claire et personnalisée du risque. Mais ses calculs reposent encore sur des données moyennes et n’intègrent pas la variabilité fine du sous-sol.

Les dispositifs publics existants se complètent sans se recouper : Climadiag projette les évolutions climatiques locales, Bat-ADAPT identifie les fragilités du bâti, et Géorisques recense les aléas connus sans les relier à la structure du logement. Ensemble, ils informent mais ne permettent pas d’anticiper les dommages.

Les initiatives privées, de leur côté, peinent à dépasser la logique assurantielle. Les simulateurs proposés par certains assureurs, comme la MAIF, intègrent des indicateurs climatiques, mais sans transparence sur leurs modèles ni accès aux données. Ces outils sensibilisent, sans permettre d’agir.

Mesurer les dommages

Identifier un sol argileux, c’est décrire une vulnérabilité. Ce qui compte aujourd’hui, c’est de savoir ce que cette vulnérabilité coûte quand la sécheresse s’installe. Le passage des cartes d’exposition aux cartes de dommages marque la frontière entre savoir et agir.

Des approches que nous avons développées avec des collègues dans des recherches récentes montrent qu’il est désormais possible d’estimer le coût réel des aléas climatiques, qu’il s’agisse d’inondations, de vagues de chaleur ou de sécheresses géotechniques. En reliant les anomalies climatiques, la nature des sols et les caractéristiques du bâti, les modèles de dommages permettent d’évaluer les pertes économiques attendues.

Cette démarche, déjà utilisée pour les inondations dans des modèles comme Hazus ou JRC, peut être transposée au retrait-gonflement des argiles. Elle consiste à traduire les paramètres physiques d’un site, tels que l’humidité, la profondeur des fondations ou la résistance du sol, en impact financier mesurable.




À lire aussi :
Changement climatique : un indicateur pour prévoir les risques de maisons fissurées


Croiser les données

Pour y parvenir, la clé réside dans l’intégration des données. Les informations existent mais demeurent dispersées entre bases publiques, assureurs et bureaux d’études. Croiser les données climatiques, géologiques et structurelles permet de simuler le coût probable d’un sinistre, incluant les fissurations, les reprises en sous-œuvre et, pour les bâtiments tertiaires, les pertes d’exploitation liées à une interruption d’activité.

C’est ainsi que les modèles de gestion des risques climatiques évoluent : du diagnostic de vulnérabilité à une véritable estimation de dommage qui relie les conditions physiques du sol aux conséquences économiques tangibles. Cette démarche n’a rien d’abstrait. Elle ouvre la voie à une gestion prospective des risques capable d’anticiper les coûts à l’horizon 2050. Les estimations réalisées pour d’autres aléas montrent déjà que les pertes associées aux sécheresses pourraient être multipliées par dix dans certaines régions.

Mesurer les dommages, c’est transformer une information environnementale en outil de décision. Pour un propriétaire, cela revient à évaluer la perte potentielle de valeur d’un bien dans un climat plus chaud et plus sec. Pour une entreprise, c’est la possibilité d’intégrer le coût du risque dans la gestion du bâti, les contrats d’assurance ou la planification des travaux. Pour les pouvoirs publics, c’est un levier pour orienter les politiques de prévention et d’aménagement.

The Conversation

Miia Chabot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Fissures, sols instables… comment les aléas climatiques redessinent la carte du risque immobilier – https://theconversation.com/fissures-sols-instables-comment-les-aleas-climatiques-redessinent-la-carte-du-risque-immobilier-270506

Près de 800 ans après sa mort, le message de François d’Assise connaît une riche postérité

Source: The Conversation – in French – By Vanessa Corcoran, Adjunct Professor of History, Georgetown University

Comment un jeune marchand italien du XIIIᵉ siècle est-il devenu saint ? Les sources écrites et fresques médiévales retracent la vie de François d’Assise et montrent de quelle manière ses exploits et les miracles qui lui sont attribués ont nourri sa réputation à travers les siècles.


À l’occasion du 800e anniversaire de la mort de saint François d’Assise, fondateur de l’ordre franciscain, son corps sera exposé pour la toute première fois en février 2026, à la basilique Saint-François, à Assise (Toscane). Des millions de visiteurs sont attendus dans la petite ville d’Italie pour rendre hommage au saint du XIIIᵉ siècle.

François, mort le 4 octobre 1226, prônait le soin apporté aux plus pauvres et le respect du monde naturel. Ces valeurs ont trouvé un écho, des siècles plus tard, dans l’action du pape François. Le souverain pontife défunt avait choisi son nom de pape en référence à l’attachement du saint médiéval aux pauvres et à son enseignement sur la responsabilité morale de prendre soin de toutes les créatures de la Terre.

En tant que spécialiste de l’histoire religieuse médiévale, je sais que plusieurs épisodes dramatiques survenus à la fin de la vie de François ont joué un rôle décisif dans la construction de son héritage en tant que fondateur de l’ordre franciscain. Ces événements expliquent aussi pourquoi ses messages radicaux sur la pauvreté et l’environnement continuent de résonner aujourd’hui.

Né riche, il choisit une vie de pauvreté

Né vers 1181 dans une famille de marchands de la ville ombrienne d’Assise, dans l’Italie actuelle, François renonce très tôt à la richesse familiale. Un récit rapporte qu’il se serait dépouillé de ses vêtements sur la place publique, au grand embarras de son père. Ses premiers biographes le surnomment « Il Poverello », ou « le petit pauvre ».

En 1209, il fonde l’ordre mendiant des Franciscains, un ordre religieux consacré aux œuvres de charité.

Ce que les historiens et les théologiens savent de François provient principalement de ses propres écrits et de textes hagiographiques. L’hagiographie est une forme de biographie religieuse qui célèbre la vie vertueuse des saints, en relatant souvent les miracles qui leur sont attribués, de leur vivant comme après leur mort. Les fidèles se rendent fréquemment sur leurs tombes pour solliciter une intervention miraculeuse. Certaines des hagiographies consacrées à François ont été rédigées peu après sa mort, en 1226.

Thomas de Celano, frère franciscain qui a connu François personnellement, a rédigé la Vie de François, publiée seulement deux ans après sa disparition. Cette hagiographie a joué un rôle central dans sa canonisation rapide. Elle offrait un récit détaillé de sa vie, sur lequel le pape Grégoire IX s’est appuyé pour juger que les actes de François justifiaient son élévation au rang de saint.

Le théologien et philosophe du XIIIe siècle, saint Bonaventure, a rédigé la Vie de saint François, aujourd’hui considérée comme le récit le plus complet. Cette seconde biographie religieuse ne se limite pas aux événements clés de l’existence de François : elle expose également son héritage durable en tant que fondateur des franciscains. On compte actuellement environ 650 000 franciscains dans le monde. Les membres de l’ordre sont actifs dans plus de 100 pays, avec des missions centrées sur la pauvreté, l’évangélisation et l’éducation.

Les deux récits décrivent les moments clés de la jeunesse de François : après avoir prononcé ses vœux de pauvreté, il mendie et travaille également dans des colonies de lépreux autour d’Assise. C’est à cette époque qu’il fonde l’ordre franciscain.

En 1210, il se rend à Rome et obtient l’approbation pontificale de son ordre de la part du pape Innocent III.

Neuf ans plus tard, il voyage en Égypte pour rencontrer le sultan al-Malik al-Kamil pendant la Cinquième Croisade. Il tente d’abord de le convertir au christianisme par la prédication. Selon les textes chrétiens, cette rencontre aurait finalement contribué à améliorer le sort des prisonniers de guerre pendant les croisades.

Miracles et légendes

La fin de la vie de François est considérée comme marquée par des rencontres spirituelles que de nombreux catholiques interprètent comme des signes de sa sainteté.

Racontées en détail dans les hagiographies du XIIIe siècle, ces histoires expliquent pourquoi il est ensuite étroitement associé aux animaux et à la protection de la nature. Ces épisodes ont également été reproduits à de nombreuses reprises dans des représentations artistiques de François.

En tant que prédicateur itinérant, François parcourt régulièrement l’Italie pour répandre l’Évangile. Mais à une occasion, il s’arrête pour prêcher à un groupe d’oiseaux. Selon la légende, ils l’écoutent avec une attention captivée.

Thomas de Celano souligne qu’à partir de ce jour, les sermons de François ne se sont plus seulement adressés aux hommes mais à « tous les oiseaux, tous les animaux, tous les reptiles et aussi aux créatures insensibles, pour louer et aimer le Créateur ».

L’idée que les animaux étaient captivés par les prêches de François est reprise dans d’autres textes dévotionnels. Dans le récit du XIVᵉ siècle, les Petites Fleurs de saint François, une légende raconte que ses sermons ont même empêché un loup de terroriser la ville toscane de Gubbio.

François parle au loup et lui tendit la main. Le loup étend alors sa patte comme pour lui serrer la main. De telles histoires sont devenues centrales pour façonner l’image de François comme saint patron des animaux et, plus tard, de la nature.

En 1224, une maladie grave le laisse presque aveugle. Incapable d’écrire, il dicte le Cantique de Frère Soleil, ou Cantique des Créatures, souvent considéré comme la première œuvre majeure en langue vernaculaire italienne.

Malgré la vue défaillante de son auteur, ce texte célèbre poétiquement la beauté des créations de Dieu, évoquant les animaux comme ses « frères et sœurs ». Il loue la manière dont la Terre « nous porte et nous nourrit […], produit la diversité des fruits, avec les fleurs diaprées et les herbes. ».

Fait notable, François devint la première personne à recevoir ce que l’on croit être les stigmates – des blessures censées reproduire celles de la crucifixion du Christ. Des témoins du 17 septembre 1224, rapportés plus tard par Thomas de Celano, ont noté :

« Peu avant sa mort, notre frère et père (François) apparut comme crucifié, portant dans son corps les cinq blessures qui sont véritablement les stigmates du Christ. En effet, ses mains et ses pieds présentaient des sortes de perforations faites par les clous, à l’avant et à l’arrière, qui laissaient des cicatrices et montraient la noirceur des clous. Et à son côté, il semblait percé et du sang s’écoulait fréquemment. »

L’artiste de la Renaissance italienne Giotto di Bondone représenta ces scènes dans un cycle de fresques élaboré à la basilique Santa Croce de Florence. Ces blessures renforcèrent l’image de François comme figure christique, un motif largement exploré dans l’écriture dévotionnelle.

Influence sur la papauté contemporaine

François d’Assise, déjà figure historique majeure, a retrouvé une visibilité mondiale le 13 mars 2013, lorsque le cardinal Jorge Mario Bergoglio, élu pape, choisit de rompre avec la tradition et de ne pas prendre le nom d’un prédécesseur pontifical. Il se fit appeler François.

Un choix symbolique : le pape expliqua rapidement que son homonyme représentait « l’homme de pauvreté, l’homme de paix, l’homme qui aime et protège la création », rappelant ainsi l’engagement social et écologique qui marque son pontificat.

Une cathédrale de style gothique se dresse sous un ciel nuageux, tandis qu’une file de personnes se dirige vers son entrée
Basilique Saint-François, à Assise, en Toscane (Italie).
Rosmarie Wirz/Moment Open/Getty Images

Le Cantique du Frère Soleil a ensuite inspiré l’encyclique phare du pape en 2015, Laudato Si’* – « Sur la sauvegarde de la maison commune ». Première encyclique pontificale entièrement consacrée à l’environnement, le texte appelait à un dialogue mondial et à des actions pour protéger la planète. Le pape y écrivait que François d’Assise « nous montre à quel point le lien est indissociable entre le souci de la nature, la justice envers les pauvres, l’engagement envers la société et la paix intérieure ». Depuis la mort du pape Laudato Si’ est saluée comme l’un des héritages durables du premier pape jésuite et né en Amérique latine.

Alors que des pèlerins se rendent à Assise pour ce Jubilé exceptionnel consacré à saint François, l’Église insiste sur le fait qu’il ne s’agit pas seulement de contempler les restes du visionnaire médiéval, mais de se souvenir de ce « modèle de sainteté de vie et témoin constant de paix ».

Bien que ce saint du Moyen Âge, surtout connu à travers des fresques et des textes fragmentaires, puisse paraître une figure lointaine, les enseignements de François sur le soin des pauvres et la responsabilité envers l’environnement délivrent un message toujours pertinent au XXIᵉ siècle.

The Conversation

Vanessa Corcoran ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Près de 800 ans après sa mort, le message de François d’Assise connaît une riche postérité – https://theconversation.com/pres-de-800-ans-apres-sa-mort-le-message-de-francois-dassise-connait-une-riche-posterite-275093

Laïcité à la française : un grand malentendu ?

Source: The Conversation – in French – By Alain Policar, Chercheur associé en science politique (Cevipof), Sciences Po

Principe juridique de neutralité de l’État, la laïcité a initialement été pensée pour protéger la liberté de conscience. Elle est aujourd’hui fréquemment mobilisée d’une manière qui contredit sa vocation première. Cette transformation n’est ni anodine ni sans effets sociaux et politiques. Comment un outil destiné à garantir la coexistence des libertés est-il devenu un levier de normalisation, ciblant certaines populations plus que d’autres ?


Alors qu’elle devait servir à la promotion de valeurs universelles, la laïcité apparaît désormais largement comme une expression nostalgique d’une identité majoritaire. Depuis l’affaire des foulards à Creil (Oise) en 1989, de principe organisant la coexistence des libertés, elle est devenue une valeur censée incarner la civilisation française.

Ce changement, dont les causes sont multiples, a transformé un outil de paix civile en instrument de contrôle des conduites. En témoignent les votes de nombreuses loi restrictives. Parmi celles-ci, celle du 15 mars 2004 sur l’interdiction des signes religieux ostensibles à l’école, qui rompt avec la recommandation du Conseil d’État, lequel, saisi en 1989 par le ministre de l’éducation nationale, Lionel Jospin, conditionnait l’interdiction à un comportement perturbateur. Ou encore celle d’août 2021, qui met l’accent sur le soupçon de séparatisme d’une partie de la population désignée par sa foi religieuse, réelle ou supposée.

Cette évolution est congruente avec le fait qu’un parti d’extrême droite, qui se pose en héraut de la laïcité, et dont le programme repose sur la préférence nationale, occupe désormais une place majeure dans notre vie politique. Pour le Rassemblement national, les bienfaits de l’État-providence ne doivent être destinés qu’au « vrai peuple », le populisme procédant d’une révolte contre le partage des acquis sociaux durement obtenus sur le long terme avec de nouveaux venus, lesquels ne les mériteraient pas.

La tolérance : une vertu politique

Dans sa conception moderne, la tolérance est une vertu politique fondamentale : la divergence de la norme est possible au nom de la liberté. C’est ce que souligne l’article XI de la Déclaration des droits de l’homme et du citoyen (1789) selon lequel « la libre communication des pensées et des opinions est un des droits les plus précieux de l’homme ». Ce droit sera affirmé plus nettement encore dans la Déclaration universelle de 1948, son exercice n’étant soumis qu’aux limitations légales destinées à assurer la reconnaissance et le respect des droits et libertés d’autrui.

La tolérance n’exige évidemment pas que nous renoncions à nos désaccords, mais que nous considérions comme des égaux celles et ceux qui ont des convictions différentes des nôtres.

Dès lors, l’intolérance consiste à revendiquer une place spécifique pour mes propres valeurs ou pour mon mode de vie et, pour cette raison, à vouloir les protéger jusqu’à limiter, voire supprimer, d’autres valeurs que les miennes, ce qui revient à refuser à celles et ceux qui les défendent le statut de membre à part entière de la société. C’est ce dont rend compte l’ouvrage d’Olivier Esteves, Alice Picard et Julien Talpin, à propos des musulmans français diplômés, lesquels se trouvent contraints, faute de reconnaissance de leurs compétences, de quitter la France pour des pays plus ouverts à la diversité.

À l’inverse, la tolérance consistera à insister sur notre appartenance commune à un ensemble social et à reconnaître que les autres ont tout autant que moi le droit de contribuer à en définir les normes.

Laïcité et islam

La France est-elle aussi laïque qu’elle le prétend, s’interrogeait déjà le sociologue François Dubet en 1996, « en refusant aux musulmans les droits qu’elle accorde aux autres, en idéalisant son passé républicain, comme si celui-ci ne procédait pas d’une longue tradition chrétienne » ? Et il concluait par cette mise en garde : « La laïcité ne peut être vécue par les musulmans que sous une forme antireligieuse. »

Ce diagnostic semble confirmé par le rapport 2025 sur les discriminations fondées sur la religion, du défenseur des droits :

« La très grande majorité des réclamations reçues par le défenseur des droits en matière de discriminations fondées sur la religion concerne la religion musulmane et, en particulier, les femmes musulmanes portant un voile […] Cette surreprésentation traduit la spécificité française du débat sur la religion et la laïcité, qui se focalise sur l’islam et, plus encore, sur ses expressions vestimentaires féminines : voile et abaya à l’école, voile porté par les accompagnatrices scolaires, voile dans le sport, burkini dans les piscines, voire, plus récemment, voile porté par les mineures dans l’espace public. Ainsi, malgré des formulations générales, les lois encadrant le port de signes religieux ont entendu viser les femmes musulmanes. »

Le rapport précise que, parmi les personnes se déclarant de religion musulmane ou perçues comme telles, 20 % déclarent avoir été « parfois » discriminées en raison de leur religion au cours des cinq dernières années et 14 % avoir « souvent » été discriminées pour ce motif. Notons que, parmi les personnes se déclarant chrétiennes ou perçues comme telles, 3 % déclarent avoir été « parfois » discriminées en raison de leur religion et 1 % l’avoir souvent été.

État laïc ou société laïque ?

La tentation de faire de la France non pas un État laïc mais un pays, une société qui serait laïque par nature, c’est-à-dire où l’application de ses règles ne serait plus limitée aux agents des services publics, est surreprésentée dans les médias et sur la scène politique. Jean-Michel Blanquer, alors ministre de l’éducation nationale, par exemple, n’hésitait pas à déclarer que « le voile n’est pas souhaitable dans la société tout entière ». Gabriel Attal, ancien premier ministre, veut interdire le port du voile aux moins de 15 ans dans l’espace public et Laurent Wauquiez, chef du groupe Les Républicains à l’Assemblée nationale, a déposé en novembre 2025 une proposition de loi allant dans ce sens, en élargissant l’interdiction à toutes les mineures dans l’espace public.

Certains partisans d’une laïcité impliquant des restrictions étendues considèrent sans doute l’interdiction du foulard islamique comme une manière de lutter contre les croyances incompatibles avec la pensée libre et la citoyenneté éclairée. Au-delà du caractère vraisemblablement inconstitutionnel de la chose, il serait infiniment improbable qu’ils parviennent ainsi à atteindre les objectifs invoqués. On peut même craindre un effet contre-productif, en raison de la récupération de ces interdictions par l’islamisme radical, chez des adolescents en quête d’identité.

Désormais, l’invocation de la laïcité, si l’on en juge par sa fréquence, semblerait en mesure de répondre à tout type de mise en cause des principes républicains, qu’il s’agisse des tenues vestimentaires de nos élèves ou des attaques terroristes dont la France a été victime. Pourtant, de 1982 (attentat de la rue des Rosiers, à Paris) jusqu’en 2012 (assassinat de quatre Juifs, dont trois enfants, par Mohammed Merah à Toulouse, en Haute-Garonne), nul n’avait songé à invoquer solennellement la laïcité, alors que l’on ne cesse désormais de le faire depuis 2015 ? S’agit-il d’une négligence malheureuse, aujourd’hui réparée ? Ou, plus vraisemblablement, d’une instrumentalisation dont on voit bien le profit que l’on pense en retirer ?

Libre expression des différences

Il serait utile de rappeler l’esprit de la Déclaration universelle sur la laïcité au XXIᵉ siècle : la laïcité, qui n’est pas une spécificité française, est la condition de la libre expression des différences. Peut-être aurions-nous alors accès à l’essentiel : si rien ne nous contraint à renoncer à nos fidélités singulières, la laïcité nous invite à les suspendre. Ce qui fait communauté, c’est précisément la suspension, évidemment provisoire, du sentiment d’appartenance. C’est encore la supposition qu’il y a, en tout autre être humain, la capacité à éprouver le même sentiment que moi.


Alain Policar est l’auteur de Laïcité : le grand malentendu, Flammarion, octobre 2025.

The Conversation

Alain Policar ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Laïcité à la française : un grand malentendu ? – https://theconversation.com/la-cite-a-la-francaise-un-grand-malentendu-274158

Sensibiliser les enfants au tri des déchets : enquête dans les coulisses d’une politique éducative à revoir

Source: The Conversation – France (in French) – By Camille Dormoy, Docteure en sociologie, spécialiste des politiques publiques de gestion des déchets/économie circulaire, Le Mans Université; Université de Picardie Jules Verne (UPJV)

Les ateliers pour sensibiliser les enfants au tri des déchets suscitent un véritable engouement. Pourtant, leurs effets à long terme sont limités. À quoi cela tient-il ? Misent-ils trop sur le pouvoir de répétition du geste ? Ou ne prennent-ils pas assez au sérieux la relation des enfants aux objets ? Retour sur quelques observations de terrain.


À mesure que les enjeux climatiques s’imposent dans l’espace public, l’éducation à l’environnement est devenue un axe majeur des politiques éducatives. La sensibilisation au tri des déchets en constitue l’un des piliers les plus visibles.

Entre jeux, ateliers, mallettes, interventions, cette sensibilisation s’est installée depuis une dizaine d’années dans les écoles et les quartiers, comme une évidence, avec l’idée que répéter quelques gestes finirait par changer les comportements.

Pourtant, les enquêtes que nous avons menées à Amiens et notre recherche actuelle au Mans réalisée dans le cadre du programme PEPR Recyclage Déchets ménagers montrent que ces dispositifs produisent surtout des gestes exécutés sous surveillance, sans transformer durablement la manière dont les enfants traitent ou pensent les déchets.

Comment expliquer un tel écart entre l’ambition affichée et les effets réels ?

Le tri à l’école : un rituel d’ordre plus qu’un apprentissage

L’observation, menée en 2019 dans une école d’Amiens (Somme), d’une scène de goûter, permet de saisir concrètement la manière dont la sensibilisation est supposée opérer. Emballages à la main, les enfants se lèvent et se dirigent vers les bacs de tri. Un bref flottement, un doigt qui hésite, et un camarade intervient aussitôt pour rectifier. Le geste s’enchaîne sans effort, quasi mécanique. L’enseignante n’a pas besoin d’intervenir.

Mais rien dans la scène ne suggère que la matière ait été réellement questionnée ou même regardée. Le tri se fait comme on range ses affaires. C’est un comportement attendu bien plus qu’une manière de se saisir de ce que l’on jette.

En sortant de l’école, quelques rues plus loin, les mêmes outils de sensibilisation réapparaissent lors d’une fête de quartier durant laquelle une association locale profite de l’événement pour installer un dispositif dédié à la prévention des déchets : un stand du tri, un atelier de papier recyclé, quelques panneaux.

Si l’intention demeure similaire à celle du cadre scolaire, le déplacement dans l’espace festif en transforme les effets : le dispositif tient mal. Les enfants manipulent la matière avec une liberté que la classe contenait tant bien que mal. Rien n’y fait, ni les rappels ni les explications. Les objets distribués pour enseigner un « bon geste » deviennent des supports de jeu ou de chahut. L’animatrice s’agace.

Le président de l’association explique la scène autrement, persuadé que le jeu est la condition pour qu’un message circule. Mais le message disparaît dès qu’on essaie de l’imposer. La matière, laissée aux enfants, ne soutient pas la pédagogie ; elle la renverse. En attirant l’attention sur ses qualités ludiques et sensorielles, elle devient un objet de manipulation autonome qui détourne l’activité de l’objectif prescrit et fait passer au second plan le contenu normatif du « bon geste ».

Des catégories en décalage avec les usages des enfants

Au Mans (Sarthe), les ateliers philo menés durant l’année scolaire 2024-2025 avec cinq classes d’élèves de CM2 et de 6ᵉ révèlent un autre pan du problème. Les enfants ne parlent pas du déchet comme d’un « résidu » ou d’une « matière à trier » mais comme d’un objet qu’on aime. Une canette vide devient un élément décoratif, un jouet abîmé ou un objet qu’on devrait jeter continuent de valoir par le souvenir qu’il porte.

Les catégories que les dispositifs voudraient stabiliser – recyclable, non recyclable, à jeter, à conserver – n’opèrent pas. Elles ne correspondent tout simplement pas à l’usage que les enfants font des choses ni à la manière dont ils les investissent.

De plus, le doute est permanent : « Mais après, ça va où ? » ou encore : « Et si le camion mélangeait tout ? » Rien, dans les dispositifs, ne vient l’éclairer. On suppose que le geste a du sens alors que tout ce qui se passe après reste invisible.

Cette opacité n’est pas un détail. Elle empêche tout apprentissage réel. Il est difficile de comprendre un geste et de l’adopter, quand on ne sait pas ce qu’il produit, ni même s’il sert à quelque chose.

Des gestes quotidiens

Rien, dans ces scènes, ne suggère une transformation durable : les dispositifs produisent une gestuelle fragile. Dès que la surveillance tombe ou que la matière circule librement, elle disparaît.

Ces observations de terrain révèlent une manière particulière de concevoir l’éducation au tri : celle-ci repose sur un monde où la matière reste tranquille et où les enfants se contentent d’appliquer ce qu’on leur montre. Or, ni l’un ni l’autre ne correspond à ce qui se passe réellement.

Dans la classe d’Amiens, le tri fonctionne surtout parce qu’il est ritualisé et inséré dans un climat d’obligation mutuelle. Le geste n’est pas interrogé. Il est répété parce qu’il faut le faire. L’idée qu’un comportement contraint puisse se maintenir hors du regard des adultes tient davantage d’un espoir institutionnel que d’un constat étayé par l’observation empirique.

Dès que les dispositifs sortent du cadre scolaire, leur cohérence se fissure. La matière déborde : les canettes roulent, les cartons volent, la pâte à papier se transforme. Pensé comme un objet stable et maîtrisable, le déchet est assigné à une fonction pédagogique. Mais sur le terrain, il devient un support de jeu et de transformation, qui échappe au cadrage prescrit.

La conception des dispositifs repose sur une mauvaise compréhension des situations. Les ateliers philo au Mans révèlent quelque chose de plus discret mais tout aussi décisif : les enfants ne pensent pas le déchet dans les catégories que la sensibilisation cherche à imposer. Ils y projettent des souvenirs, un attachement, parfois un regard esthétique. Ils questionnent ce qu’on leur demande de jeter.

L’écart est net entre l’objet simplifié des supports pédagogiques et l’objet vécu, chargé, parfois mystérieux, dont parlent les enfants. Cet écart explique pourquoi les gestes inculqués ne se transforment pas en pratiques durables. Alors que le dispositif oublie la dimension sensible de la matière, les enfants la remettent au centre.

Prendre au sérieux la relation à l’objet

La juxtaposition de ces scènes permet de comprendre pourquoi les investissements publics dans la sensibilisation produisent des effets limités. Le dispositif n’échoue pas faute d’effort, mais parce qu’il ne prend pas au sérieux la relation sensible à l’objet déchu. Dans ces conditions, penser que la multiplication des ateliers ou la sophistication des supports suffiraient à améliorer les pratiques de tri relève d’une forme de croyance.

Or, les enquêtes menées à Amiens et au Mans mettent en lumière une contradiction nette entre la rhétorique de l’éducation au tri et ses effets réels. Les dispositifs produisent de la conformité sous surveillance mais n’améliorent pas la pensée du tri.

En ne clarifiant pas la chaîne de traitement, ils ne modifient pas les représentations. Ces observations conduisent ainsi à interroger une politique éducative fondée moins sur l’apprentissage de la pensée des déchets que sur l’hypothèse selon laquelle la répétition d’un geste garantirait sa reproduction hors du cadre prescriptif.

Prendre au sérieux la relation à l’objet, c’est alors admettre que, pour les enfants comme pour les adultes, le déchet est d’abord manipulé, détourné et investi de souvenirs, bien avant d’être mobilisé comme support d’un geste attendu.

The Conversation

Nathalie Buchot est membre de Les écologistes 72, le Groupe Philo Sarthe et les Carrefours de la Pensée.

Camille Dormoy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Sensibiliser les enfants au tri des déchets : enquête dans les coulisses d’une politique éducative à revoir – https://theconversation.com/sensibiliser-les-enfants-au-tri-des-dechets-enquete-dans-les-coulisses-dune-politique-educative-a-revoir-271902

Après la liquidation d’Ynsect, l’élevage d’insectes a-t-il un avenir en Europe ?

Source: The Conversation – France (in French) – By Tom Bry-Chevalier, Doctorant en économie de l’environnement, Université de Lorraine

Le 2 décembre 2025, le tribunal de commerce d’Évry, dans l’Essonne, a prononcé la liquidation judiciaire d’Ynsect. Après avoir levé plus de 600 millions d’euros, cette ancienne pépite de la French Tech laisse derrière elle une méga-usine vide et 350 salariés licenciés en deux ans. Au-delà du cas particulier, cet échec interroge la viabilité même du secteur de l’élevage d’insectes en Europe et l’aveuglement de certaines visions de l’innovation.


Trois ministres à l’inauguration de son site à Poulainville (Somme), Robert Downey Jr en ambassadeur médiatique, une méga-usine de 45 000 mètres carrés présentée comme la plus grande ferme verticale d’insectes au monde. En 2021, Ynsect incarnait le futur radieux de l’alimentation durable à la française. Quatre ans plus tard, l’entreprise n’est plus qu’un cas d’école de ce que la recherche académique documente depuis un moment : les promesses économiques et environnementales de l’élevage d’insectes se heurtent à des réalités structurelles bien plus complexes que les discours enthousiastes ne le laissaient supposer.

À l’échelle mondiale, le secteur de l’élevage d’insectes a attiré environ 2 milliards de dollars (environ 1,7 milliard d’euros) d’investissements au cours de la dernière décennie. Pourtant, la liste d’entreprises en difficulté s’allonge : Agronutris en France (100 millions d’euros levés), Enorm Biofactory au Danemark, ancien leader scandinave du secteur (55 millions d’euros), Aspire Food Group au Canada (42 millions de dollars US, soit 35,5 millions d’euros), Inseco en Afrique du Sud, Beta Hatch aux États-Unis… toutes ont connu des difficultés financières majeures, voire fait faillite, en 2025. Ce phénomène suggère que les difficultés ne relèvent pas de cas isolés, mais d’obstacles structurels propres au secteur.




À lire aussi :
Les insectes seront-ils réellement la nourriture du futur ?


Mirages de l’économie circulaire

L’un des arguments majeurs avancés pour justifier les investissements dans l’élevage d’insectes reposait sur leur capacité à valoriser les déchets alimentaires. Une promesse d’économie circulaire séduisante sur le papier, mais qui s’est révélée largement illusoire en pratique.

Les réglementations sanitaires européennes interdisent l’utilisation de nombreux déchets comme substrat pour les insectes destinés à l’alimentation animale ou humaine. Le règlement (UE) 2017/893 prohibe notamment les déchets de restauration et de cuisine contenant de la viande ou du poisson. Il en est de même pour les déchets ménagers, qui représentent pourtant jusqu’à 70 % des déchets alimentaires dans les pays européens.

Face à ces contraintes, la plupart des fermes d’insectes industrielles se sont tournées vers des coproduits agricoles de haute qualité, comme le son de blé, entrant ainsi en concurrence directe avec l’alimentation animale conventionnelle.

Hausse du coût de production

Le recours aux coproduits agricoles plutôt qu’aux déchets a une conséquence directe : la hausse des coûts de production. Alors que de nombreuses entreprises d’élevage d’insectes comptaient être rémunérées pour traiter des déchets, elles se retrouvent au contraire à payer pour se procurer les matières premières nécessaires à l’alimentation de leurs insectes.

Une étude publiée dans Food and Humanity établit que la farine d’insectes coûte deux à dix fois plus cher que les alternatives conventionnelles, comme la farine de poisson ou de soja.

L’exemple d’Agriprotein en Afrique du Sud (100 millions de dollars, soit 84,6 millions d’euros, d’investissements) montre cependant que l’usage de déchets n’est pas non plus une solution miracle, l’entreprise ayant depuis fait faillite. Parmi les facteurs de cet échec figure la variabilité des déchets, dont la composition instable complique la standardisation des processus industriels et compromet la qualité constante du produit.

Les insectes, une option plus coûteuse que l’alimentation animale classique


Fourni par l’auteur

Le coût approximatif de la farine d’insectes (en haut) comparé à celui de la farine de poisson (au milieu) et de la farine de soja (en bas) en 2023. Données : (de Jong & Nikolik, 2021 ; IndexMundi, 2023a ; IndexMundi, 2023b ; OCDE/FAO, 2022 ; Banque mondiale, 2023).

Des atouts surestimés ?

L’argument environnemental constituait un pilier central du discours promotionnel de l’industrie. Or, les études scientifiques récentes nuancent considérablement ce tableau. Une étude commandée par le gouvernement britannique, passant en revue 50 articles scientifiques, conclut que la farine d’insectes émet de 5 à 13 fois plus de gaz à effet de serre que la farine de soja, même lorsque les insectes sont nourris de déchets alimentaires. Sur 16 indicateurs environnementaux analysés, la farine d’insectes obtient de moins bons résultats que le soja sur 13 d’entre eux.

Ces résultats décevants s’expliquent en partie par l’utilisation de coproduits plutôt que de déchets pour nourrir les insectes, mais aussi par les besoins énergétiques du secteur. Les insectes nécessitent des températures de 25 à 30 °C pour croître efficacement. En climat tempéré européen, maintenir ces conditions implique, au-delà de l’impact environnemental, des coûts de chauffage considérables. Plusieurs entreprises du secteur ont d’ailleurs en partie justifié leur échec par la hausse importante du coût de l’énergie ces dernières années.

Cette dépendance énergétique pose une question rarement abordée : l’Europe est-elle le bon endroit pour développer cette industrie ? Les régions tropicales comme l’Asie du Sud-Est disposent d’un avantage comparatif naturel. Combiné à des coûts de main-d’œuvre plus élevés et à une réglementation plus stricte sur le plan sanitaire, il est peu probable que l’élevage d’insectes contribue significativement à l’autonomie protéique européenne.

Mais où est le marché annoncé ?

Au-delà des difficultés techniques et environnementales, c’est peut-être l’absence de débouchés commerciaux viables qui explique le mieux l’échec du secteur. Contrairement à une idée répandue, seulement 5 % du financement de l’industrie de l’élevage d’insectes est consacré à l’alimentation humaine, le reste étant voué à la nutrition animale (environ à parts égales entre petfood et animaux d’élevage, notamment en aquaculture). L’industrie elle-même a reconnu que le « facteur dégoût » avait été largement sous-estimé. Plusieurs entreprises qui avaient initialement pour ambition de révolutionner l’alimentation humaine se sont ainsi redirigées vers l’alimentation animale.

Le marché principal visé, l’aquaculture, n’a pas non plus tenu ses promesses. Une revue scientifique publiée dans Reviews in Aquaculture conclut que les insectes ont un impact « énorme » sur le réchauffement climatique, la consommation d’énergie et d’eau dans ce secteur. Le réseau d’investisseurs FAIRR estime désormais que les insectes « ne sont pas la solution » pour l’alimentation en aquaculture.

Conscientes des difficultés à pouvoir concurrencer le coût de la farine de soja ou de poisson, de nombreuses entreprises d’élevage d’insectes se sont rabattues par dépit sur le marché des aliments pour animaux de compagnie, sur un segment premium justifié par des prétentions environnementales et nutritionnelles. Si ce pivot permet certes plus facilement d’atteindre la rentabilité économique, il concerne cependant un marché beaucoup plus faible, ne pouvant accueillir qu’un nombre très restreint d’acteurs.

Près de 170 millions d’euros d’argent public

L’échec d’Ynsect soulève des questions plus larges sur le financement public de l’innovation. Selon Mediapart, près de 170 millions d’euros sur les 650 millions mobilisés provenaient de l’argent public (Bpifrance, Union européenne, Ademe, collectivités locales). Le ministère de l’économie a indiqué que le financement public atteignait 146 millions d’euros, rapporte le Figaro. Selon Antoine Hubert, cofondateur emblématique d’Ynsect, la nouveauté du domaine nécessitait énormément d’innovation et d’avancées réglementaires, et donc des investissements massifs. À l’écouter, un projet de petite envergure n’aurait pas intéressé les investisseurs, car pénétrer le marché de l’aquaculture exigeait d’emblée une capacité de production importante.

Les Échos, 2025.

Ce soutien public s’inscrivait dans une logique louable de réindustrialisation et de transition écologique. Mais il interroge sur les mécanismes d’évaluation des projets innovants. Certes, affirmer que le secteur était voué à l’échec serait un jugement trop facile avec le recul. Il n’empêche : dès la seconde moitié des années 2010, la littérature scientifique exprimait des doutes sérieux sur la viabilité économique de l’élevage d’insectes, bien loin de l’enthousiasme suscité par le rapport de l’Organisation des Nations unies pour l’alimentation et l’agriculture (FAO) en 2013.

Quelle réallocation des ressources ?

Faut-il conclure de cet échec qu’il faut arrêter d’investir dans de nouvelles formes de protéines ? Certainement pas, et d’autres protéines alternatives laissent présager des jours plus radieux. Les alternatives végétales, déjà disponibles commercialement, affichent des bilans environnementaux nettement plus favorables et une acceptation des consommateurs bien supérieure à leur acceptation de protéines provenant d’insectes. D’autres pistes, comme les protéines issues de la fermentation de précision ou les mycoprotéines, présentent des perspectives plus prometteuses malgré des incertitudes persistantes.

L’aventure Ynsect aura au moins eu le mérite de mettre en lumière un écueil récurrent des politiques d’innovation : la tentation de confondre promesses technologiques et solutions éprouvées. Elle rappelle aussi que l’urgence climatique ne dispense pas de rigueur dans l’évaluation des alternatives. À défaut, le risque est double, gaspiller des ressources précieuses et, peut-être plus grave encore, alimenter le scepticisme du public envers les solutions véritablement prometteuses.

The Conversation

Tom Bry-Chevalier est conseiller scientifique non rémunéré de l’Observatoire National de l’Elevage d’Insectes (ONEI).

ref. Après la liquidation d’Ynsect, l’élevage d’insectes a-t-il un avenir en Europe ? – https://theconversation.com/apres-la-liquidation-dynsect-lelevage-dinsectes-a-t-il-un-avenir-en-europe-274586

Protéger les biens culturels face aux pillages et aux trafics : ce que révèle l’exemple de la Chine

Source: The Conversation – France in French (3) – By Elsa Valle, Doctorante, Institut catholique de Paris (ICP)

Sculptures bouddhistes dans la galerie 17, exposition « La promesse du paradis » à la Freer Gallery of Art, Washington, DC.
Smitshonian Museum

Civilisation millénaire à la richesse culturelle exceptionnelle, la Chine a produit d’innombrables œuvres d’art de grande valeur. Une bonne partie de ce patrimoine a été, au cours des siècles, vendue illégalement ou tout simplement pillée. Ce phénomène se poursuit à ce jour, malgré les efforts des autorités chinoises et de la communauté internationale.


« Si un objet est détruit, c’est un objet de moins. Si un État est anéanti, il peut se relever. Mais la perte de la culture est irrémédiable. »

Ce message, publié en 1933 par l’autorité centrale du Kuomintang (qui est à la tête de la République de Chine de 1928 à 1949), rappelle que, dans les périodes de crise, protéger le patrimoine ne se limite pas à la conservation matérielle : il s’agit aussi de préserver la mémoire d’une civilisation et la continuité de son histoire. À cette date, le Kuomintang prit une décision forte, qui ne fit d’ailleurs pas l’unanimité : déplacer les collections du Musée du Palais, créé en 1925 et installé dans la Cité interdite à Pékin, plus au sud, à Shanghai, afin de les protéger de l’invasion japonaise.

L’historienne Tsai-Yun Chan a qualifié, dans un article, cet épisode de « longue marche » des collections impériales constituées par 51 empereurs pendant près de neuf siècles. Cette « longue marche » souligne la fragilité du patrimoine en temps de guerre et sa vulnérabilité face aux convoitises.

Aujourd’hui, nous pouvons admirer, dans les vitrines des musées occidentaux ou dans les catalogues de ventes, des bronzes rituels, des sculptures funéraires, ou encore des vases impériaux. Ces objets chinois suscitent un intérêt à la fois scientifique, esthétique et marchand. Pourtant, derrière ces œuvres peuvent se dissimuler des trajectoires complexes, marquées par des conflits, des pillages et des circulations contraintes dans des contextes d’instabilité politique.

Depuis le XIXe siècle, une part du patrimoine chinois a quitté son territoire d’origine, alimentant collections privées et institutions publiques à travers le monde. Cette dispersion, antérieure à l’émergence du droit international du patrimoine, complique aujourd’hui les débats sur la légitimité des détentions et les politiques de protection des biens culturels.

L’exemple chinois apparaît ainsi comme un paradigme : il éclaire non seulement les enjeux du trafic illicite et les limites des mécanismes juridiques et diplomatiques, mais révèle aussi la valeur symbolique et émotionnelle que revêt le patrimoine pour une nation.

Quand des trésors chinois ont quitté la Chine : la circulation des biens culturels avant le droit international

La présence aujourd’hui d’œuvres d’art chinoises dans les collections occidentales s’explique par une histoire longue, parfois marquée par des épisodes de violence. Vient à l’esprit l’événement emblématique du sac du Palais d’Été en 1860, pendant la deuxième guerre de l’opium : des milliers d’objets impériaux furent alors pillés par les troupes britanniques et françaises puis dispersés, intégrant collections privées et musées, tel le « musée chinois » de l’impératrice Eugénie au château de Fontainebleau.

Pillage de l’ancien Palais d’Été par les troupes franco-britanniques en 1860 durant la seconde guerre de l’opium.
L’Illustration, 22 décembre 1860

Au début du XXe siècle, cette dynamique s’amplifie dans un contexte d’instabilité politique chronique en Chine. Missions archéologiques, explorations scientifiques, fouilles plus ou moins contrôlées et achats sur place contribuent à la sortie massive d’objets.

Dès 1910, au retour d’une de ses missions, le sinologue français Paul Pelliot fait don de plusieurs objets chinois anciens au musée du Louvre. Dans les années 1920 et 1930, de nombreux artefacts arrivent en Occident, contribuant à la constitution des grandes collections d’art chinois ancien. Par exemple, l’archéologue et conservateur américain Carl Withing Bishop dirige deux expéditions en Chine, une première entre 1923 et 1927 puis une deuxième entre 1929 et 1934. Au cours de ces deux expéditions, il achète de nombreux objets qui vont enrichir les collections de la Freer Gallery à Washington.

Ces circulations ne relèvent pas toujours du pillage au sens strict, mais elles s’opèrent néanmoins dans un cadre juridique quasi inexistant, bien avant l’adoption des grandes conventions internationales de protection du patrimoine. Ce vide juridique historique pèse aujourd’hui sur les débats concernant la provenance et la protection des œuvres.

Un trafic illicite toujours actif

Le trafic d’antiquités chinoises demeure une réalité contemporaine, alimentée par la demande du marché international et par la vulnérabilité persistante de nombreux sites archéologiques. En Chine, malgré un cadre législatif national renforcé, les fouilles clandestines et les pillages continuent d’affecter des zones rurales et des sites difficilement surveillés. Selon l’Unesco, 1,6 million d’objets chinois seraient aujourd’hui dispersés à travers le monde.

Le Conseil international des musées (ICOM) créé en 1946, qui a pour but de promouvoir et de protéger le patrimoine culturel et naturel, a ainsi établi en 2010 une « liste rouge » des biens culturels de la Chine susceptibles de faire l’objet de transactions illicites sur le marché international des antiquités. Cette liste vise à aider musées, marchands, collectionneurs, officiers des douanes et de police, à identifier les objets potentiellement pillés et exportés illégalement de Chine.

Le cas chinois illustre donc les limites des dispositifs actuels de contrôle face à un trafic mondialisé et structuré.

Les limites du droit international du patrimoine

La lutte contre le trafic illicite et les demandes de restitution reposent aujourd’hui en grande partie sur le droit international du patrimoine, dont la pierre angulaire est la convention de l’Unesco de 1970. Celle-ci vise à prévenir l’importation, l’exportation et le transfert de propriété illicites des biens culturels. Toutefois, ce cadre juridique présente une limite majeure : son principe de non-rétroactivité. Les œuvres sorties de leur pays d’origine avant l’entrée en vigueur de la convention ne peuvent, en règle générale, être revendiquées sur cette base.

La Convention Unidroit de 1995 renforce ce dispositif en harmonisant les règles de droit privé relatives au commerce international de l’art. Elle permet notamment un traitement uniforme des demandes de restitution devant les juridictions nationales des États signataires.

La Chine a ratifié ces deux textes internationaux, ce qui s’explique sans doute par la recrudescence du trafic illicite des biens culturels sur le territoire chinois dans les années 1990. Il y a eu d’ailleurs une volonté politique de s’inspirer de ces instruments juridiques internationaux en ce qui concerne la législation chinoise sur la protection du patrimoine culturel.

Repenser la protection du patrimoine : les enseignements du cas chinois

Le cas chinois met en lumière les tensions qui traversent aujourd’hui la lutte contre le trafic illicite des œuvres d’art et les politiques de protection du patrimoine. Il révèle l’écart entre des cadres juridiques conçus pour répondre aux trafics contemporains et des collections constituées dans des contextes historiques marqués par la guerre, la domination et l’inégalité des rapports de force. Cette dissociation entre légalité et légitimité constitue l’un des principaux défis pour les acteurs du patrimoine.

Face à ces limites, la recherche de provenance, la coopération internationale et le dialogue entre historiens, archéologues, juristes et spécialistes des relations internationales apparaissent comme des leviers essentiels. Ensemble, ils permettent de mieux documenter les trajectoires des objets et de replacer la circulation de ceux-ci dans des contextes historiques, politiques et culturels plus larges.

Au-delà de ces outils traditionnels, la Chine adopte des pratiques visant à garantir une justice pour les sociétés d’origine des biens culturels, en s’impliquant dans la résolution internationale de conflits relatifs aux objets, en négociant le rapatriement de pièces dispersées comme les deux volumes du manuscrit de soie de Zidanku conservés au musée national des Arts asiatiques de Washington et restitués à la Chine en mai 2025, et en concluant des accords bilatéraux avec plus de vingt pays pour renforcer la lutte contre le pillage et l’exportation illégale d’objets culturels. Ces démarches, qui ne relèvent pas toutes du cadre juridique des restitutions internationales, s’inscrivent dans une dynamique plus large : la Chine formule des revendications explicites concernant certains biens culturels, les enjeux patrimoniaux participant d’une affirmation accrue de sa place sur la scène internationale.

Ces évolutions montrent que la protection du patrimoine ne relève plus seulement de la conservation matérielle ou du respect des cadres juridiques, mais implique une approche globale capable d’articuler histoire, droit, circulation des œuvres et enjeux contemporains du marché de l’art.

The Conversation

Elsa Valle ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Protéger les biens culturels face aux pillages et aux trafics : ce que révèle l’exemple de la Chine – https://theconversation.com/proteger-les-biens-culturels-face-aux-pillages-et-aux-trafics-ce-que-revele-lexemple-de-la-chine-273934

Expiration du traité New Start : vers une reprise de la course aux armements nucléaires ?

Source: The Conversation – France in French (3) – By Tilman Ruff, Honorary Principal Fellow, School of Population and Global Health, The University of Melbourne

**Dans un contexte international extrêmement tendu, le traité New Start, signé en 2010 entre la Russie et les États-Unis, expire ce vendredi. Les termes du traité limitent à 700 le nombre de lanceurs nucléaires stratégiques déployés et à 1 550 le nombre de têtes nucléaires déployées sur ces lanceurs. Sans nouvel – et improbable à ce stade – accord, les deux parties pourront accroître leurs arsenaux, une perspective qui constitue une source d’inquiétude majeure.


Le traité New Start, le dernier accord visant à limiter le nombre d’armes nucléaires de la Russie et des États-Unis, a expiré ce 4 février 2026. Aucune négociation n’est prévue pour prolonger sa durée. Comme l’a déclaré Donald Trump dans une interview récente, « S’il expire, il expire ».

On ne saurait trop insister sur l’importance du traité New Start. Après que d’autres traités relatifs au contrôle des armes nucléaires ont été abrogés ces dernières années, ce texte était le seul accord prévoyant des dispositifs de notification et d’inspection entre les États-Unis et la Russie. À eux deux, ces pays possèdent 87 % des armes nucléaires mondiales.

La fin du traité mettra un terme définitif à la retenue nucléaire entre les deux puissances. Elle risque également d’accélérer la course mondiale aux armements nucléaires.

Qu’est-ce que New Start ?

Le traité sur les mesures visant à réduire et limiter davantage les armes stratégiques offensives, dit « New Start » ou traité de Prague, a été signé le 8 avril 2010 à Prague, par les présidents Barack Obama et Dmitri Medvedev. Il est entré en vigueur l’année suivante.

Barack Obama et Dmitri Medvedev, après la signature du traité New Start, à Prague, le 8 avril 2010.
Site Web de la présidence de la Fédération de Russie., CC BY-NC-SA

Il remplaçait un traité de 2002, le Strategic offensive reduction treaty (SORT), par lequel la Russie et les États-Unis s’étaient engagés à réduire en dix ans le nombre de leurs ogives nucléaires à une quantité comprise entre 1 700 et 2 200 têtes.

Avec New Start, signé pour une durée de dix ans, les deux pays promettaient de réduire leur nombre d’armes nucléaires à longue portée ; en outre, le texte apportait des précisions supplémentaires sur les différents types de lanceurs. Le traité limitait l’arsenal nucléaire à 700 missiles balistiques intercontinentaux (ICBM) et missiles mer-sol balistiques stratégiques (SLBM), 1 550 ogives nucléaires et 800 lanceurs (déployés et non déployés). Ces objectifs ont été atteints dès le 5 février 2018.

Le texte comportait également des dispositifs efficaces d’inspection et de vérification de la conformité des actions des deux parties prenantes aux termes du traité. Il prévoyait deux échanges annuels, ainsi qu’un système continu de notifications mutuelles concernant le mouvement des forces nucléaires stratégiques, qui avaient lieu presque quotidiennement. Les deux parties acceptaient l’inspection réciproque sur site des missiles, ogives et lanceurs couverts par le traité, ce qui fournissait à chacune d’entre elles des informations précieuses sur les déploiements nucléaires de l’autre.

Enfin, l’accord établissait une commission consultative bilatérale et des procédures claires pour la résolution de questions ou de disputes.

Les limitations de l’accord

À l’époque, le traité a été critiqué pour le caractère modeste des réductions qu’il imposait et pour le champ limité des types d’armes nucléaires qu’il couvrait.

Mais sa principale faiblesse était le prix politique qu’Obama avait payé pour obtenir sa ratification par le Sénat américain.

Afin d’obtenir un soutien suffisant de la part des républicains, le président démocrate avait accepté un programme à long terme, d’un coût de plus de 2 000 milliards de dollars, portant sur le renouvellement et la modernisation de l’arsenal nucléaire américain, ainsi que des installations et des programmes de production et d’entretien des armes nucléaires.

Conséquence : avec New Start, les États-Unis s’assuraient de continuer à disposer d’un arsenal nucléaire conséquent et sans cesse modernisé. Les perspectives d’un désarmement total s’évanouissaient.

À l’approche de l’expiration du traité, qui prenait fin en 2021, la Russie avait proposé d’en prolonger la validité de cinq ans, comme le permettaient les dispositions du texte. Donald Trump, qui effectuait alors son premier mandat présidentiel, avait refusé d’y donner suite.

Après sa victoire à l’élection présidentielle de 2020, Joe Biden a finalement accepté la prolongation du traité, le 3 février 2021, soit deux jours seulement avant son échéance. Aucune nouvelle prolongation n’est toutefois prévue par le traité.

En février 2023, la Russie a suspendu l’application de certains aspects clés de l’accord, parmi lesquels l’échange de données sur les stocks et les inspections sur site. Elle ne s’est cependant pas officiellement retirée du traité et s’est engagée à continuer de respecter les limites numériques concernant les ogives, missiles et lanceurs.

Et maintenant ?

En septembre 2025, à l’approche de l’expiration du traité, Vladimir Poutine a fait savoir qu’il était prêt à continuer à respecter les limites fixées pour une année supplémentaire, à condition que les États-Unis fassent de même.

Mis à part une remarque improvisée de Donald Trump – « Cela me paraît être une bonne idée » –, aucune réponse officielle n’a été apportée par Washington à cette proposition russe.

Trump a par ailleurs compliqué la situation en exigeant que toute future négociation sur le contrôle des armes nucléaires inclue la Chine. Or Pékin a toujours refusé cette participation. Il n’existe en outre aucun précédent de négociations trilatérales sur le désarmement ou le contrôle nucléaire, qui seraient longues et complexes. Et si l’arsenal chinois est en expansion, il ne représente aujourd’hui que 12 % de celui des États-Unis et moins de 11 % de celui de la Russie.

Le traité New Start semble désormais voué à expirer sans qu’aucun accord ne soit conclu pour maintenir ses limites jusqu’à la négociation d’un traité de remplacement.

Cela signifie que la Russie et les États-Unis pourraient augmenter, en l’espace de quelques mois, le nombre de leurs ogives déployées de 60 % et 110 % respectivement. Tous deux disposent en effet de la capacité à charger davantage d’ogives sur leurs missiles et bombardiers que ce n’est actuellement le cas. Ils conservent également d’importants stocks d’ogives en réserve ou destinées au démantèlement, mais encore intactes.

S’ils prenaient de telles mesures, les deux pays pourraient pratiquement doubler leurs arsenaux nucléaires stratégiques déployés.

La fin des processus d’échange de données, de vérification et de notification entraînerait une grande incertitude et une méfiance mutuelle. Cela pourrait à son tour conduire à un renforcement supplémentaire des capacités militaires des deux pays, déjà colossales.

Un avertissement inquiétant

L’aspect le plus préoccupant de cette évolution est sans doute le fait que le désarmement nucléaire est désormais moribond.

Aucune négociation sur le désarmement ou même sur la limitation des risques nucléaires n’est actuellement en cours. Aucune n’est prévue.

A minima, après l’expiration du traité de New Start cette semaine, la Russie et les États-Unis devraient convenir de respecter ses limites jusqu’à ce qu’ils négocient de nouvelles réductions.

Et cinquante-six ans après avoir pris, dans le cadre du Traité sur la non-prolifération des armes nucléaires (TNP), un engagement en faveur du désarmement, les deux puissances devraient œuvrer à la mise en place d’un accord entre l’ensemble des États dotés de l’arme nucléaire afin d’éliminer leurs arsenaux.

Mais la Russie, les États-Unis et les autres puissances nucléaires empruntent aujourd’hui la direction opposée.

Depuis son retour au pouvoir, Donald Trump a multiplié les actions – du bombardement de l’Iran à l’arrestation du dirigeant vénézuélien Nicolas Maduro – qui témoignent de son mépris pour le droit international et les traités. Elles confirment également sa volonté d’employer tous les leviers de puissance pour affirmer la suprématie américaine.

Vladimir Poutine, de son côté, a eu recours à un IRBM, le fameux Orechnik, contre l’Ukraine, multiplié les menaces de recours à l’arme nucléaire contre Kiev et l’Occident, et opté pour une approche sans précédent et extrêmement dangereuse vis-à-vis des centrales nucléaires ukrainiennes, autour desquelles les combats ont lieu régulièrement et qui fonctionnent désormais dans un environnement très dégradé, ce qui suscite des risques immenses.

Tout cela est de mauvais augure pour le désarmement nucléaire et, au-delà, pour la réduction de l’éventualité d’une guerre nucléaire.

The Conversation

Tilman Ruff est est affilié à l’Association internationale des médecins pour la prévention de la guerre nucléaire, à la Campagne internationale pour l’abolition des armes nucléaires, à l’Association médicale pour la prévention de la guerre, à Médecins pour l’environnement Australie et à l’Association australienne pour la santé publique.

ref. Expiration du traité New Start : vers une reprise de la course aux armements nucléaires ? – https://theconversation.com/expiration-du-traite-new-start-vers-une-reprise-de-la-course-aux-armements-nucleaires-274877

Dissonance patrimoniale, réparation mémorielle : la « Table de désorientation », un contre-monument décolonial à Nancy

Source: The Conversation – in French – By Gaëlle Crenn, Maîtresse de conférences en Sc. de l’Info-Com, Centre de Recherche sur les Médiations (CREM), Université de Lorraine

En novembre 2025, la Ville de Nancy dévoilait la *Table de désorientation*, un anti-monument qui interroge la mémoire coloniale face à la statue du sergent Blandan, place de Padoue. Youtube/capture d’écran.

À Nancy, en Meurthe-et-Moselle, a été dévoilée, le 6 novembre 2025, face à la statue du sergent Blandan, la Table de désorientation, œuvre de Dorothée-Myriam Kellou, qui, selon l’inscription visible sur le socle, « interroge le passé colonial de l’Algérie et de la France, évoque ses blessures et appelle à la réparation ». Par les conditions de sa genèse, par les caractéristiques de son implantation, mais aussi par la singularité de sa grammaire stylistique, la Table de désorientation inaugure une politique mémorielle originale.


Ce monument est le résultat d’un processus de patrimonialisation « par le bas », produit d’initiatives convergentes de divers acteurs locaux : un projet pédagogique au lycée Jeanne-d’Arc, lancé par le professeur Étienne Augris, touché par le mouvement Black Lives Matter ; l’histoire personnelle de la famille Kellou, dont le père, le réalisateur Malek Kellou, a découvert la statue durant son enfance à Boufarik (près de Blida en Algérie), puis, devenu résidant à Nancy (Meurthe-et-Moselle), l’y a redécouverte. Cette histoire trouve un écho dans la démarche des musées de la ville, qui souhaitent explorer les enjeux mémoriels liés à la colonisation.




À lire aussi :
Ce que les statues coloniales dans l’espace public racontent de la France


En 2022, l’exposition « Sur les traces du sergent Blandan », inaugure le programme « Récits décoloniaux » au musée des Beaux-Arts de Nancy. Le projet se concrétise ultimement avec une commande publique d’œuvre à la fille du réalisateur, Dorothée-Myriam Kellou. L’œuvre mêle « Histoire » et « histoire », politique coloniale et récit familial intime. Elle naît de la transmission d’une histoire traumatique d’abord tue, puis déliée, après un temps d’anamnèse, dans un geste de transmission filiale.

Installée à quelques mètres de la statue, l’œuvre est un miroir circulaire, dressé à la verticale, qui porte en inscription un texte poétique de l’autrice, débutant par une interpellation du sergent : « Qui es-tu ? » Le texte, inscrit en français et en arabe – les deux écritures se déployant en miroir l’une de l’autre, vise à interpeller le spectateur qui découvre en passant son reflet dans la surface miroitante.




À lire aussi :
Ce que les statues coloniales dans l’espace public racontent de la France


Un contre-monument dissonant

Le reflet perturbe la perception habituelle et permet de replacer le monument Blandan dans le périmètre de notre attention, invitant à la réflexion sur le sens que peut prendre aujourd’hui cet emblème de la statuaire figurative de l’époque coloniale.

Après son rapatriement forcé en 1963, suite à l’indépendance algérienne, et après un temps de purgatoire dans une caserne, la statue est réinstallée en 1990 sur le terre-plein d’un carrefour près de la caserne qui porte son nom. Elle est ensuite déplacée de quelques mètres et repositionnée, pour prendre place face aux nouveaux bâtiments d’ARTEM, un complexe universitaire novateur.

La présence imposante de la statue n’empêche cependant pas un relatif oubli de cette figure. C’est pourquoi,« devant la statue du sergent Blandan qui a perdu son sens historique pour la plupart des passants, mais qui exerce toujours son influx mémoriel, se dresse un appel en miroir » (texte du socle).

L’œuvre redonne visibilité au monument initial, mais en le recontextualisant, en ouvrant des « réinterprétations de l’histoire coloniale », en proposant des « contrepoints » au récit, plutôt que des répliques (discours de Dorothée-Myriam Kellou lors du dévoilement).

On peut soutenir que l’espace physique entre les monuments fait naître un nouvel espace discursif qui permet d’initier un dialogue sur les multiples significations de la statue. Ce dialogue se nourrit d’un jeu d’opposition : entre l’« Histoire » officielle et l’« histoire » familiale qu’elle vient percuter, entre les mémoires des exploits militaires et les mémoires des descendants de familles algériennes immigrées. Le contre-monument institue un espace de discussion sur le sens des héritages coloniaux ouverts à des interprétations divergentes, voire contradictoires.L’ espace inter-monumental produit de plus une mise en tension de la géographie mémorielle de la ville. Il résonne avec l’inauguration récente d’une esplanade du nom de François Borella, membre du PSU (Parti socialiste unifié), victime de l’Organisation de l’armée secrète (OAS), geste qui veut affirmer l’attachement de la ville aux valeurs républicaines.

Avec ce contre-monument, « une trace ajoutée à une trace » (carton d’invitation), s’ouvre « un espace de relation et de réflexion critique sur les conséquences contemporaines de la colonisation » (ibid.).

Par ce geste, la Ville de Nancy déploie ce que l’on peut appeler une politique de la dissonance patrimoniale. Alors que le patrimoine est habituellement pensé comme le résultat d’un consensus sur les legs du passé que l’on souhaite conserver, le terme prend ici une signification plus complexe, qui incorpore les dissensions et les disputes qui le colorent.

En phase avec les nouvelles expressions citoyennes de revendication mémorielle, le rôle de la statuaire publique s’en trouve modifié : moins au service de l’imposition et de l’affirmation de valeurs que de leur mise en débat et de leur diffraction dans l’espace public.

Un anti-monument de réparation mémorielle

Au-delà de son rôle de contre-monument, on peut également considérer la Table comme un anti-monument, au sens que l’artiste Jochen Gerz, ainsi que ses commentateurs et commentatrices ont pu donner à ce terme.

Selon Gerz, un anti-monument est une proposition qui, par sa grammaire plastique et stylistique, remet en cause les fonctions habituellement remplies par les monuments – affirmer des valeurs, représenter (des héros, des victimes ou des allégories) –, au profit d’une ouverture à la réflexion et à la multiplication des significations possibles. La Table de désorientation possède cette forme d’humilité et d’ouverture aux interprétations favorisant une mise en suspens des valeurs. Comme le dit encore Mathieu Klein dans son discours, l’œuvre « ne nous impose rien, elle invite à penser ».

Le trait le plus marquant de la Table est la modestie de sa taille. Dressée et légèrement inclinée vers l’arrière, elle mesure 1,59 mètre – ce qui était très exactement la taille du sergent. Sa rondeur et sa petitesse sont en tant que telles une remise en question de la monumentalité de la statue voisine, qui culmine sur son énorme socle à presque 4 mètres de hauteur. À l’impression de lourdeur et d’opacité donnée par l’ensemble massif de pierre et de bronze, qui héroïse le combattant colonial, encapsule les valeurs guerrières et rappelle la politique de conquête impérialiste, s’oppose la clarté et la légèreté de la Table. Ses miroitements conduisent les passant·es à se questionner, sans préjuger de leurs interprétations : elle renvoie les sujets à leur propre réflexion (aux sens propre et figuré).

Alors que l’attitude du sergent, les mentions sur le socle, ses bas-reliefs de bronze et sa plaque commémorative concourent tous à affirmer la valorisation du guerrier héroïque mort pour la colonisation, la Table invite à mettre en question ces valeurs et à rouvrir un questionnement sur celles que nous (l’ensemble de la communauté) souhaitons voir célébrées aujourd’hui dans l’espace public. Ainsi, l’œuvre contribue à la mise en débat des héritages de la colonisation et à la réflexion sur la place des descendants et des minorités. À l’égard des anciennes voix silenciées, elle opère une forme de réparation mémorielle.

Quelle orientation des publics ?

Une difficulté cependant peut naître dans l’appropriation du nouveau monument par le public. En effet, le texte gravé sur le miroir, avec son lettrage subtil, s’avère très difficile à déchiffrer. Lors de la cérémonie de dévoilement, les premiers spectateurs et spectatrices ne ménagent pourtant pas leurs efforts, se rapprochant au maximum de la surface miroitante, reculant et variant les angles de vue. La mairie a prévu un programme de médiations pour accompagner la découverte de la nouvelle œuvre publique dans son contexte. Celles-ci s’avèreront sans doute utiles pour que le public ne souffre pas d’une « désorientation » excessive.

Peut-être même l’adjonction d’un panneau permanent sera-t-elle à envisager afin de lui livrer des appuis interprétatifs pour faire sens de l’œuvre et de l’espace intermonumental qu’elle génère. Cela serait sans doute profitable pour qu’il saisisse toute la richesse de ce nouveau monument, à la fois populaire par sa genèse, dissonant dans son principe, contre- et anti-monumental dans ses effets.

The Conversation

Gaëlle Crenn a été membre de la liste des Verts lors des élections municipales de Nancy en 2020.

ref. Dissonance patrimoniale, réparation mémorielle : la « Table de désorientation », un contre-monument décolonial à Nancy – https://theconversation.com/dissonance-patrimoniale-reparation-memorielle-la-table-de-desorientation-un-contre-monument-decolonial-a-nancy-273289

Women have been mapping the world for centuries – and now they’re speaking up for the people left out of those maps

Source: The Conversation – USA – By Melinda Laituri, Professor Emeritus of Ecosystem Science and Sustainability, Colorado State University

Gladys West, right, developed the mathematical models behind GPS. U.S. Navy/Wikimedia Commons

Although women have always been part of the mapping landscape, their contributions to cartography have long been overlooked.

Mapmaking has traditionally featured men, from Mercator’s projection of the world in the 1500s to land surveyors such as George Washington and Thomas Jefferson mapping property in the 1700s, to Roger Tomlinson’s development of geographic information systems in the 1960s. Cartography and related geospatial technologies fields continue to be male-dominated.

But as a geographer and specialist in geographic information systems, I have observed how opportunities for women as mapmakers have changed over the past five decades. The advent of technologies such as geographic information systems has increased education, employment and research opportunities for women, making mapmaking more accessible.

The female landscape

Women have long been essential to how people see and understand the world. The concept of Mother Earth or Mother Nature as the center of the universe and source of all life spans Indigenous cultures around the globe.

In the 20th century, the scientific community and environmental activists adopted the term Gaia – the Greek goddess personifying the Earth, the mother of all deities – to reflect the notion of the Earth as a living system. Gaia is represented as female and understood as a guiding force in maintaining the atmosphere, oceans and climate.

The representation of land as woman was reshaped with the rise of nationalism when the terms “fatherland” and “motherland”took on distinct meanings. Fatherland implied heritage and tradition, while motherland suggests place of birth and sense of belonging. These gendered constructs appear across cultures.

Scan of map depicting Europe in the shape of a woman in regalia
Europa Regina (1570).
Sebastian Münster/Wikimedia Commons

Another aspect of the gendered nature of cartography is the way maps used female forms to portray features. Anthropomorphic maps from the 16th through 19th centuries demonstrate how cartographers used female figures to depict European countries. For example, cartographer Johannes Putsch’s “Europa Regina,” originally drawn in 1537, set the template for later maps in which nations are depicted as women in various poses and different states of dress – or undress – though they don’t actually correspond closely to the actual shapes of real landforms.

These maps reflect shifting cultural and political meanings attached to territory and power. The female landscape, or woman as map, is often used to portray countries as active, aggressive or supine, depending upon the status of the nation state in relation to war and peace and the stereotypes of a country.

Technology and women’s roles in mapmaking

While the technical contributions women have made to mapping span the entire history of cartography, they are difficult to identify and document. But a closer look reveals the variety of roles women have played in mapmaking.

One of the earliest known examples of a map made by a woman dates to the fourth century, when the sister of the prime minister of the Han Dynasty in China embroidered a map on silk.

During the 15th and 16th centuries, women were employed to color maps and contribute artistic details to borders. Many women cartographers used only a first initial and last name, obscuring their gender and making their work difficult to trace.

The 18th century brought the advent of printing, which opened new avenues for women to participate as engravers of copper plates, publishers of maps, and globemakers.

By the 19th century, cartography became part of formal education for women in North America, where the intersection of embroidery and geography produced fabric globes and linen maps. This was later followed by drawing and coloring maps as access to paper and pencils improved.

World War II ushered in a new era of opportunity for women in the U.S., as they were recruited to fill critical roles in cartographic development while men were sent to war. Known as Millie the Mapper or the Military Mapping Maidens, women produced topographic maps, interpreted aerial photography and helped advance photogrammetry, the use of photos to make 3D models of the Earth’s topography.

Black and white photograph of women surrounding a gridded table, one person pushing pieces across the surfaces as others look on in a balcony
The ‘Military Mapping Maidens’ created tens of thousands of maps during World War II.
Alfred T Palmer/Office of War Information via Library of Congress

Building on the expanding role of women in cartography, in the 1950s Evelyn Pruitt of the U.S. Office of Naval Research coined the term remote sensing, referring to the use of satellite imagery to observe, measure and map the Earth. In the same period, mathematician Gladys West developed the mathematical models for global positioning systems, known as GPS.

Women creating the maps

Women have also overseen the creation of maps in a number of ways.

Indigenous matriarchal societies expressed spatial information through different forms of cartography. These includes songs, dances and rituals that identified important communal resources such as springs, sacred groves and migration paths.

The development of European cartography was driven by the Age of Exploration from the 15th to 17th centuries and entrepreneurial activities associated with reproducing and selling maps. Women often assumed these roles after the deaths of their husbands, ensuring the continuation of family businesses.

Not only kings but queens also directed what maps were needed. For example, Queen Elizabeth I commissioned the 1579 Atlas of England and Wales, one of the first national atlases. It rendered a map of the entire country, accessible from home or a reading room.

Women setting the direction of maps

While early maps positioned women primarily as symbolic bodies to project political meaning or as supporters of larger mapping enterprises, contemporary cartography reveals a different dynamic between gender and maps: There is a lack of geographic data on issues affecting women, including health, safety and planning for the future.

For example, women are disproportionately affected by disasters, including through a heightened risk of experiencing gender-based violence. Geographic analyses reveal a persistent gender gap in datasets, which often lack information on women’s health and daily needs, reproductive services or child care centers.

Studies have shown that the development of geospatial technologies and open mapping platforms are dominated by men. In situations such as disasters, having a diversity of perspectives in mapmaking is essential to serving the needs of the community.

Millions of people are missing from maps.

Creating maps that specifically reflect women’s needs is foundational for women to fully participate in 21st-century mapmaking. In the past decade, several programs and organizations have been working to reflect women’s contributions to cartography and demonstrate how collective action can make a difference.

For example, African Women in GIS hosts workshops to elevate women’s perspectives and mapping needs, putting mobile mapping technology in women’s hands. GeoChicas and YouthMappers’ Let Girls Map empower women to make maps through training and education that address the digital divide. Women in GIS and Women+ in Geospatial build community in mapmaking through professional networks. Humanitarian OpenStreetMap Team amplifies women’s voices to inform geospatial approaches to mapmaking and empowering women’s mapmaking contributions.

Never have there been more opportunities for women to participate in mapmaking, and never has women’s role in mapmaking been as important to address the intractable issues societies face around the world.

The Conversation

Melinda Laituri does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Women have been mapping the world for centuries – and now they’re speaking up for the people left out of those maps – https://theconversation.com/women-have-been-mapping-the-world-for-centuries-and-now-theyre-speaking-up-for-the-people-left-out-of-those-maps-272757