Quand la galaxie trumpiste accuse l’Europe de pratiquer la censure

Source: The Conversation – France in French (3) – By Stefania Di Stefano, Chercheuse postdoctorale au sein de la Chaire sur la modération des contenus, Conservatoire national des arts et métiers (CNAM)

Alors même que, aux États-Unis, la liberté d’expression, la liberté des médias ou encore la liberté académique font l’objet d’attaques sans précédent de la part de l’administration Trump, Washington prétend que c’est l’Union européenne qui serait un dangereux censeur. En cause : les mesures visant à modérer les contenus haineux sur les réseaux sociaux.


Comment déterminer la maturité d’une démocratie ? Comment reconnaître qu’elle sombre progressivement vers un régime autoritaire ?

Le début du second mandat présidentiel de Donald Trump incarne sans aucun doute un tel glissement, avec fracas et sans souci pour l’image de bienséance qu’une personne exerçant une telle fonction devrait renvoyer. Depuis le retour du milliardaire new-yorkais à la Maison Blanche le 20 janvier, les attaques contre les libertés sur le territoire états-unien sont nombreuses et variées.

Les universités ont été l’une des premières cibles du président. Gel des fonds fédéraux, instrumentalisation du système d’accréditation universitaire pour influencer les formations, révocation des visas pour les étudiants étrangers… Autant de mesures attaquant frontalement la liberté académique. Des mesures visant surtout à remodeler l’éducation supérieure selon une idéologie définie par le régime trumpiste et restreignant la libre pensée.

La liberté de la presse n’est pas épargnée par la nouvelle version du « free speech » portée par le président. Dernière victime à avoir été « fired » : Stephen Colbert, présentateur du populaire « Late Show » sur CBS. Cette émission satirique s’attaquait régulièrement et sans ménagement à Donald Trump. Elle n’a plus sa place dans les programmes télévisés. Pour dénoncer le silence s’installant progressivement dans les médias, la série humoristique South Park a sorti un nouvel épisode caricaturant le président, laissant cependant un sentiment amer aux spectateurs.




À lire aussi :
Donald Trump à l’assaut des médias publics aux États-Unis


Pourtant, et dans une sorte d’inversement psychologique, Washington accuse l’Union européenne (UE) de mettre en œuvre, sur le Vieux Continent, une censure massive.

Les textes européens dans le viseur de l’administration Trump

Si l’UE est critiquée, c’est en réalité pour les valeurs qu’elle représente et pour les libertés qu’elle protège. En effet, les États-Unis dépeignent l’encadrement juridique des plateformes numériques à l’œuvre au sein de l’UE comme la manifestation d’une censure quasi orwelienne.

Se fondant sur un rapport à charge, la Commission judiciaire de la Chambre des représentants a tenu une audition sur « la menace européenne sur la liberté d’expression et l’innovation américaines », affirmant notamment que le Règlement sur les services numériques (Digital Services Act, DSA) porte atteinte au droit des Américains de s’exprimer librement en ligne aux États-Unis.

Pour rétablir les faits et la correcte interprétation du droit européen, une coalition d’universitaires européens et américains a transmis une lettre expliquant les principales applications du DSA.

Se présentant en « défenseur de la démocratie », l’administation Trump utiliserait même la suspension des enquêtes ouvertes à l’encontre des grandes entreprises technologiques américaines comme monnaie d’échange dans les négociations douanières avec la Commission européenne. Les plateformes ont en effet comparé les sanctions imposées pour violation des dispositions européennes à des « droits de douane », s’appuyant aussi sur la (fausse) affirmation que le cadre juridique de l’Union cible spécifiquement les entreprises états-uniennes.

Trump a ouvertement pris la défense de ces « amazing Tech Companies », menaçant d’imposer des droits de douane supplémentaires aux pays ciblant ces entreprises avec leurs législations.

Message posté par Donald Trump sur son réseau Truth Social le 25 août 2025.

En encadrant l’activité des plateformes numériques, notamment par le biais du fameux règlement général sur la protection des données (RGPD) ou du DSA, l’Europe établit-elle un régime de censure ?

Afin de permettre l’expression de toutes et tous, le droit à la liberté d’expression doit être encadré par la loi. Les contours de cette liberté sont délimités par les droits fondamentaux des tiers et comprennent notamment la protection de la vie privée, la non-discrimination, ou encore la dignité humaine. Ce sont justement ces limites que rappelle le DSA. Le texte vise à s’assurer que les contenus circulant sur les plateformes respectent ces principes cardinaux. Et si la désinformation ou les discours haineux sont des problèmes préoccupants, la critique du pouvoir reste, en Europe, protégée par la liberté d’expression, laquelle est garantie par le DSA.

La modération délaissée par les grandes plateformes

Cet encadrement déplaît fortement au régime trumpiste ainsi qu’à certaines grandes plateformes numériques américaines. Celles-ci estimaient pourtant, il y a quelques années, que des réglementations étaient nécessaires pour un système efficace de gouvernance des contenus en ligne. En suivant désormais la ligne trumpiste, les plateformes ont tendance à fausser délibérément le concept de censure en l’assimilant à celui de modération des contenus. Cette dernière vise toutefois à s’assurer que les contenus circulant sur les plateformes sont conformes aux conditions générales du service mais, aussi, aux lois et droits fondamentaux protégés par les textes fondateurs.

Mais ce n’est pas seulement d’un point de vue théorique que la modération des contenus, mise en place par le DSA, est attaquée. Cela passe aussi par les nombreuses baisses budgétaires au sein des plateformes, entraînant une réduction des ressources humaines consacrées à la sécurité en ligne. Ces mesures sont par ailleurs couplées à une « simplification » des politiques de modération des contenus, qui s’affranchissent des protections sur des sujets considérés comme « woke », notamment la protection de la communauté LGBTQIA+ ou la lutte contre la haine en ligne.

Dernière annonce en date ? Meta déclarant, un vendredi au cœur de l’été, la suspension de ses publicités ciblées à caractère politique. Sans même évoquer le moment de l’annonce, comment interpréter un tel signal ? L’initiative concerne les publicités à caractère politique, électoral ou traitant de « questions sociales ». Raison invoquée : le règlement européen relatif à la transparence et au ciblage de la publicité à caractère politique, qui rendrait le ciblage des usagers trop complexe.

Pourtant, une étude conduite par l’organisation AI Forensics, avant l’entrée en application de ce règlement, avait démontré que Meta laissait la propagande pro-russe envahir les publicités politiques ciblées, avec un système de détection des contenus complètement défaillant.

L’Union européenne, modèle d’anti-trumpisme ?

Certes, l’Europe n’est pas parfaite. Certes, l’Europe vit aussi d’importantes dérives identitaires. Mais l’Europe tente, dans un monde de plus en plus complexe, de garantir à toutes et tous la possibilité de s’exprimer en ligne.

Aujourd’hui, les victimes des attaques visant la liberté académique et la liberté de la presse ne se trouvent pas en Europe, mais aux États-Unis. Dans ces conditions, l’Europe doit porter encore plus haut et encore plus fort ses valeurs. Elle doit offrir un modèle dans lequel les libertés sont protégées par la loi et les institutions, et non par la volonté d’un homme.

The Conversation

Suzanne Vergnolle a reçu des financements de la région Île-de-France.

Stefania Di Stefano ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quand la galaxie trumpiste accuse l’Europe de pratiquer la censure – https://theconversation.com/quand-la-galaxie-trumpiste-accuse-leurope-de-pratiquer-la-censure-263855

Transition verte : peut-on vraiment comparer les dépendances aux métaux rares et au pétrole ?

Source: The Conversation – France (in French) – By Lucas Miailhes, Doctorant en Science Politique/Relations Internationales, Institut catholique de Lille (ICL)

Et si la transition énergétique n’était pas le simple glissement d’une dépendance au pétrole vers une dépendance aux métaux critiques ? Les discours politiques empruntent souvent cette analogie séduisante, mais la réalité est plus complexe. Le risque serait que cette comparaison donne un mauvais cadrage aux enjeux de la transition énergétique.


Alors que la transition énergétique accélère en Europe, une idée semble s’être imposée dans le débat public. Notre dépendance aux énergies fossiles aurait glissé vers une nouvelle dépendance, cette fois aux matières premières critiques, comme le lithium ou les terres rares.

Il n’est pas rare que cette comparaison soit faite dans les débats télévisés, mais également à l’occasion de déclarations politiques, tant au niveau national qu’international. Par exemple, lors d’un discours de 2023 traitant de la relation Chine-Union européenne (UE), la présidente de la Commission européenne Ursula von der Leyen traçait un parallèle clair entre la dépendance de l’UE aux énergies fossiles et sa dépendance naissante aux matériaux critiques :

« Les transitions […] seront permises par les matières premières. Le lithium et les terres rares sont déjà en train de remplacer le gaz et le pétrole au cœur de notre économie. […] Nous devons éviter de tomber dans la même dépendance que pour le pétrole et le gaz. »

Si cette analogie alerte, à juste titre, sur la vulnérabilité europénne des approvisionnements en métaux – pour une large part envers la Chine, elle repose sur une vision simpliste et trompeuse des chaînes d’approvisionnement mondiales, de la nature physique de ces ressources et des rapports de force géoéconomiques.

Elle participe à véhiculer de fausses croyances non seulement sur la nature du commerce international de ces matières premières critiques, mais aussi, plus globalement, sur la nature de la transition énergétique.

Peut-on vraiment comparer le lithium au gaz russe ? Le cobalt au baril de Brent ? La réponse est : non. Pour plusieurs raisons.

Matières consommables contre recyclables

À la différence du pétrole ou du gaz, qui sont des consommables détruits par leur usage, les métaux ne disparaissent pas une fois utilisés. Grâce à leurs propriétés physiques, ils peuvent être recyclés indéfiniment sans perte de qualité, contrairement à des matériaux comme le plastique, dont la recyclabilité est limitée.

Cette caractéristique leur permet d’être réinjectés dans des boucles de réutilisation au sein d’une économie circulaire. Si le recyclage des métaux employés dans les technologies bas carbone, comme les batteries lithium-ion, reste aujourd’hui marginal, c’est moins en raison de verrous techniques que du faible volume de produits en fin de vie actuellement disponible.

Mais à mesure que les premiers équipements arriveront en fin de cycle, le recyclage pourra devenir une source majeure d’approvisionnement en métaux dits « secondaires ».

L’Agence internationale de l’énergie (AIE) estime que le recyclage pourrait réduire de 25 à 40 % les besoins en nouvelles extractions. Selon la fédération européenne Transport & Environment, en intégrant les rebuts de production, le recyclage pourrait couvrir jusqu’à 40 % de la demande européenne d’ici 2030 – et près des deux tiers à l’horizon 2040.

Contrairement à ce qu’ont été le pétrole et le gaz pour l’UE, la dépendance actuelle du continent européen pourrait donc bien se réduire rapidement, pour peu que l’Europe investisse dans ce maillon de souveraineté.




À lire aussi :
Les « mines urbaines », ou les ressources minières insoupçonnées de nos déchets électroniques


Des enjeux de dépendance qui se posent différemment

La question de la sécurité d’approvisionnement en métaux ne se pose pas dans les mêmes termes que celle du gaz ou du pétrole. Alors que les hydrocarbures concernent l’ensemble des consommateurs de façon directe (notamment afin de fournir du carburant pour les transports ou une source d’énergie pour le chauffage), les métaux ne deviennent stratégiques que dans la mesure où un pays développe des capacités industrielles qui en dépendent. Autrement dit, s’ils sont nécessaires à une production nationale d’énergie bas carbone.

Cette distinction est essentielle, car elle permet de hiérarchiser les vulnérabilités : on ne s’inquiète pas de la dépendance en matériaux pour lesquels il n’existe pas de tissu industriel local.

Par exemple, l’industrie de fabrication de panneaux solaires est au point mort en France. Pour l’heure, l’approvisionnement en métaux pour ces derniers n’est pas un sujet prioritaire de sécurité d’approvisionnement.

À l’inverse, les métaux indispensables à la production de batteries pour véhicules électriques – comme le lithium, le nickel, le cobalt, le manganèse ou le graphite – sont devenus des enjeux majeurs pour la France et pour l’Europe, en raison du déploiement local massif de projets de gigafactories.

Carrière de kaolin d’Échassières (Allier), actuellement exploitée par la société Imerys, également à l’initiative du projet de mine de lithum.
TomTooM03/Wikimedia Commonns, CC BY

C’est précisément cette logique industrielle qui a été invoquée pour justifier le projet d’ouverture d’une mine de lithium à Échassières, dans l’Allier, afin d’alimenter les usines de batteries du nord de la France.




À lire aussi :
Mine de lithium dans l’Allier : un débat déjà tranché ?


Une dépendance chinoise à relativiser

En dépit de sa position dominante sur le marché de nombreux métaux critiques, la Chine ne peut pas « arsenaliser » (c’est-à-dire, instrumentaliser à des fins géopolitiques) aussi facilement la dépendance aux métaux que la Russie a pu le faire avec le gaz.

En effet, les chaînes de valeur des matières premières critiques (lithium, terres rares, etc.) sont beaucoup plus fragmentées et capables de se réorganiser. Certes, Pékin détient une position dominante dans l’extraction des terres rares et dans le raffinage du lithium, mais sa capacité à s’en servir comme levier de coercition est entravée par plusieurs facteurs :

Bref, à la différence du gaz russe – centralisé, peu substituable à court terme et distribué par des infrastructures fixes –, les métaux s’échangent sur des marchés mondiaux plus diversifiés, flexibles et adaptables. Ils sont donc moins facilement « arsenalisables ».




À lire aussi :
Terres rares : Ces nouveaux venus qui entendent concurrencer la Chine et les États-Unis


Et puis, et c’est probablement ce qui révèle une lecture erronée des rapports de force géoéconomiques, les marchés du lithium et des terres rares sont beaucoup plus petits que ceux du pétrole et du gaz, tant en valeur qu’en volume. En 2024, le marché mondial des hydrocarbures pesait près de 6 000 milliards de dollars, contre seulement environ 28 milliards pour le lithium et de 4 milliards à 12 milliards pour les terres rares.

Depuis la fin des années 2010, l’Agence internationale de l’énergie alerte régulièrement sur l’explosion à venir de la demande pour ces matériaux, portée par l’électrification des usages. Pourtant, même en cumulant leurs pics de production respectifs, les terres rares et le lithium, même s’ils sont centraux pour la transition énergétique, ne représentent qu’une part infime du marché pétrogazier mondial.

Ne pas confondre transition énergétique et accumulation de sources d’énergie

L’idée même de transition énergétique des énergies fossiles vers les métaux tend à dissimuler une réalité bien plus prosaïque : celle de l’accumulation des sources d’énergie plutôt que de leur substitution.

Comme le théorise l’historien Jean-Baptiste Fressoz, l’histoire énergétique ne connaît pas de véritables ruptures où une énergie en remplacerait totalement une autre. Au contraire, les transitions s’effectuent par empilement : chaque nouvelle source vient s’ajouter aux précédentes, sans les faire disparaître. Cette dynamique remet en cause les récits optimistes qui laissent penser que les énergies fossiles seraient bientôt reléguées au passé.

Malgré les scénarios prospectifs et les engagements des grandes économies à atteindre la neutralité carbone, il est probable que l’usage du pétrole et du gaz se maintiendra dans de nombreux secteurs. Les technologies bas carbone ne remplaceront pas tous les usages permis par les hydrocarbures, en particulier dans les domaines où ils restent difficilement substituables, notamment dans l’industrie : il reste difficile de produire de l’acier vert.

Autrement dit, loin d’acter la fin des fossiles de façon nette et précise, la transition énergétique risque de passer par une phase de coexistence prolongée.

En définitive, l’idée d’un transfert de dépendance du pétrole vers les métaux ne résiste pas à l’analyse. Ni leurs propriétés physiques, ni la structure des marchés, ni la géopolitique de leur approvisionnement ne permettent de calquer les logiques de la rente fossile sur celles des matières premières critiques.

Penser la transition énergétique à travers le prisme d’une substitution binaire masque la complexité des interdépendances industrielles et pourrait conduire à de fausses priorités stratégiques. Repenser la dépendance, ce n’est donc pas rejouer la guerre du gaz avec de nouveaux matériaux, mais comprendre les spécificités des chaînes de valeur des technologies bas carbone – et concevoir des réponses politiques à la hauteur de ces réalités.

The Conversation

Lucas Miailhes ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Transition verte : peut-on vraiment comparer les dépendances aux métaux rares et au pétrole ? – https://theconversation.com/transition-verte-peut-on-vraiment-comparer-les-dependances-aux-metaux-rares-et-au-petrole-262752

« Bloquons tout » est-il vraiment la saison 2 des Gilets jaunes ?

Source: The Conversation – France in French (3) – By François Buton, Directeur de recherche au CNRS, ENS de Lyon

Entre échos des luttes récentes et crispations politiques persistantes, « Bloquons tout » révèle les fragilités d’un système représentatif confronté à des colères sociales multiples.


Lancé en juillet, le « mouvement du 10 septembre » ou « Bloquons tout » est l’objet de toutes les attentions de la part de la société, du gouvernement, de la classe politique, des médias, des renseignements territoriaux. Plusieurs éléments de ce mouvement font à l’évidence écho avec celui des Gilets jaunes, survenu en novembre 2018. Il s’agit d’une mobilisation par en bas, lancée par différents groupes déjà organisés mais amplifiée par les réseaux sociaux (surtout Telegram), sans leadership mais structurée par des sites internet (Indignons-nous et Les essentiels qui témoignent d’emblée d’une forte hétérogénéité entre des contestataires plutôt souverainistes et défenseurs d’une France chrétienne et d’autres se réclamant de la gauche radicale.

L’opposition au projet de budget

Si la mobilisation présente des revendications nombreuses, plus ou moins élaborées, elle est à première vue motivée par le pouvoir d’achat et la dénonciation des inégalités : l’opposition au projet de budget du Premier ministre François Bayrou, dénoncé pour faire payer le fardeau de la diminution du déficit (40 milliards d’euros d’économie) aux travailleurs, aux chômeurs, aux salariés, aux précaires, aux malades, fait écho au sentiment d’injustice des Gilets jaunes à l’annonce d’une nouvelle taxe sur le carburant. Le projet de loi de finances est critiqué par l’ensemble des forces politiques opposées au gouvernement, et semble mal reçu par la population, qui soutient le mouvement à venir, si l’on en croît une enquête par sondage réalisée les 20 et 21 août (Toluna Harris Interactive pour RTL) et abondamment citée.

Ainsi, 59 % des Françaises et des Français soutiennent l’objectif de réduction des dépenses publiques, mais 63 % soutiennent le mouvement (70 % se disent favorables à des manifestations, 58 % à des blocages), 75 % s’opposant à la suppression de 2 jours fériés et 71 % se disant favorables à une « contribution de solidarité payée par les Français les plus aisés ». Depuis plusieurs semaines, l’organisation d’assemblées locales, la production de carte des rassemblements à venir, la variété des modes d’action envisagés (de la désobéissance civile au blocage de lieux de production) rappellent aussi la mobilisation de 2018.

Les Gilets jaunes, et autres luttes

La comparaison avec les Gilets jaunes fait donc sens, et ne manque pas d’être faite dans les commentaires : les Gilets jaunes sont dans « toutes les têtes », comme modèles positifs ou négatifs, comme motifs d’espoir ou d’inquiétude. Pour nous qui avons longtemps travaillé sur ce mouvement, le rapprochement est pertinent mais délicat à manier. La comparaison terme à terme ne doit pas faire oublier l’historicité des luttes : les Gilets jaunes sont un précédent, les protestataires potentiels du 10 septembre ont pu y participer, acquérir des savoir-faire protestataires, et tirer des enseignements quant à l’efficacité des actions du mouvement, de ses limites ou impasses, de sa durée ou encore de la répression subie.

Mais l’histoire des luttes est riche d’autres contestations, antérieures (Nuit debout), et surtout postérieures à 2018 : manifestations monstres de l’opposition à la réforme des retraites, manifestations des agriculteurs (certains en « bonnets jaunes »), occupations contre des projets autoroutiers (A 69) ou agricoles (Sainte-Soline), grèves diverses, mouvement d’opposition au pass sanitaire, ou encore, pétition elle aussi monstre (plus de 2 millions de signataires) contre la loi Duplomb en juillet dernier. Il est donc nécessaire de faire la part des apprentissages respectifs de toutes ces mobilisations dans ce qui se prépare pour le 10 septembre en différents points du territoire.

La comparaison des « profils » des Gilets jaunes et des « bloqueurs » potentiels n’est pas plus facile à mener, non seulement parce qu’on ne connaît par définition pas encore les bloqueurs, mais au mieux une partie de celles et ceux qui se mobilisent sur les réseaux sociaux et qui acceptent de répondre à des questionnaires, ou celles et ceux qui se réunissent dans des assemblées, mais aussi parce qu’il reste à définir qui a été Gilet jaune avant d’en présenter les profils.

Les Gilets sont là, mais pas tous

Dans nos propres enquêtes, nous avons par exemple choisi de nous intéresser à des « super Gilets », des primo-contestataires le plus souvent, engagés intensément (parfois à corps perdus), et longtemps (certaines et certains le sont encore !) dans un groupe local. Ces Gilets ne sont pas représentatifs de l’ensemble du mouvement, où d’autres étaient des militants plus expérimentés, et dont la grande majorité n’a participé qu’à quelques actes ou assemblées : des enquêtes estiment à 3 millions le nombre de citoyennes et de citoyens ayant participé à au moins une action gilet jaune en 2018-2019.

Quand nous les contactons pour leur demander ce qu’ils pensent de « Bloquons tout », ce qu’ils font et envisagent de faire, les réponses sont très variables. Certains, parés de leur gilet, ont investi les assemblées locales ou les boucles Telegram comme ils l’ont fait dans la plupart des contestations depuis 7 ans ; d’autres au contraire suivent de près ou de loin, attendant de voir, écœurés par la supposée « récupération » politique, sceptiques quant aux chances de succès d’une contestation de plus dans la rue, ou refroidis par le manque de soutien de la population et la dureté de la répression, y compris judiciaire, lors du mouvement de 2018 (« que les autres se mouillent »).

Bien des attitudes sont possibles, que nous pouvons expliquer finement dans chaque cas, mais dont nous savons qu’ils et elles ne représentent pas tous « les » Gilets jaunes. Une chose est sûre : des Gilets jaunes sont là, et d’autres sont prêts à participer.

Mais une différence majeure avec les Gilets jaunes, précisément en raison de leur antériorité, réside dans l’hyper attention médiatique à l’œuvre depuis quelques semaines pour le mouvement « Bloquons tout ». Tout en oubliant de mentionner la défiance immense des contestataires à leur égard (gageons que le thème reviendra avec les premières manifestations), les médias couvrent massivement la préparation, en lui posant les questions habituelles : qui sont les bloqueurs, qui peut incarner le mouvement voire en être les leaders, qui se « cache derrière », que veulent-ils, à quoi s’attendre, voire que craindre ? Or, l’hyper attention médiatique a sans doute eu pour effet de bousculer les responsables politiques et syndicaux de tous bords, quand ils et elles n’avaient pas pris les devants.

Au-delà de la « récupération »

Une autre différence majeure avec 2018, où les partis et les syndicats avaient ignoré voire condamné le 17 novembre, réside en effet dans la précocité de la politisation de la contestation qui vient. Le terme, qui a plusieurs sens, ne désigne pas pour nous la « récupération » du mouvement par telle ou telle force politique – expression largement employée, mais qui relève d’une catégorie politique stigmatisante. Il renvoie à l’idée que l’ensemble des forces du champ politique s’accordent, au-delà de leurs différences, pour redéfinir le mouvement et ses revendications comme politique, c’est-à-dire comme relevant de « la » démocratie politique (les élus et les partis) et de « la » démocratie social (les syndicats). D’un côté, les confédérations appellent à une autre « mobilisation massive » le 18 septembre, amplifiant les grèves annoncées ça et là ; de l’autre, depuis la « rentrée politique » des universités d’été, mi-août, les responsables de partis se prononcent en soutien ou contre le mouvement et discutent de la légitimité de ses revendications et de ses modes d’action.

Le coup politique le plus spectaculaire revient évidemment au premier ministre François Bayrou qui annonce le 25 août engager la responsabilité de son gouvernement en demandant un vote de confiance à l’Assemblée le 8 septembre sur son projet contesté de loi de finances. Cette décision spectaculaire permet en effet à l’agenda proprement politique de repasser au premier plan : éloges ou critiques du geste (un retour à la démocratie parlementaire pour Jean-Luc Mélenchon), consultations diverses et variées, prises de position sur tel ou tel point du projet (notamment la suppression de deux jours fériés). Le rejet de la confiance, qui est acquis, va faire entrer le pays dans une crise politique voire institutionnelle susceptible d’occuper l’agenda médiatique au détriment de la « crise » sociale .

Tout se passe donc aujourd’hui comme si les élus reprenaient la main au détriment des citoyennes et citoyens ordinaires. La dernière petite phrase de François Hollande (« Je ne peux pas m’associer à quelque chose que je ne maîtrise pas » révèle à cet égard une forme d’inconscient de la classe politique, qui dit « entendre l’exaspération », mais n’entend s’engager que dans ce qu’elle maîtrise, à savoir les jeux politiques et institutionnels, et ne donner la parole au peuple que sous la forme du suffrage électoral.

Les mouvements sociaux comme forces de proposition

Ce faisant, les élus font preuve d’un aveuglement qui ne laisse pas d’étonner. Une autre leçon du mouvement des Gilets jaunes, en effet, c’est qu’il a profondément transformé ses primo-contestataires sinon en militants, du moins en citoyens ayant le sentiment d’être enfin dignes d’être entendus, capables de débattre et de se prononcer sur les sujets politiques et même institutionnels (le RIC) qui engagent le pays, et refusant de se contenter de glisser un bulletin de vote dans l’urne tous les cinq ans.

Ce qu’on lit aujourd’hui sur les boucles Telegram ou ce qu’on entend dans les premières assemblées locales atteste la même résolution à ne pas se faire infantiliser et renvoyer à son labeur quotidien en vertu d’un défaut supposé de « titres à parler » (Jacques Rancière). La défiance à l’égard des élus nationaux, forte en 2018, l’est encore plus aujourd’hui : les fameuses « cotes de popularité », pour autant qu’elles aient la moindre signification, indiquent que les opposants les plus « populaires » ont la confiance d’au mieux un citoyen sur trois.

On peut douter que les petits jeux d’une crise institutionnelle et politique fascinent les Français, puisque les gouvernants ne les écoutent ni quand ils manifestent massivement (contre les retraites), ni quand ils votent contre une majorité (en 2024, qui n’est pas sans rappeler le référendum de 2005), et répondent par des conférences citoyennes ou grands débats dont ils ignorent les résultats et par une répression de plus en plus violente.

Dans ce contexte, « Bloquer tout » peut signifier bien des choses : pour certains, c’est mettre le chaos dans un pays pourtant « déjà bloqué ; pour d’autres, ce qui pose problème, c’est plutôt le blocage ou la fermeture du champ politique, qui entend réserver les décisions aux seuls représentants (les syndicats et les partis). Les Gilets jaunes n’ont pas seulement protesté contre une taxe, ils ont aussi appris chemin faisant à proposer une autre forme de démocratie ; il est peut-être temps de reconnaître que les mouvements sociaux apportent des solutions, et pas seulement des problèmes.

François Buton co-dirige en octobre aux PUF Les métamorphoses de la politisation (avec Eric Agrikolianski) et en novembre aux éditions du Croquant Devenir des Gilets jaunes (avec Emmanuelle Reungoat).

The Conversation

François Buton a reçu des financements pour des projets de recherche de la MSH SUD, du réseau des MHS, de l’ENS de Lyon et de l’ANR.

Emmanuelle Reungoat a reçu des financements d’institutions publiques pour des projets de recherche, la MSH-SUD, le RnMSH et l’ANR.

ref. « Bloquons tout » est-il vraiment la saison 2 des Gilets jaunes ? – https://theconversation.com/bloquons-tout-est-il-vraiment-la-saison-2-des-gilets-jaunes-264549

IA et langues : de nouvelles pratiques à l’école, à quel prix ?

Source: The Conversation – in French – By Grégory Miras, Professeur des Universités en didactique des langues, Université de Lorraine

Former les élèves aux usages de l’IA est présenté comme une priorité politique pour les années à venir. Mais comment intégrer les préparations nécessaires aux cursus scolaires sans alourdir les coûts écologiques ? Il faut aussi compter avec un certain nombre d’enjeux éthiques.


L’année scolaire 2025-2026 s’ouvre dans un contexte de démocratisation massive de l’intelligence artificielle (IA) générative. Dans son dossier de rentrée, le ministère de l’éducation précise d’ailleurs que les élèves du second degré bénéficieront désormais d’un parcours de formation spécifique, sur la plateforme PIX. Faut-il voir dans ces nouveaux outils une menace à l’apprentissage et la maîtrise des langues, le français et celles dites étrangères ?

À l’heure où l’IA-anxiété devient un phénomène social, voici quelques éléments de réflexion pour les plus inquiets mais aussi les plus convaincus.

Converser avec l’IA : coût écologique et éthique

Si l’IA générative séduit par sa capacité à produire du texte ou à traduire instantanément, elle comporte des coûts cachés. S’entraîner à formuler des requêtes (prompt en anglais) amène à une interaction langagière qui mobilise d’immenses ressources humaines, matérielles et énergétiques, souvent invisibles à l’utilisateur. La Direction de région académique du numérique pour l’éducation de l’académie de Versailles rappelle aux enseignants que :

  • une requête d’environ 400 tokens sur ChatGPT/GPT-4o mini consomme environ 2 Wh d’électricité (ou 2 g de CO2 rejeté), soit plus de 6 fois la consommation d’une recherche Google classique estimée à 0,3 Wh ;

  • la création d’une image en haute définition par une IA consomme autant d’énergie que la recharge complète d’un téléphone portable ;

  • les centres de données (data centers) liés à l’IA et aux cryptomonnaies ont consommé près de 460 TWh d’électricité en 2022, soit environ 2 % de la production mondiale.

S’exercer à développer un esprit critique face à l’IA devient incontournable. Cependant, amener les élèves à utiliser massivement les IA pour mieux les comprendre provoque un paradoxe. Une piste consiste alors à privilégier des IA éducatives dites « responsables », à l’image du modèle Vittascience, qui assure la transparence de ses données d’entraînement et de son fonctionnement. Entraînés à partir d’une quantité limitée de données, ces modèles apparaissent comme moins énergivores.

Il est également possible de proposer des ateliers, par exemple des escapes games, qui mobilisent des éléments pratiques pour aborder les principaux points en jeu sans nécessairement s’exercer sur des outils numériques.

D’un point de vue éthique, les grands modèles de langage (LLM) sont entraînés sur des corpus massifs constitués de textes issus de contenus en ligne. Cette alimentation soulève des questions majeures, en particulier autour de la propriété et de l’usage des données linguistiques.

Qui possède les mots, les expressions, les récits mis à disposition sur Internet ? Dans quelle mesure la réutilisation de ces ressources respecte-t-elle le droit d’auteur, la rémunération des créateurs ou encore la diversité linguistique et culturelle ?

Une machine à (re)produire des inégalités langagières ?

Enseignants comme parents accusent volontiers l’IA d’aider à tricher lors de devoirs écrits, creusant ainsi les inégalités scolaires et langagières. Pourtant, celles-ci préexistaient largement à son arrivée. Les élèves ne bénéficient pas tous des mêmes soutiens selon leur environnement familial. Certains peuvent compter sur des parents disposant d’un capital social et culturel élevé, capables de relire un devoir, de le corriger ou de l’enrichir.

L’arrivée des LLM a pu apparaître, dans le mandat de l’Unesco, comme une forme de démocratisation : « La promesse de « l’IA pour tous » doit permettre à chacun de bénéficier de la révolution technologique en cours et d’accéder à ses fruits, notamment en termes d’innovation et de connaissances. » Cette « IA pour tous » offrirait à chaque apprenant des outils disponibles en permanence (correcteur virtuel, un traducteur instantané, etc.), pouvant s’adapter à des besoins particuliers (élèves allophones, troubles du spectre autistique, un TDAH).

Cependant, les outils d’IA peuvent introduire de nouvelles inégalités, plus fallacieuses, comme le souligne Jeremy Knox, professeur à l’Université d’Oxford. En effet, cette amplification dépend à la fois de l’accès effectif aux technologies (déjà issu des inégalités sociales), des compétences nécessaires pour en tirer parti (littéracie numérique) et de la qualité des données qui les alimentent.

Dans une étude récente, des chercheurs en sociologie de l’information à l’Université de Stanford montrent que les auteurs de textes scientifiques en anglais, dont ce n’est pas la langue première, sont défavorisés dans l’évaluation scientifique, leur style d’écriture étant jugé de moindre qualité. L’arrivée de ChatGPT réduit légèrement ces biais en améliorant la traduction tout en contribuant à déplacer ces inégalités, non plus sur la maîtrise de l’anglais, mais sur l’hypothèse d’un usage de l’IA dans la production de ces textes. On imagine aisément un tel phénomène dans les évaluations scolaires.

L’humain derrière la machine parlante

Ces cinq dernières années, on assiste à une multiplication de guides éducatifs d’utilisation de l’IA tout autant qu’à une explosion des appels à financements éducatifs et de recherche autour de ces technologies. Ils permettent de financer des projets d’envergure comme le cluster IA-Enact porté par l’Université de Lorraine.

Toutefois, la multiplication de ces financements suscite des inquiétudes légitimes quant à l’ampleur des sommes investies au détriment d’autres sources de financement destinées à soutenir une vision alternative de la société. Aussi, il parait nécessaire de rappeler que certains cadres autour de l’IA soulignent l’importance de (re)penser une perspective centrée sur l’humain avant de réfléchir à la technologie en elle-même, comme le propose le Cadre de compétence en IA destiné aux enseignants par l’Unesco.

La structure de haut niveau du cadre de compétences en IA : aspects et niveaux de progression (Extrait du cadre de compétence en IA destiné aux enseignants par l’Unesco).

Dans ce contexte, l’école a un rôle central à jouer en sensibilisant les élèves à l’IA tout en développant leurs compétences en littéracies numériques et informationnelles. Mais, l’enseignement de la langue ne se limite pas à la transmission d’un code linguistique conforme aux normes grammaticales et syntaxiques, il s’agit avant tout d’enseigner la langue comme vecteur d’identité, comme manière de penser le monde et comme moyen privilégié de rencontre avec l’autre.

Penser l’école, et par extension une société avec ou sans l’IA, implique ainsi une réflexion autour du modèle social en construction. L’enseignante-chercheuse Karën Fort, lors d’une conférence en linguistique appliquée organisée par l’Association française de linguistique appliquée, soutient la nécessité de développer et diffuser des IA libres et plus ciblées aux différents usages en opposition aux modèles libéraux et capitalistes de la Silicon Valley. L’école ne devrait-elle pas principalement considérer l’IA comme un outil parmi d’autres pour soutenir les valeurs humaines indispensables au développement de futurs citoyens ?

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. IA et langues : de nouvelles pratiques à l’école, à quel prix ? – https://theconversation.com/ia-et-langues-de-nouvelles-pratiques-a-lecole-a-quel-prix-263840

Médicaments innovants : la France face à la guerre des prix lancée par Trump

Source: The Conversation – France in French (3) – By Augustin Rigollot, Normalien en économie et philosophie, spécialisé en économie de la santé (UPEC), externe en 6e année de médecine, Université de Montpellier

Seuls 63 % des nouveaux médicaments, répondant à des besoins thérapeutiques non pourvus, sont disponibles en France. HonshovskyiVadym/Shutterstock

Face aux tarifs douaniers de Donald Trump, les politiques publiques françaises cherchent à résoudre une équation complexe. Comment inciter les organismes publics et privés à créer des médicaments innovants, répondant à des besoins thérapeutiques non pourvus, dans un cadre budgétaire contraint, le tout rapidement et équitablement ? Mission impossible ?


Le 12 mai 2025, Donald Trump annonce un décret pour faire baisser le prix des médicaments aux États-Unis, accusant les autres pays de profiter de prix trop avantageux. Le 4 août, il adresse un ultimatum en ce sens à 17 grandes compagnies pharmaceutiques.

Cela fait craindre, en France et en Europe, une hausse du prix des médicaments, notamment les nouvelles molécules qui traitent des besoins thérapeutiques non pourvus. Le marché pharmaceutique des États-Unis étant le plus grand au monde, une baisse de prix dans la première économie mondiale entraînera symétriquement une hausse du prix dans les autres pays. Aux États-Unis, la négociation des prix a surtout lieu entre laboratoires et assureurs privés, avec une intervention étatique limitée, aboutissant à des prix particulièrement élevés. En Europe au contraire, les prix sont généralement plus bas, car négociés par le payeur public, avec un fort pouvoir étatique. Or, l’administration Trump souhaite que les États-Unis bénéficient systématiquement du prix le plus bas parmi les prix constatés dans les autres pays. Cela ne laisse que deux choix aux laboratoires:

  • baisser le niveau des prix aux États-Unis au niveau des prix les plus bas, notamment dans l’Union européenne (UE), les industriels du médicament supportant alors une lourde perte de revenu à l’échelle globale, obérant leur capacité à investir dans l’innovation ;

  • augmenter le niveau de prix des médicaments dans les pays de l’UE et ailleurs dans le monde en les faisant tendre vers les prix américains, afin de préserver leurs marges mondiales et de limiter la baisse de leurs revenus aux États-Unis.

Au total, les pays bénéficiant actuellement des remises les plus fortes seront les plus atteints par les hausses éventuelles, et le prix global de l’innovation thérapeutique augmentera: un risque pour son accessibilité.

Cette actualité met en lumière les modèles de santé du monde, entre financement par les assurances publiques, comme en France, et par les assurances privées, comme aux États-Unis. Dès lors, de quels leviers la France dispose-t-elle face à une hausse du prix des médicaments innovants ? Qu’en est-il tout particulièrement de ceux luttant contre le cancer (oncologie) ?

Prix bas du médicament en France

La France bénéficie d’une négociation médico-économique efficace du prix du médicament. Celui-ci y est donc bien plus bas qu’outre-Atlantique, ce qui expose fortement notre pays à une éventuelle hausse des prix. Il y a une raison historique : la France représente un fort volume de vente de médicaments en Europe, solvable par une assurance obligatoire publique. De facto, le débouché est garanti pour les industriels, un argument pour négocier des prix plus faibles.

La France dispose d’un environnement réglementaire contraignant sur les prix. Les prix bas dans notre pays permettent que les restes à charge pour les ménages soient très contenus, se situant parmi les plus faibles d’Europe.

Répartition des dépenses pharmaceutiques selon le financeur.
Direction de la recherche, des études, de l’évaluation et des statistiques

Cependant, la France fait face à une contrainte budgétaire croissante, illustrée par les 5 milliards d’euros d’économie prévus dans les comptes sociaux 2026. Ses marges de manœuvre face à une hausse du prix de l’innovation seraient donc particulièrement réduites.

Accessibilité des médicaments

La France présente une accessibilité plus faible à l’innovation pharmaceutique que ses voisins européens  63 % des nouveaux médicaments sont disponibles en France, contre 88 % en Allemagne. Par exemple, en oncologie (diagnostic et traitement des cancers), la France se positionne au 6ᵉ rang en terme de disponibilité en Europe en 2020. Pour expliquer ce défaut d’accessibilité, les industriels pointent les carences du marché français du médicament. Parmi les freins à l’accessibilité, le syndicat des industries du médicament (LEEM) souligne le prix trop bas des médicaments en France, qui ne serait pas attractif par rapport aux pays comparables européens. Ce manque d’attractivité ne se limite pas au prix, et serait renforcé par des délais d’accès trop longs au marché français, notamment par rapport à l’Allemagne. Ce contexte n’incite pas les industriels à prioriser le marché français pour leurs lancements.

La procédure d’accès précoce permet de nuancer grandement cet argument du délai d’accès.

En France, lors d’une procédure d’accès précoce dérogatoire, le médicament arrive sur le marché 18 jours avant son autorisation de mise sur le marché (AMM), contre 549 jours après l’AMM pour la procédure normale.
Assurance maladie en France

Grâce à cette procédure dérogatoire, un médicament présumé innovant, répondant à un besoin médical majeur et grave, est remboursé sur le marché sans devoir attendre la fin de la procédure d’autorisation de mise sur le marché (AMM). Cela a permis de réduire drastiquement ces délais d’accès pour plus de 120 000 patients en France, concernant une centaine de molécules coûteuses et innovantes, surtout en oncologie.

Motifs d’inquiétude

Une autre préoccupation, solidariste, reflète plutôt les attentes du payeur public. Elle est illustrée par l’avis 135 du Comité consultatif national d’éthique (CCNE) de 2021. Ce dernier s’inquiète de la pérennité de notre modèle social.

« Les prix très élevés de certains traitements innovants pourraient compromettre l’équilibre financier des systèmes de soins dans leur fonctionnement actuel. »




À lire aussi :
Médicaments : comprendre pourquoi pénuries et prix sont liés


Depuis cet avis, les motifs d’inquiétude ont crû parallèlement à la hausse des prix de l’innovation. Désormais le médicament le plus cher du monde, le Libmeldy (traitement de la leucodystrophie métachromatique), atteint, pour l’ensemble du traitement, 2,5 millions d’euros en Europe et aux États-Unis environ 4,25 millions de dollars.

Contrats de partage du risque

Parmi les nombreux dispositifs qui s’offrent à nous, certains permettent de maîtriser le prix et l’accès au marché, très en amont dans la négociation, tout en soutenant les innovations performantes. C’est le cas des contrats de partage du risque, dit risk sharing agreement. Ils sont documentés depuis une quinzaine d’années et inscrits, par exemple, dans l’article 54 du projet de loi de financement de la Sécurité sociale (PLFSS) en 2023 pour les médicaments de thérapie innovante (MTI). Ces accords entre un laboratoire pharmaceutique et le payeur public visent à limiter les conséquences financières des nouveaux traitements.

Ces contrats sont encore peu exploités en France. Ils constituent un vivier d’efficience que les politiques publiques pourraient utiliser en cas d’inflation du prix de l’innovation thérapeutique, sur fond de guerre tarifaire venant des États-Unis de Donald Trump.

Fonctionnement schématique des contrats de partage de risque.
Schéma de l’auteur, d’après Launois et Ethgen (2013), Fourni par l’auteur

On distingue :

L’exemple italien en oncologie

L’Italie est souvent considérée comme le pays européen le plus avancé dans les accords de partage de risque, en particulier en oncologie. En 2017, le montant économisé via ces contrats y était estimé à près d’un demi-milliard d’euros (35 millions sur les seuls contrats de performance). En oncologie, les molécules couvertes par ce dispositif auraient vu leur délai d’accès au marché diminuer de 256 jours.

Ce déploiement en Italie a été accompagné tôt par un système pointu de collecte et d’évaluation des données de performance en vie réelle, géré par l’Agence italienne de santé publique (AIFA). En 2016, elle disposait déjà de 172 registres de données de vie réelle portant sur plus de 300 contrats de partage de risque, concernant environ 900 000 patients. Le coût supplémentaire de ce suivi était estimé dans une fourchette de 30 0000 à 60 000 euros par médicament et par an la première année, dégressif ensuite. La question du partage de ce coût entre le payeur public et l’industriel doit également être prise en compte.

Une telle logique de collecte des données de performance en vie réelle a fait défaut en France. Cela explique en partie notre retard et le faible nombre de contrats de performance – une quinzaine en dix ans, selon l’économiste de la santé Gérard de Pouvourville.

Aujourd’hui, reste le défi de développer ces contrats sans que le suivi de la performance accapare des ressources soignantes dans un contexte de pénurie de temps et de moyens médicaux.

Solidarité mise à rude épreuve

Le problème de l’équilibre entre le soutien à l’innovation, son accessibilité et la soutenabilité du système de santé n’est pas seulement français. C’est un enjeu si important qu’il a été intégré à la Stratégie pharmaceutique pour l’Europe en 2020. Le projet européen Hi-Prix y cherche une réponse, avec la création du Pay for Innovation Observatory, qui recense en ligne l’ensemble des dispositifs de financement de l’innovation.

Face à l’inflation du prix des médicaments innovants, sans commune mesure avec leur soutenabilité pour les systèmes de santé, émerge aussi un débat éthique, que ne pourront résoudre les seules prédictions économiques.

Si le prix de l’innovation, notamment pour les maladies orphelines ou rares, continue d’augmenter et si, en même temps, des avancées diagnostiques, notamment les techniques géniques, lèvent l’incertitude sur les aléas et les états de santé futurs des individus, il existe un risque de fragiliser le consentement à payer, base du contrat tacite de solidarité assurantielle dans nos sociétés.

The Conversation

Augustin Rigollot a reçu au cours des 5 dernières années des financements individuels ou collectifs de différentes fondations : Fondation Bettencourt-Schueller, Fondation Groupe Dépêche, Fondation Axa, Fondation MGEN, Fondation de l’Ecole Normale. Ces financements, de nature générale, n’avaient pas pour objet les recherches liées à cet article.

Augustin Rigollot a travaillé en 2023 au sein de la Chaire Hospinnomics de la Paris School of Economics sous la direction de Lise Rochaix pour le projet Hi-Prix cité dans cet article.

ref. Médicaments innovants : la France face à la guerre des prix lancée par Trump – https://theconversation.com/medicaments-innovants-la-france-face-a-la-guerre-des-prix-lancee-par-trump-261414

Que sait-on de la série de séismes en Afghanistan ?

Source: The Conversation – France in French (2) – By Manon Dalaison, Maître de Conférences, Institut de physique du globe de Paris (IPGP)

Un séisme meurtrier a frappé l’Afghanistan le 31 août, suivi par d’autres tremblements de terre. Une géophysicienne très familière de la région nous explique ce que l’on sait.


Le 31 août, un séisme a frappé l’Afghanistan dans les environs de la ville de Kunar et fait plus de 2000 victimes à ce jour. En 2022, un autre séisme meurtrier avait frappé le pays et fait environ 1000 victimes, tandis qu’en 2023, ce sont plus de 4000 personnes qui avaient trouvé la mort.

La région, difficilement accessible par la route, peut sembler isolée, mais ces zones rurales sont plutôt peuplées avec de nombreux villages parsemés le long des cours d’eau. Le village de Kunar est situé à quelques kilomètres de l’épicentre, mais certains hameaux sont encore plus près. L’ampleur des dégâts est aussi liée à la vulnérabilité des constructions en terre et pierres et au fait que la catastrophe ait eu lieu vers minuit heure locale, lorsque les gens sont chez eux.

Magnitude et profondeur, deux facteurs physiques importants pour les dommages en surface

Ce nouveau séisme a une magnitude Mw 6. Ceci correspond à un séisme de taille modérée sur l’échelle des séismes destructeurs, mais l’énergie libérée lors du séisme est tout de même équivalente à celle de la bombe atomique d’Hiroshima.

L’origine du séisme est particulièrement peu profonde, à 10 kilomètres environ. À cause de cette faible profondeur, les secousses qui atteignent la surface n’ont pas le temps d’être atténuées et sont plus susceptibles de faire des dégâts.

Cette magnitude modérée et cette faible profondeur sont deux caractéristiques que le séisme de Kunar partage avec le séisme de Khost du 22 juin 2022, qui avait eu lieu 220 kilomètres au sud-ouest.

Un séisme en accord avec son contexte

D’un point de vue scientifique, nous sommes dans le « ruban » de déformation tectonique active entre les plaques indiennes et eurasiennes où on trouve une zone de transition entre un mouvement décrochant et un mouvement de compression. Ces mouvements sont à l’origine de fréquents séismes.

Contexte tectonique et géographie du séisme du 31 août 2025 par rapport à ceux du 22 juin 2022 et du 7 octobre 2023, localisés par des étoiles. Les failles sont en rouge et les frontières nationales en pointillé.
Manon Dalaison, Fourni par l’auteur

En 2022, les scientifiques avaient été assez surpris par le séisme de Khost : celui-ci montrait un mouvement décrochant (coulissant), alors que la région est en compression.

Aujourd’hui, à Kunar, on a un tremblement de terre en compression, qui est conforme à ce que l’on attend dans la région.

Comme souvent, le séisme important du 31 août est suivi d’autres séismes plus petits dont la taille et la fréquence décroissent à mesure que le temps passe. Cette évolution n’est pas une règle, et les exceptions sont nombreuses, mais plutôt une évolution moyenne qui se vérifie sur les centaines de tremblements de terre enregistrés tous les ans.

Les indices d’une histoire ancienne

La région de Kunar se situe dans l’Hindu Kush, région montagneuse du nord-est de l’Afghanistan. Ces montagnes et leur géologie sont le résultat de dizaines de millions d’années de déformation tectonique du fait de la collision des plaques indienne et eurasienne. Les séismes sont les témoins à court terme de la longue histoire géologique.

Ici, les failles actives qui peuvent rompre lors de séismes sont nombreuses, plutôt courtes, et réparties sur des centaines de kilomètres. Elles sont visibles dans le paysage, dévient les cours d’eau, longent les vallées et bordent les montagnes.

Peut-on envisager que ces failles puissent générer à l’avenir des séismes plus grands, et malheureusement plus destructeurs, que ce nouveau séisme de Kunar ?

D’après l’historique des séismes, limité dans le temps par les archives humaines, on sait qu’un plus gros séisme de magnitude équivalente à 7,4 (c’est-à-dire 125 fois plus énergétique qu’un séisme de magnitude 6) a touché la vallée de Kunar en 1842. Ceci étant, il est difficile de savoir si un séisme de magnitude encore plus importante est possible dans la région de Kunar.

Le séisme de Kunar du 31 août 2025, et les répliques qui l’ont suivi, sont des exemples supplémentaires de l’activité tectonique compressive de la région, mal connue du fait des difficultés d’accès et son éloignement des sismomètres, les instruments qui permettent de mesurer les ondes sismiques. L’étude de ces séismes permettra de mieux connaître le tracé des failles actives et d’explorer les conditions physiques qui auraient pu favoriser un tel événement destructeur.

Quoiqu’il en soit, on est clairement dans une zone à risque sismique, où des séismes vont se produire à nouveau. Mais, comme toujours avec le risque sismique, on ne sait pas quand ils vont arriver.

The Conversation

Manon Dalaison a reçu des financements du Programme National de Télédétection Spatiale (PNTS).

ref. Que sait-on de la série de séismes en Afghanistan ? – https://theconversation.com/que-sait-on-de-la-serie-de-seismes-en-afghanistan-264612

On ne naît pas blanc, on le devient : explorer « La pensée blanche » avec Lilian Thuram

Source: The Conversation – in French – By Christophe Premat, Professor, Canadian and Cultural Studies, Stockholm University

Dans son essai La pensée blanche, publié en 2020, l’essayiste guadeloupéen Lilian Thuram met en lumière un impensé majeur de nos sociétés contemporaines : la blancheur comme norme invisible, érigée au fil de l’histoire en standard universel.

Cet article fait partie de notre série Les livres qui comptent, où des experts de différents domaines décortiquent les livres de vulgarisation scientifique les plus discutés.


On ne naît pas blanc, on le devient : cette formule résume bien l’enjeu de l’ouvrage de Thuram, qui a connu une carrière de footballeur de haut niveau en Europe dans les années 90 et 2000, et est aujourd’hui à la tête d’une fondation contre le racisme. Il rejoint les réflexions de l’essayiste et psychiatre français, lui aussi d’origine antillaise, Frantz Fanon, dont on fête le centenaire de sa naissance, sur l’intériorisation des hiérarchies raciales.

Son essai s’apparente aussi à celui du chercheur déné-canadien en études autochtones, professeur à l’Université de la Colombie-Britannique, Glen Sean Coulthard dans Red Skin, White Masks (Peaux rouges, masques blancs), publié en 2014. Il y montre la persistance de la logique coloniale dans les relations avec les peuples autochtones.

« La pensée blanche », de Lilian Thuram, a été publié chez Mémoire d’encrier.
(éditions Mémoire d’encrier), CC BY-NC-ND

En tant que spécialiste des théories postcoloniales, j’explore la manière dont les héritages coloniaux marquent encore nos institutions et nos imaginaires. Je m’intéresse aussi à la façon dont écrivains et penseurs francophones réinterprètent ces catégories pour en révéler les contradictions et proposer d’autres façons de raconter nos sociétés.

Aux origines de la pensée blanche : une construction historique

Explorer la pensée blanche, c’est donc interroger les catégories héritées d’un passé colonial et comprendre comment elles continuent à structurer nos vies, souvent à notre insu.

La blancheur dont parle Lilian Thuram n’est pas une teinte épidermique mais une construction idéologique qui a fonctionné comme au départ pour classer, hiérarchiser et opposer. Elle désigne un ensemble de privilèges, de représentations et de places sociales, plutôt qu’une caractéristique biologique. Penser la blancheur, c’est donc montrer qu’elle relève moins de la pigmentation que d’un régime de visibilité : ce qui paraît neutre ou universel est en réalité situé, hérité d’une histoire coloniale.

La blancheur n’a pas toujours existé comme catégorie. Elle s’est construite progressivement à partir de l’expansion coloniale, de l’esclavage et des théories pseudo-scientifiques du XIXe siècle. La pensée blanche, telle que la décrit Thuram, consiste précisément en cette logique qui naturalise des hiérarchies raciales en érigeant la « blancheur » comme point de référence neutre.

Cette perspective met en lumière la manière dont les récits historiques et religieux ont contribué à hiérarchiser les couleurs. Dès le Moyen Âge, la théologie chrétienne associait la blancheur à la lumière divine, à la pureté et au salut, tandis que l’obscurité et le noir renvoyaient au péché, au danger et à la mort. Ces associations symboliques ont progressivement nourri un imaginaire où la blancheur était valorisée comme signe de supériorité morale.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


À l’époque moderne, cette symbolique s’est articulée à l’expansion coloniale : elle a fourni un cadre culturel qui permettait de justifier l’asservissement et l’infériorisation des populations perçues comme « non blanches ». La pensée blanche ne s’est donc pas construite uniquement par la violence matérielle, mais aussi par une longue tradition symbolique qui a présenté la blancheur comme le signe d’un ordre naturel et universel. La « norme blanche » ne s’est pas imposée seulement par la force, mais aussi par le langage, la culture et la science.

Être blanc sans le voir : les privilèges invisibles

L’un des apports majeurs de la réflexion de Thuram est de montrer que la blancheur agit comme une norme invisible. Ceux qui en bénéficient ne s’en aperçoivent pas, précisément parce qu’elle se confond avec l’universel.

Peggy McIntosh l’a décrit comme un « sac à dos invisible » de privilèges, conférant aux personnes blanches des avantages implicites : être majoritairement représentées dans les médias, ne pas être systématiquement suspectées dans l’espace public, voir son identité considérée comme neutre.

Ces privilèges ne sont pas individuels, mais structurels. Ils s’expriment dans l’accès différencié au logement, à l’emploi, ou dans les interactions quotidiennes avec l’institution policière. La pensée blanche, en tant que grille implicite, conditionne nos perceptions et nos jugements, rendant d’autant plus difficile sa remise en cause.

La blancheur n’existe qu’en relation à la « noirceur » inventée

Frantz Fanon, dans Peau noire, masques blancs, publié en 1952, montrait déjà comment l’intériorisation du regard blanc pouvait enfermer les personnes racisées dans des assignations identitaires, au prix d’un profond malaise existentiel. Thuram reprend ce fil en rappelant que la blancheur n’existe qu’en relation à la « noirceur » qu’elle a elle-même inventée.

En écho, Glen Sean Coulthard actualise ce diagnostic dans Red Skin, White Masks. En prolongeant Fanon dans le contexte des luttes autochtones nord-américaines, il démontre comment la reconnaissance offerte par l’État reste conditionnée par une logique coloniale où la blancheur définit les termes mêmes de l’égalité. La critique de la pensée blanche ne concerne donc pas seulement l’histoire européenne : elle traverse les luttes actuelles contre les formes renouvelées de domination.

Déconstruire les évidences : le rôle de l’éducation

Thuram insiste sur la nécessité d’un travail éducatif pour dénaturaliser ces représentations. Déconstruire la pensée blanche ne consiste pas à accuser individuellement, mais à rendre visible ce qui a été naturalisé. La Fondation Lilian Thuram mène à cet égard des actions pédagogiques visant à développer une conscience critique des catégories raciales et de leur histoire.

L’éducation ne se limite pas à l’école : les médias, la culture, la mémoire collective jouent un rôle crucial. L’enjeu est d’apprendre à reconnaître les privilèges invisibles et à les interroger, afin de créer les conditions d’une égalité réelle.

Déconstruire la pensée blanche suppose de passer de la prise de conscience individuelle à une responsabilité collective. Les institutions politiques, éducatives et culturelles doivent être interrogées dans leur rôle de reproduction des inégalités. L’analyse de Thuram rejoint ici les luttes pour la justice raciale et pour la décolonisation des savoirs.

Il ne s’agit pas de culpabiliser, mais de reconnaître la dimension systémique du problème. C’est seulement en déplaçant le regard — en cessant de considérer la blancheur comme universelle — qu’il devient possible de bâtir une société où les différences cessent d’être hiérarchisées.

La pensée blanche de Lilian Thuram agit ainsi comme une invitation à voir ce qui reste invisible : la norme blanche qui structure nos imaginaires, nos institutions et nos pratiques quotidiennes. En dialogue avec Fanon, l’ouvrage rappelle que l’égalité ne peut advenir qu’au prix d’un travail de déconstruction historique et critique. On ne naît pas blanc, on le devient : c’est donc à nous collectivement de défaire ce devenir, pour ouvrir la voie à des formes nouvelles de coexistence, dégagées des hiérarchies héritées du passé colonial.

La Conversation Canada

Christophe Premat est Professeur en études culturelles francophones à l’Université de Stockholm et directeur du Centre d’études canadiennes. Il coopère avec la fondation Lilian Thuram depuis 2012. Il déclare avoir été impliqué dans la préparation du dossier qui a permis à Lilian Thuram d’être élu doctor honoris causa de l’Université de Stockholm. Christophe Premat est actuellement membre de la CISE (Confédération Internationale Solidaire Écologiste), une association des Français de l’étranger créée en 2018.

ref. On ne naît pas blanc, on le devient : explorer « La pensée blanche » avec Lilian Thuram – https://theconversation.com/on-ne-nait-pas-blanc-on-le-devient-explorer-la-pensee-blanche-avec-lilian-thuram-263862

Reprendre contact avec de vieux amis : un geste difficile, mais gratifiant

Source: The Conversation – in French – By Kristina K. Castaneto, Ph.D. Candidate in Social Psychology, Simon Fraser University

Imaginez : un matin, en buvant votre café, vous pensez à un vieil ami. Vous n’avez pas parlé à cette personne depuis longtemps, mais vous y pensez avec affection et vous vous demandez comment elle va. Vous commencez à taper « bonjour ! », puis effacez le message avant de l’envoyer. Vous est-il déjà arrivé quelque chose de similaire ? Si oui, vous n’êtes pas seul.

Des recherches menées dans notre laboratoire ont montré que jusqu’à 90 % des personnes interrogées déclarent avoir un « vieil ami », c’est-à-dire un ami qui leur est cher, mais avec lequel elles ont perdu contact. Si la plupart aimeraient renouer, seulement 30 % le font réellement, même lorsque la relation s’est bien terminée et que les coordonnées sont disponibles.

Cette réticence à reprendre contact avec d’anciens amis est surprenante, car de nombreuses recherches démontrent que les relations sociales sont un facteur prédictif important de la santé et du bonheur. En effet, le fait d’avoir un réseau social plus vaste et plus diversifié est associé à un plus grand bien-être.

Écrire des messages

Alors, qu’est-ce qui incite une personne à reprendre contact avec un vieil ami ?

Dans notre nouvelle étude, nous avons analysé le contenu des messages de prise de contact envoyés à un vieil ami, pour voir si certains types de messages influencent la probabilité qu’ils soient envoyés. Par exemple, les gens sont-ils plus susceptibles d’envoyer une note axée sur le passé, le présent ou l’avenir ?

Pour le savoir, nous avons analysé plus de 850 messages recueillis lors d’études précédentes. Chaque participant a rédigé un message destiné à un ancien ami spécifique et pouvait choisir de l’envoyer ou non. Cela nous a permis de comparer le contenu des messages envoyés à celui de ceux qui n’ont pas été transmis.

Chaque message a été analysé selon plus de 20 critères, comme la longueur, les émotions exprimées ou la présence de souvenirs personnels. Douze de ces critères ont été étudiés à l’aide d’un logiciel informatique, Linguistic Inquiry Word Count (LIWC), qui mesure automatiquement des éléments comme le nombre de mots, l’orientation temporelle (passé, présent ou futur) et l’intensité des émotions positives et négatives.

En complément, une équipe de codeurs humains a évalué chaque message sur 13 aspects plus subjectifs et complexes, difficiles à détecter pour un logiciel. Ils ont notamment vérifié si l’auteur partageait des souvenirs précis avec son vieil ami ou reconnaissait sa part de responsabilité dans la relation qui s’était distendue.

un homme regarde son téléphone intélligent
Prendre contact avec un vieil ami peut contribuer à renforcer son réseau social.
(Sarah Brown/Unsplash), CC BY

Révéler des informations

Malgré tout ce codage, nous ne pouvions toujours pas prédire quels messages seraient envoyés. En revanche, notre analyse a révélé des tendances intéressantes : les messages destinés à de vieux amis étaient souvent positifs et centrés sur le présent.

Nous avons utilisé des régressions statistiques pour relier les caractéristiques des messages au comportement de prise de contact : seules six variables se sont révélées significatives, mais leurs effets étaient faibles et incohérents entre nos deux échantillons.

Cela suggère que le contenu d’un message ne permet pas de prédire qui choisira d’envoyer son message et qui ne le fera pas.

Qui prend contact ?

Comme le contenu des messages de prise de contact ne nous a pas apporté beaucoup d’informations, nous avons réorienté notre attention vers la question suivante : qui est le plus susceptible de prendre contact avec un vieil ami ?

Pour explorer cette question, nous avons recruté 312 participants sur le campus et dans des espaces publics de la ville afin de leur faire remplir un questionnaire. Le questionnaire commençait par demander aux participants d’identifier un vieil ami. Ce vieil ami était une personne à laquelle les participants tenaient, mais à laquelle ils n’avaient pas parlé depuis longtemps, qui, selon eux, aimerait avoir de leurs nouvelles et dont ils avaient les coordonnées.

Les participants ont ensuite répondu à une série de questions les concernant, notamment sur leur bonheur, leur solitude, leur personnalité, leur satisfaction en matière d’amitié et leurs convictions en la matière.

Vers la fin du sondage, nous avons demandé aux participants s’ils étaient prêts à contacter leur vieil ami, puis nous leur avons donné deux minutes pour rédiger un petit mot à l’intention de l’ami qu’ils avaient identifié précédemment. Une fois les deux minutes écoulées, nous avons demandé aux participants s’ils avaient envoyé le message à leur vieil ami.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Comme dans les recherches précédentes, 34,2 % des participants ont choisi de contacter leur vieil ami. Et si certaines dimensions de la personnalité et d’autres variables permettent de savoir qui sera le plus susceptible de répondre, une seule variable, la « résilience de l’amitié », permettait de prédire si les participants avaient envoyé leur message à leur vieil ami.

Le concept de résilience de l’amitié fait référence à la conviction que les amitiés peuvent perdurer même après de longues périodes de faible interaction. C’est un sujet que nous étudions actuellement dans notre laboratoire.

deux hommes âgés s’étreignent
La résilience de l’amitié est la conviction que les amitiés peuvent perdurer, même après de longues périodes de faible interaction.
(Erika Giraud/Unsplash), CC BY

Faites le grand saut

Si l’idée de reprendre contact avec un vieil ami vous traverse à nouveau l’esprit, ne cherchez pas le message parfait, lancez-vous !

Par exemple, vous pouvez écrire lorsque vous entendez une chanson que vous aimiez tous les deux, tombez sur un mème qui vous rappelle cette personne, ou simplement pour dire : « Salut, ça fait longtemps ! Comment vas-tu ? »

Nos conclusions montrent que la réticence à contacter d’anciens amis n’est pas le fait d’un seul type de personne, et que les messages envoyés ne suivent pas un modèle unique.

L’hésitation à contacter un ancien ami est courante, mais la plupart des gens en sont capables s’ils décident de se lancer. Prendre conscience de cela peut encourager à renouer le contact.

La Conversation Canada

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Reprendre contact avec de vieux amis : un geste difficile, mais gratifiant – https://theconversation.com/reprendre-contact-avec-de-vieux-amis-un-geste-difficile-mais-gratifiant-264552

Volcans de boue et séismes silencieux : quand les ondes d’un séisme ont des effets à très grande distance

Source: The Conversation – in French – By Cécile Doubre, Physicienne du Globe, Université de Strasbourg

Un volcan de boue en Azerbaïdjan. Chmee2/Wikipédia, CC BY-SA

Les tremblements de terre ne restent jamais isolés : ils peuvent déclencher toute une cascade d’autres phénomènes géologiques, un effet que les chercheurs étudient depuis des décennies. Une nouvelle étude confirme que les fluides, comme l’eau, jouent un rôle majeur dans la résistance de la croûte terrestre aux forces tectoniques à l’origine des séismes.


La Terre ne reste pas immobile après un grand séisme. À proximité de l’épicentre d’un fort séisme, des dégâts importants peuvent être provoqués par les secousses sismiques (destructions de routes ou d’immeubles, par exemple). Et il n’est pas rare d’observer également des glissements de terrain. Le choc principal peut aussi déstabiliser les failles environnantes, et créer ainsi de nouveaux points de rupture, appelés les « répliques ».

Beaucoup plus loin, là où personne ne ressent la moindre secousse, les instruments détectent une augmentation des petits tremblements de terre, surtout dans les régions volcaniques et géothermiques. Récemment, on a aussi pu observer des mouvements le long de zone de subduction, situés à plusieurs milliers de kilomètres de l’épicentre d’un séisme ayant eu lieu quelques minutes avant, interrogeant ainsi sur le lien mécanique entre ces deux phénomènes.

Dans notre article, publié cette semaine dans Science, nous révélons comment les grands tremblements de terre qui ont frappé la Turquie en 2023 ont produit des effets imprévus dans le bassin de Kura en Azerbaijan, à 1 000 kilomètres de l’épicentre : éruptions de volcans de boue (grands édifices faits de boue consolidée à la suite d’éruptions successives), gonflement d’une nappe d’hydrocarbures et séismes lents (également appelés « silencieux », c’est-à-dire sans émissions d’ondes sismiques).

Ces observations nous ont permis de mettre en évidence de manière quasi directe, et c’est bien là la nouveauté de cette étude, le rôle fondamental que jouent les fluides présents dans la croûte terrestre (de l’eau, par exemple) sur la résistance de celle-ci et, par conséquent, sur l’activité sismique.

Des observations inattendues à 1 000 kilomètres des deux séismes turcs

Dans le cadre de sa thèse sur la déformation lente dans le Caucase oriental, notre doctorant, Zaur Baraymov a traité de nombreuses images satellitaires radar de l’Agence spatiale européenne. En les comparant une à une (technique de géophysique appelée interférométrie radar), il a été étonné d’observer un signal le long de plusieurs failles dans la période correspondant aux deux grands séismes de Kahramanmaras, en Turquie, en février 2023.

Grâce à cette compilation d’images satellites et aux enregistrements sismologiques locaux, nous montrons que ces grands séismes ont déclenché, à plus de 1 000 kilomètres de distance, des gonflements et des éruptions de plusieurs dizaines de volcans de boue ainsi que des « séismes lents » sur plusieurs failles : ces glissements ont lieu trop lentement pour émettre eux-mêmes des ondes sismiques.

Que s’est-il passé ?

Sous l’effet du mouvement continu des plaques tectoniques à la surface de la Terre, des forces s’accumulent dans la croûte terrestre. Au sud-est de la Turquie, les plaques arabique et anatolienne se déplacent l’une par rapport à l’autre et la faille est-anatolienne résiste à ce mouvement. La majeure partie du temps, les failles sismiques sont « bloquées », et rien ne se passe… jusqu’au moment où ça lâche.

En février 2023, ce système de failles a brutalement glissé de plusieurs mètres, deux fois en quelques heures. Ce mouvement brutal est comparable au relâchement soudain d’un élastique : lorsqu’il se détend d’un coup, il rebondit dans tous les sens. Dans le cas d’un séisme, des ondes sismiques sont émises dans toutes les directions de l’espace. Typiquement, les secousses sont très fortes et peuvent détruire des bâtiments à proximité de l’épicentre, mais, à 1 000 kilomètres de distance, ces mouvements sont atténués et ne sont plus ressentis par les humains, même si les sismomètres, très sensibles, enregistrent des vibrations.

En 2023, au moment où les ondes atténuées du séisme turc ont traversé le bassin de Kura en Azerbaïdjan, à 1 000 kilomètres de l’épicentre, quelque six minutes après le séisme, nous avons détecté, sur des images satellites, du mouvement sur sept failles tectoniques. Celles-ci ont glissé silencieusement de plusieurs centimètres, sans émettre d’ondes sismiques.

carte des 2 séismes et des effets observés à distance
Les séismes de Turquie, en 2023, ont eu des effets inattendus à 1 000 kilomètres de là, à l’ouest de la mer Caspienne, dans les contreforts du Caucase.
Romain Jolivet, Fourni par l’auteur

En même temps, une cinquantaine de volcans de boue sont entrés en éruption en crachant de la boue, tandis que d’autres se déformaient.

Nous avons même mesuré le soulèvement du sol de quelques centimètres au-dessus d’un gisement d’hydrocarbures situé à l’aplomb d’une des failles activées.

Jamais une telle accumulation de phénomènes déclenchés par un même séisme n’avait été observée.

Comment un séisme peut-il déclencher de tels phénomènes à distance ?

La concomitance des éruptions de volcans de boue et des glissements silencieux sur les failles met en évidence le rôle des fluides dans ces déclenchements.

Plus précisément, observer ces volcans de boue s’activer et le champ d’hydrocarbures gonfler indique que la pression des fluides dans les roches du sous-sol a augmenté au passage des ondes sismiques. Cet effet est connu, notamment le phénomène appelé « liquéfaction » qui se produit sur les sols saturés en eau, perdant leur stabilité à la suite d’un séisme.

L’augmentation de la pression des fluides est aussi connue pour fragiliser les failles et les conduire à relâcher de la contrainte en glissant. De plus, il est bien établi qu’une pression de fluide élevée favorise un glissement lent sur les failles, qui ne génère pas d’ondes sismiques. Les ondes sismiques, en passant, ont donc fait grimper la pression des fluides dans la croûte, occasionnant à la fois les éruptions de boue et les glissements asismiques sur ces failles.

Cette étude constitue la première observation directe de l’influence des fluides présents dans la croûte sur le déclenchement à distance des séismes lents.

Le rôle des fluides dans la propagation des ondes sismiques sur de grandes distances

Depuis longtemps, les géophysiciens soupçonnaient que les fluides jouent un rôle dans une observation intrigante : comment de simples ondes sismiques, qui génèrent de faibles contraintes de quelques kilopascals, peuvent-elles déclencher des glissements sur des failles pourtant capables de résister à des contraintes bien supérieures, de quelques mégapascals ?

Nos observations apportent la réponse. L’augmentation de pression de fluide peut permettre d’atteindre l’échelle des mégapascals et d’activer les failles présentes dans la croûte saturée en fluides.

Il reste maintenant à généraliser ces observations. Toutes les failles sont-elles baignées de fluides circulant dans les roches de la croûte ? Si oui, quelle est la nature de ces fluides ? Nous savons qu’il y a de l’eau dans la croûte, et particulièrement dans les sédiments de la région du bassin de Kura, mais nos observations montrent que les hydrocarbures peuvent aussi être impliqués.

Des analyses géochimiques suggèrent même que des fluides, comme de l’eau chargée en dioxyde de carbone, pourraient remonter du manteau. La question reste ouverte…


Le projet Évolution spatiale et temporelle de la déformation sur et hors faille – SaTellite est soutenu par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Jusqu’à fin 2024, Alessia Maggi a été conseillère en matière de formations universitaires à l’Université Franco-Azerbaijanaise, un partenariat entre l’université de Strasbourg et la Azerbaijan State Oil and Industry University (ASOIU).

Romain Jolivet a été membre de l’Institut Universitaire de France entre 2019 et 2024. Il a reçu des financements de l’ANR ainsi que l’ERC.

Cécile Doubre et Luis Rivera ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. Volcans de boue et séismes silencieux : quand les ondes d’un séisme ont des effets à très grande distance – https://theconversation.com/volcans-de-boue-et-seismes-silencieux-quand-les-ondes-dun-seisme-ont-des-effets-a-tres-grande-distance-264526

Deux portraits, deux destins : voici comment des œuvres d’Otto Dix se sont retrouvées dans des musées canadiens

Source: The Conversation – in French – By Monika Wright, Doctorante en histoire de l’art, Université du Québec à Montréal (UQAM)

En 1933, dès l’arrivée d’Hitler au pouvoir à titre de chancelier du Parti national-socialiste, d’importantes campagnes de pillage d’œuvres d’art avant-gardistes sont organisées.

Qualifiées de « dégénérées », ces œuvres sont d’abord confisquées dans les institutions muséales allemandes, puis dans les collections privées. Les populations juives sont particulièrement ciblées. Lorsque la guerre éclate, les pays occupés sont à leur tour dépossédés de leurs biens culturels.

Une première tentative de restitution a lieu au lendemain de la Seconde Guerre mondiale, mais les priorités vont alors à la reconstruction des pays lourdement touchés. Il faudra attendre les années 1990 pour voir de réelles mesures être mises en place afin que ces œuvres soient rendues à leurs propriétaires ou à leurs familles.

Toutefois, encore aujourd’hui, des milliers d’entre elles demeurent introuvables, ou se trouvent injustement dans des collections muséales ou privées. Il n’est pas rare d’entendre de nouvelles histoires rocambolesques d’œuvres qui réapparaissent après plus de 80 ans, comme cette toile de Giuseppe Ghislandi, repérée en août sur le site web d’une agence immobilière proposant une maison à vendre en Argentine, pillée par les nazis à un marchant d’art juif à Amsterdam durant l’occupation.

Désormais, la plupart des institutions se sont dotées de politiques encadrant la recherche en provenance des œuvres de leurs collections, avec une attention particulière portée sur la période allant de 1933 à 1945.

Dans ce contexte, certaines œuvres ont suivi des parcours surprenants. Passionnée par la question de la spoliation et le contexte de la Deuxième Guerre mondiale, j’ai pu le constater lors de mes recherches de second cycle en histoire de l’art. Je me suis alors intéressée à la trajectoire de deux portraits exécutés par l’artiste allemand de la Nouvelle Objectivité, Otto Dix, aujourd’hui conservés dans des collections muséales canadiennes. Le parcours de l’un a été retracé, tandis que l’autre reste plus mystérieux.

Montréal, un tableau devenu un symbole de la légitimité artistique québécoise

Le premier, « Portrait de l’avocat Hugo Simons », est réalisé par Dix en 1925 pour son ami Hugo Simons, qui l’avait aidé à remporter un procès. Lorsque la guerre éclate, Simons et sa famille, de religion juive, fuient l’Allemagne nazie pour s’installer à Montréal en 1939. Simons conserve ensuite le tableau tout au long de sa vie.

Après la mort de Simons, la famille décide de mettre en vente le tableau en 1992 à la suite d’un avis de dette fiscale rétroactive sur sa valeur. L’œuvre est alors proposée au Musée des beaux-arts de Montréal (MBAM) pour la moitié de son prix, en guise de reconnaissance envers la ville d’accueil. Alors que plus de la moitié des œuvres de Dix ont disparu ou ont été détruites durant la guerre, celle-ci se trouve dans un parfait état de conservation.

S’ensuivent des négociations difficiles entre le MBAM et le gouvernement fédéral, réticent à accorder un prêt. L’affaire prend rapidement une dimension publique dans les médias. L’acquisition du tableau permettrait non seulement au MBAM d’intégrer une œuvre de maître dans sa collection, mais aussi d’offrir au Québec la crédibilité artistique à laquelle il aspire.

Finalement, grâce à l’addition de financements privés et publics, le tableau entre dans la collection du MBAM en 1993. Il devient alors, bien malgré lui, un symbole nationaliste.

Toronto, le mystère du Dr Stadelmann

Le second, « Portrait du Dr Heinrich Stadelmann », a un parcours moins limpide. Aujourd’hui conservé à l’Art Gallery of Ontario (AGO) à Toronto, le tableau a été commandé par Stadelmann lui-même en 1922. Psychiatre dresdois reconnu pour son érudition et son excentricité, il était aussi un fervent admirateur des avant-gardes. Le portrait, qui semble emprunter des traits à un macabre Friedrich Nietzsche, reflète bien cette singularité.

Contrairement à Simons, Stadelmann n’a jamais mis les pieds au Canada. Pourquoi le tableau se retrouve-t-il alors à l’AGO ? Rien ne l’explique, à première vue. Le cartel indique simplement : « Anonymous gift, 1969 ; donated by the Ontario Heritage Foundation, 1988 ».

À l’exception d’une courte période passée hors de Dresde durant les bombardements, Stadelmann y est toujours resté et aurait continué à pratiquer jusqu’à sa mort en 1948. Il ne semble pas avoir eu de besoins financiers particuliers qui expliqueraient la vente ou la cession de son portrait.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Des recherches en archives révèlent toutefois que l’œuvre aurait aussi appartenu au docteur en physique William (né Wilhelm) Landmann. Juif, il fuit également l’Allemagne nazie en 1939 et s’installe à Toronto avec sa famille. Collectionneur d’art, il aurait acquis la majorité de ses œuvres entre 1920 et 1935. Sa collection comprend des pièces de Marc Chagall, Georg Grosz, Paul Klee, Wassily Kandinsky, Otto Müller, Emil Nolde, Max Pechstein et Fernand Léger.

Landmann aurait été lui-même victime de spoliation nazie. Lors de son émigration au Canada, il n’aurait emporté qu’une partie de sa collection, l’autre restant entreposée en Europe, notamment dans les voûtes du Rijksmuseum à Amsterdam et dans des entrepôts suisses. Il en récupère une partie en 1946, mais plusieurs œuvres demeurent introuvables. Aujourd’hui encore, elles figurent dans la base de données Lost Art, répertoriées comme biens culturels confisqués aux personnes persécutées.

Un mystérieux numéro, un titre fautif et d’étranges coïncidences

On ignore si le portrait de Stadelmann est arrivé au Canada avec Landmann en 1939, ou s’il faisait partie du lot récupéré en 1946. Ce que l’on sait, c’est que Landmann s’implique activement dans la vie artistique torontoise. Il prête régulièrement des œuvres pour des expositions organisées à l’AGO, et le portrait de Stadelmann est accroché à deux reprises : en 1946 et en 1948.

Une vue nocturne du Art Gallery of Ontario
Vue nocturne du Art Gallery of Ontario, où on retrouve le « Portrait du Dr Heinrich Stadelmann ».
(Sean Driscoll/Unsplash), CC BY-NC-ND

Une photographie des archives montre le dos du tableau. On y distingue l’inscription grossière en noir du chiffre « 621 » dans le coin supérieur droit du cadre. Le titre du portrait y figure également, mais avec une erreur : « Dix, 22, Dr Heinrih Stadelmann ». Le « C » de Heinrich manque. Qui a inscrit ce numéro et ce titre fautif ? Et pourquoi ?

Landmann connaissait bien le marché de l’art. Il a vendu certaines de ses œuvres à des institutions aussi importantes que le Museum of Modern Art à New York, ou la Dominion Gallery à Montréal.

Le choix de faire don du portrait à l’Ontario Heritage Foundation, et non directement à l’AGO, intrigue. D’autant plus que l’année du don, 1969, correspond à l’année du décès d’Otto Dix. Et autre coïncidence : en 1988, lorsque l’œuvre est finalement transférée à l’AGO, cela se fait moins d’un an après la mort de Landmann. Pourquoi la Fondation a-t-elle conservé le tableau pendant 19 ans avant de le céder ?

Tous ces éléments ne permettent évidemment pas d’affirmer que l’œuvre a été victime de spoliation, mais ils suffisent à soulever la question.

Mieux comprendre la mémoire culturelle et les responsabilités des institutions muséales

L’étude de la trajectoire de ces deux tableaux illustre comment la spoliation a pu influencer le destin d’œuvres qui n’auraient sans doute jamais quitté l’Allemagne autrement.

Alors que le « Portrait de l’avocat Hugo Simons » est devenu une œuvre phare du MBAM, un mystère continue de planer autour du « Portrait du Dr Heinrich Stadelmann » conservé à l’AGO.

La recherche en provenance reste encore peu développée au Canada, surtout si l’on compare avec l’Europe et les États-Unis. Pourtant, ce cas d’étude démontre toute la pertinence d’entreprendre ces enquêtes ici : elles révèlent non seulement les zones d’ombre entourant certaines œuvres, mais contribuent aussi à mieux comprendre la mémoire culturelle et les responsabilités des institutions muséales.

La Conversation Canada

Monika Wright a reçu des financements du Groupe de recherche et de réflexion CIÉCO.

ref. Deux portraits, deux destins : voici comment des œuvres d’Otto Dix se sont retrouvées dans des musées canadiens – https://theconversation.com/deux-portraits-deux-destins-voici-comment-des-oeuvres-dotto-dix-se-sont-retrouvees-dans-des-musees-canadiens-263593