La « gêne » du passeport, au-delà de l’administration Trump

Source: The Conversation – in French – By Speranta Dumitru, Maitre de Conférences, Université Paris Cité

Passeport en édition limitée à l’effigie de Donald Trump, intitulé « passeport patriotique » par la Maison-Blanche. Capture d’écran Maison-Blanche/X

Le passeport à l’effigie de Donald Trump génère des protestations. Leur intensité est, toutefois, moindre que la colère suscitée, après 1918, par le maintien du passeport lui-même, qui avait été rendu obligatoire durant la Première Guerre mondiale. Des deux côtés de l’Atlantique, la presse en réclamait la suppression, le jugeant coûteux, vexatoire et liberticide. Un siècle plus tard, la contrainte du passeport est normalisée.


La Maison-Blanche a récemment annoncé qu’une édition limitée de passeports états-uniens à l’effigie du président serait fabriquée dans le cadre des célébrations du 250e anniversaire des États-Unis. Ces passeports, qui comporteront une image de Donald Trump accompagnée de sa signature à l’encre dorée, et dont le nombre exact n’a pas été rendu public, ne seront disponibles que pour les citoyens qui en feront la demande dans la ville de Washington.

Cette décision a immédiatement suscité de vives critiques : certains adversaires y voient une manifestation de culte de la personnalité qu’aucun autocrate n’avait jamais osée.

Le « passeport Trump » est-il « gênant » ? Le verbe « gêner » a deux significations : embarrasser, et limiter la liberté. Les détracteurs de cette initiative se sentent gênés surtout dans le premier sens : ils ont honte de voir leur président profiter de l’anniversaire de l’indépendance du pays pour se mettre en avant. Mais la seconde signification, celle liée à la restriction de la liberté de circulation, est bien plus durable : depuis plus d’un siècle, devoir obtenir un passeport pour pouvoir voyager gêne considérablement les gens, partout dans le monde.

Le régime des passeports obligatoires

Nos arrière-grands-parents ont affublé le passeport de tous les noms : une « gêne », une « vexation », une « nuisance ». Le régime des passeports obligatoires, tel qu’on le connaît aujourd’hui, avait été introduit durant la Première Guerre mondiale. Les pays belligérants, tels que la France ou le Royaume-Uni, l’instaurent dès le début des hostilités, en août 1914. Initialement, la justification est de pouvoir contrôler les ressortissants des puissances ennemies. Mais pour contrôler efficacement les étrangers, il est nécessaire de surveiller l’ensemble de la population.

C’est ainsi que l’obligation des passeports s’avère doublement contagieuse : non seulement elle s’étend, dans les pays belligérants, des étrangers aux citoyens, mais elle se diffuse aussi des pays belligérants vers les pays neutres. Pour permettre à leurs citoyens de voyager, tous les pays se voient contraints d’organiser la délivrance des passeports. Prenons l’exemple des États-Unis. Dès le 1er août 1914, le Département d’État demande à ses ambassades en Europe de délivrer des documents aux citoyens états-uniens qui s’y trouvent sans passeport. Alors que dès 1916 les compagnies de transport refusent d’embarquer des passagers ne disposant pas de passeport, le premier fondement légal pour contrôler l’entrée et la sortie des citoyens et des étrangers aux États-Unis n’apparaît qu’en 1918, un peu avant la fin de la guerre.

Personne n’imagine que l’obligation du passeport perdure après la fin du conflit mondial. Au moment de l’armistice, on espère revenir au régime de circulation d’avant-guerre. La Société des Nations (ancêtre de l’ONU) cherche à répondre — sans succès — à la demande de suppression ou d’abolition des passeports. Comme certains gouvernements temporisent, la Société des Nations propose la simplification du passage des frontières, en demandant aux pays d’adopter un modèle uniforme de passeport — celui que nous connaissons aujourd’hui.

Tout passeport est une « gêne »

Dès 1918, la presse se fait l’écho de l’impatience du public. En France, des centaines de journaux mentionnent l’abolition des passeports : ils l’annoncent prochaine… durant toute la période de l’entre-deux-guerres.

Quelques titres d’articles illustrent la persistance de cette attente, bien qu’elle diminue vers la fin des années 1930 : « À bas l’odieux passeport » (L’Humanité, 21 décembre 1921) ; « L’absurde formalité » (Le Figaro, 19 mai 1923) ; « Supprimons les passeports » (La Volonté, 17 janvier 1928) ; « Le passeport est une gêne pour les honnêtes gens » (Le Quotidien, 3 octobre 1929) ; « La mort du passeport » (Le Soir, 14 avril 1931) ; « Il faut qu’on supprime les passeports » (La Gazette de Biarritz-Bayonne et Saint-Jean-de-Luz, 11 juillet 1933).

On pourrait penser que la bataille est menée par les journaux de gauche. Dans ma recherche, j’ai analysé plus de 700 articles qui mentionnent l’abolition des passeports dans la presse française de l’entre-deux-guerres. Ma conclusion est que la majorité des abolitionnistes ne sont pas de gauche, mais de droite et de centre droit. Au Figaro, par exemple, le passeport est vu comme « l’exigence administrative la plus insupportable pour les Français » car « on ne saurait croire quelles démarches, quels ennuis, quelles tracasseries » fait subir aux « honnêtes gens » « toute cette paperasserie » (15 juillet 1921).

Même le journal d’extrême droite L’Action Française ne sabote pas cette « unanimité » et reconnaît que le passeport est une « véritable brimade pour le voyageur ». Pesant « le pour et le contre » de la suppression, il rappelle le 7 septembre 1921 que :

« Dans les États bien organisés, le passeport est une sérieuse garantie contre les espions. Un gouvernement fort et clairvoyant, une bonne police, peuvent s’en faire une arme solide. C’est à eux qu’il appartient de réduire au minimum les ennuis que suscite au public ce parchemin, tout en le conservant si c’est nécessaire. »

Dans tous les journaux, la passion est lisible : on espère que « l’entrave irritante de cette précaution inutile qu’est le passeport ne sera bientôt plus qu’un désagréable souvenir » ou souhaite que « les passeports, survivance inutile, onéreuse et vexatoire du passé, soient désormais supprimés ». L’émotion la plus fréquemment associée aux passeports est la colère : « stupide obligation », « honte de notre époque », « tare bureaucratique », « une des pires incommodités », « une source d’ennui pour qui voyage », « chiffon de papier », « formalité ridicule », « absurde », « humiliante », « brimade », « le passeport est une vaine sottise, un trompe-l’œil, un rien »… Lorsqu’un journal publie un témoignage d’usager, on s’excuse de devoir « supprimer les termes indignés qu’il emploie et les appréciations plutôt dures qu’il y exprime ».

En anglais, la « nuisance » des passeports

La presse ne réagit pas seulement en France. Comme l’a montré l’historien Craig Robertson, aux États-Unis les journaux qualifient la réaction négative du public de « nuisance du passeport » — l’équivalent de la « gêne » et des « vexations » françaises. Comme à Paris, on espère que l’obligation du passeport disparaîtra comme d’autres mesures prises en temps de guerre. On déplore le surcoût des voyages, comme dans cet article du New York Times de 1926 :

« Autrefois, on n’avait pas à se soucier des passeports, à moins de se rendre dans des contrées païennes. Mais la guerre a tout changé. Nous avons fini par imposer des frais de visa de dix dollars, et d’autres pays ont fait de même. Cela a généré des recettes, mais a aussi représenté une lourde charge financière pour les voyageurs. Les plaintes se sont multipliées, et le Congrès a été appelé à trouver une solution. »

Plus que le coût des voyages et la tracasserie administrative, c’est la réduction de la liberté de circulation que les médias déplorent. L’espoir d’un retour au régime de circulation d’avant-1914 survit même après la Seconde Guerre mondiale. Comme l’illustre cet article de 1947 :

« Une triste remarque sur ce progrès à rebours a été énoncée par la Chambre Internationale de commerce : en 1914, un homme d’affaires pouvait décider de se rendre d’une capitale à une autre et effectuer ce trajet en quelques heures seulement. Depuis 1914, les trains ont gagné en vitesse, l’automobile s’est généralisée et l’avion de ligne a fait son apparition. Mais l’homme d’affaires, ou tout autre voyageur, peut être contraint d’attendre des semaines, voire des mois, entre le moment où il prend sa décision et celui où il la met à exécution. La Chambre considère cette situation comme à la fois “absurde et pernicieuse” ».

Ce qui gêne

Il y a un siècle, nos arrière-grands-parents n’acceptaient pas d’attendre trois jours pour un passeport. Les temps ont changé. Aujourd’hui, les journaux nous invitent parfois à nous estimer « chanceux » lorsque l’attente ne dure que quelques mois. Comme ce titre, du même New York Times, “Besoin d’un passeport ? Vous avez de la chance” qui annonçait en 2024 :

« Pour la première fois depuis mars 2020, les délais de traitement sont revenus aux normales pré-pandémiques […] avec six à huit semaines pour le service standard et deux à trois semaines pour le service accéléré. »

Quand la contrainte n’est plus une gêne mais une chance, il nous reste l’embarras.

The Conversation

Speranta Dumitru ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La « gêne » du passeport, au-delà de l’administration Trump – https://theconversation.com/la-gene-du-passeport-au-dela-de-ladministration-trump-281912

Madagascar-France : quand un incident diplomatique devient une bataille de récits

Source: The Conversation – in French – By Fabrice Lollia, Docteur en sciences de l’information et de la communication, chercheur associé laboratoire DICEN Ile de France, Université Gustave Eiffel

Le 29 avril 2026, le ministère français de l’Europe et des Affaires étrangères a indiqué avoir convoqué le chargé d’affaires de Madagascar à Paris, après la déclaration persona non grata d’un agent diplomatique français à Antananarivo. Paris a rejeté les accusations de déstabilisation et réaffirmé son soutien au processus de transition malgache.

Cette affaire s’inscrit dans un contexte judiciaire sensible. Des enquêtes ont été ouvertes à Madagascar sur une tentative présumée d’assassinat du chef de l’État et un projet présumé de coup d’État, dans lesquelles plusieurs personnes ont été placées en détention provisoire.

À ce stade, ces accusations doivent être abordées avec prudence : elles relèvent d’enquêtes en cours et ne sauraient être confondues avec des faits établis. L’enjeu n’est pas tant de trancher la réalité judiciaire de l’affaire que d’analyser ce qu’elle produit dans l’espace public notamment en termes de récit d’ingérence, de souveraineté et de déstabilisation.

En tant que chercheur en sciences de l’information, j’ai étudié l’impact des réseaux sociaux sur la stabilité démocratique malgache. L’expulsion d’un agent diplomatique français à Madagascar illustre un élément clé. Dans une transition politique fragile, une affaire bilatérale peut devenir une bataille de récits autour de l’ingérence, de la souveraineté et des recompositions d’influence dans l’océan Indien.

L’enjeu n’est donc pas seulement de savoir ce que cette affaire dit des relations entre Paris et Antananarivo. Il est aussi de comprendre ce qu’elle révèle de la diplomatie contemporaine. Celle-ci est désormais exposée aux récits, aux soupçons, aux mémoires historiques et aux circulations numériques.

Un incident diplomatique dans une transition fragile

Depuis septembre 2025, Madagascar connaît une forte mobilisation portée par le mouvement Gen Z, née de revendications très concrètes contre les coupures d’eau et d’électricité, puis élargie à la corruption et à la crise sociale.

Les mobilisations de septembre 2025 apparaissent comme étant les plus importantes qu’ait connues Madagascar depuis plusieurs années, avec une organisation inspirée d’autres mouvements de jeunesse, notamment au Kenya et au Népal.

Cette contestation a ensuite pris une dimension politique majeure en octobre 2025, à la suite de semaines de manifestations et de l’intervention d’une unité militaire d’élite, le CAPSAT, menée par le colonel Michaël Randrianirina. Celui-ci a ensuite pris la tête de la transition.

Or, les transitions politiques sont toujours des périodes de forte vulnérabilité informationnelle. Les institutions doivent produire de la stabilité alors même que leur légitimité reste discutée. Les acteurs politiques cherchent à fixer un récit dominant : récit de restauration, récit de rupture, récit d’ordre, récit populaire ou récit sécuritaire.

Dans ce contexte, l’affaire de l’agent français ne se réduit pas à une friction diplomatique. Elle survient alors que le pouvoir de transition doit gérer simultanément la crise énergétique, l’ordre public, la sortie institutionnelle et les contestations portées par la Gen Z. D’un point de vue médiatique, la reprise des manifestations est perçue comme le signe du discrédit croissant des autorités de transition, avec des militants arrêtés et des critiques persistantes sur l’incapacité à résoudre la crise énergétique.

Changement de regard

Pour les sciences de l’information et de la communication, un événement n’est jamais seulement un fait. Il devient public à travers les récits qui le rendent intelligible. Ces récits sélectionnent des causes, désignent des responsables, hiérarchisent des émotions et orientent les interprétations collectives.

C’est précisément ce qui se joue ici. Une crise initialement liée à des problèmes internes — accès à l’eau, électricité, gouvernance, jeunesse, légitimité politique — peut être progressivement relue à travers le prisme de la déstabilisation. Ce changement de regard est décisif.

Lorsqu’un pouvoir parle de complot, de tentative de coup d’État ou d’ingérence étrangère, il ne décrit pas seulement une menace. Il propose une interprétation officielle de la crise. Cette interprétation sélectionne des responsables, déplace l’attention publique et transforme une contestation sociale en enjeu de sécurité nationale. C’est là que se joue la dimension communicationnelle de l’affaire : le récit ne vient pas après l’événement, il participe à sa signification politique.

Ce mécanisme n’est pas propre à Madagascar. Dans de nombreux contextes de transition ou de fragilité institutionnelle, la figure de l’ingérence étrangère fonctionne comme une ressource politique. Elle permet d’unifier un camp, de délégitimer des opposants, de justifier un durcissement sécuritaire ou de réaffirmer l’autorité de l’État.

Cela ne signifie pas que toute accusation d’ingérence serait nécessairement infondée. Les ingérences existent, notamment dans des espaces géopolitiques disputés. Mais l’analyse communicationnelle invite à distinguer la réalité éventuelle des faits, qui relève de l’enquête, et les effets publics du récit, qui relèvent de la circulation de l’information.

Un acteur diplomatique mais aussi symbolique

À Madagascar, la France est à la fois une ancienne puissance coloniale, un acteur diplomatique majeur, un partenaire économique, culturel et sécuritaire, mais aussi une figure symbolique oscillant entre acceptation et contestation. La relation franco-malgache est travaillée par une mémoire historique longue, dans laquelle se mêlent coopération, dépendance, ressentiment et revendication de souveraineté.

Le dossier des îles Éparses illustre cette charge symbolique. En juin 2025, Madagascar a réaffirmé sa demande de restitution de ces îles administrées par la France dans le canal du Mozambique, en sollicitant également une indemnisation pour les pertes économiques subies. Cette question reste un contentieux majeur, à la fois territorial, économique et mémoriel.

L’accusation d’ingérence française s’inscrit dans un imaginaire postcolonial déjà disponible, récemment réactivé par les récits médiatiques autour de l’exfiltration de l’ancien président Andry Rajoelina.

Les recherches sur les récits publics montrent qu’une accusation peut produire des effets narratifs avant même l’établissement de la preuve , les démentis ne suffisant pas toujours à neutraliser la puissance symbolique du storytelling.

Même lorsqu’un démenti intervient rapidement, il ne suffit pas toujours à neutraliser totalement la puissance symbolique du récit. En communication politique, l’accusation agit parfois moins comme une preuve que comme un cadrage en ce sens qu’elle installe une interprétation avant même que les faits ne soient définitivement établis.

L’affaire intervient également au moment où Madagascar cherche à diversifier ses partenariats. Depuis la transition, le nouveau pouvoir affiche une diplomatie ouverte à plusieurs acteurs. Les autorités malgaches cherchent à rassurer Paris après un rapprochement remarqué avec Moscou, tout en revendiquant une diplomatie pragmatique et ouverte à tous les partenaires.

Cette évolution doit être replacée dans un cadre régional plus large. L’océan Indien est devenu un espace stratégique où se croisent des enjeux de routes maritimes, d’accès aux ressources, de sécurité, d’influence diplomatique et de projection militaire. La France y dispose d’intérêts importants, notamment avec La Réunion, Mayotte et les îles Éparses. Mais elle n’est plus seule.

La Russie, la Chine, les Émirats arabes unis, l’Inde, l’Afrique du Sud ou encore les organisations régionales peuvent peser, chacune à leur manière, dans les équilibres de Madagascar. Dans un tel environnement, toute fragilisation de l’image française peut être interprétée comme une opportunité par d’autres acteurs.

La compétition d’influence ne se limite plus aux accords militaires, aux financements ou aux visites officielles. Elle passe aussi par les récits : qui est présenté comme partenaire fiable ? Qui est décrit comme puissance intrusive ? Qui apparaît comme soutien à la souveraineté ? Qui est associé à la crise ?

La diplomatie à l’épreuve des vulnérabilités informationnelles

Cette affaire montre qu’un incident diplomatique ne reste plus confiné aux canaux institutionnels. Il devient rapidement un objet médiatique, politique et numérique, circulant dans un espace public traversé par les émotions collectives, les mémoires historiques et les frustrations sociales. Les États doivent donc gérer, en plus de leurs relations diplomatiques, leurs vulnérabilités communicationnelles.

Pour la France, le démenti est nécessaire, mais il ne suffit pas toujours lorsque l’accusation trouve un terrain favorable dans l’histoire coloniale ou la compétition géopolitique. Pour Madagascar, la revendication de souveraineté est légitime, mais le registre de la menace extérieure peut aussi réduire l’espace du débat et transformer la contestation sociale en soupçon politique.

Le véritable enjeu réside alors dans la manière dont cette affaire sera racontée : incident isolé, preuve d’ingérence, symptôme de fragilité institutionnelle ou épisode de recomposition géopolitique dans l’océan Indien.

Comme dans de nombreux pays africains, à Madagascar la diplomatie se joue donc aussi dans les récits, les images, les soupçons et les mémoires qui circulent.
Et en période de transition, la maîtrise du récit devient ainsi un véritable enjeu de pouvoir. À Madagascar, on l’aura compris, la bataille diplomatique est aussi une bataille de perception.

The Conversation

Fabrice Lollia does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Madagascar-France : quand un incident diplomatique devient une bataille de récits – https://theconversation.com/madagascar-france-quand-un-incident-diplomatique-devient-une-bataille-de-recits-282211

Michaelina Wautier : une peintre du baroque flamand au talent époustouflant

Source: The Conversation – France (in French) – By Gabriele Neher, Associate Professor in History of Art, University of Nottingham

La Royal Academy of Arts (RA) de Londres accueille actuellement la rétrospective la plus complète de l’œuvre de Michaelina Wautier à ce jour. Il s’agit d’une exposition historique qui permet de redécouvrir une artiste qui, à son époque, connaissait un grand succès et était choyée par la cour et l’élite bruxelloise, mais qui a ensuite presque disparu de la scène publique et des regards des spécialistes pendant près de 300 ans.


La première mention moderne de la peintre flamande Michaelina Wautier (1614-1689) nous présente une artiste qui défie toutes les attentes. Évoquant son monumental Triomphe de Bacchus (1655–1659), Gustav Glück, premier historien de l’art à occuper le poste de conservateur au Kunsthistorisches Museum de Vienne, écrivait en 1903 : « Même à l’ère de l’émancipation féminine, on aurait du mal à attribuer ce tableau, qui témoigne d’une conception très vigoureuse, presque grossière, à la main d’une femme ».

Et c’est là que réside la réussite de Wautier : elle aurait pu peindre « comme un homme », mais dans la plupart de ses œuvres, elle n’en ressent pas le besoin. Au contraire, Michaelina Wautier s’impose comme une artiste dotée d’un style qui lui est propre.

Redonner à Wautier sa place dans le canon artistique à travers une exposition à la Royal Academy of Arts semble particulièrement approprié pour une artiste qui défia les attentes de son temps. La RA a été la première institution à offrir une formation professionnelle aux artistes en Grande-Bretagne. L’œuvre de Wautier et la manière dont la RA la présente témoignent clairement du type de formation qui était à l’époque l’apanage exclusif des artistes masculins.

Wautier et Gentileschi

Sa formation est immédiatement mise en avant par l’image qui ouvre l’exposition, une œuvre gracieuse et assurée intitulée Étude du buste de Ganymède des Médicis (1654). Le dessin représente la célèbre sculpture romaine antique, qui se trouvait à l’époque à Rome. Savoir dessiner était une compétence très prisée et ce Ganymède démontre non seulement la maîtrise d’une artiste ayant reçu une formation méticuleuse, mais aussi un travail est en phase avec son temps qui reflète les tendances contemporaines.

Beaucoup se demanderont où elle se situe par rapport à la grande star de la peinture baroque qui fut sa contemporaine, Artemisia Gentileschi (1593–1654) – un sujet de prédilection dans l’histoire de l’art féministe. Les deux femmes disparaissent de la scène après les années 1650, toutes deux ayant travaillé avec des proches (Wautier avec son frère, Gentileschi avec son père), et toutes deux ont été soutenues par des mécènes de haut rang. Mais c’est là que s’arrêtent les similitudes.

L’histoire personnelle violente de Gentileschi a souvent éclipsé les débats sur son talent la maîtrise de son art. Par exemple, des œuvres comme la Décapitation d’Holopherne (1612) sont fréquemment interprétées comme des réponses directes à son expérience de la violence sexuelle.

De la vie personnelle de Wautier, cependant, on ne sait pas grand-chose si ce n’est l’identité de ses parents, le fait qu’elle partageait un atelier avec son frère à Bruxelles et qu’elle ne s’est jamais mariée. Ce manque d’informations est en partie dû au fait que le testament de l’artiste a été détruit dans les flammes lors du bombardement français de Bruxelles en 1695.

Si dans le cas de Gentileschi, on a l’impression de ne pas pouvoir séparer l’art de la biographie, pour Wautier, nous ne disposons de rien d’autre que de son art. Un art merveilleux, d’ailleurs.

Wautier excellait dans le portrait, grâce à sa palette élégante et à sa maîtrise des textures, qu’il s’agisse de cheveux ou de tissus. Dans ses portraits, en particulier dans la représentation des enfants, elle se montre vivace et pleine de vie, et très attentive aux excentricités et aux petites manies. On le voit notamment dans sa série Les Cinq Sens (1650). Par exemple, « L’odorat » représente un petit garçon blond serrant un œuf pourri dans une main et se pinçant le nez de l’autre, repoussé par la puanteur de l’œuf.

Elle n’a cependant jamais signé ses portraits. Mais elle a signé deux grandes peintures religieuses, un Mariage mystique de sainte Catherine d’Alexandrie et un panneau intrigant et inhabituel représentant L’éducation de la Vierge. Ces deux panneaux mettent en scène des protagonistes féminines cultivées, sûres d’elles et élégantes, définies par leurs actions.

Ces peintures défient les idées contemporaines selon lesquelles les femmes artistes excellaient dans l’imitation mais n’avaient pas la capacité d’imaginer et de créer un sujet à partir de rien. Wautier signe ces tableaux « invenit et fecit », ce qui se traduit par « inventé et exécuté ». Elle revendique ainsi sa capacité à faire preuve d’imagination pour réaliser des œuvres importantes à grande échelle. Elle s’affirme en pleine maîtrise de son art, et cela n’est nulle part plus évident que dans la pièce maîtresse de l’exposition de la Royal Academy, son immense Triomphe de Bacchus.

Ici, Wautier s’attaque à la quintessence de la maîtrise artistique : un sujet mythologique à grande échelle qui figurait dans l’œuvre de ses contemporains les plus importants, tels qu’Andrea Mantegna, Titien et bien sûr l’artiste qui dominait le marché en Flandre et aux Pays-Bas, Peter Paul Rubens.

Le Triomphe de Bacchus de Wautier est plus imposant que celui de ses concurrents masculins, et elle parvient à y traiter le nu masculin central, très charnu, avec la grâce et l’élégance d’un Titien. Elle présente au spectateur l’image puissante d’un Bacchus alangui dans une brouette, entouré de ses disciples. Wautier peint une grande diversité de nus masculins dans des poses variées avec une aisance naturelle, et ce Bacchus la place définitivement dans l’histoire de l’art ; ce chef-d’œuvre semble conçu pour défier l’idée selon laquelle une femme ne peut pas peindre comme un homme.

Michaelina Wautier relève le défi d’un cran en y incluant de manière intrigante un autoportrait. Elle s’y représente comme une bacchante élégante aux seins nus, une disciple de Bacchus, vêtue d’une robe rose saumon, regardant le spectateur ; elle est la seule à le faire parmi la multitude de personnages représentés. La bacchante de Wautier se tient droite et fière, invitant le spectateur à la regarder. Mais c’est Wautier qui contrôle ce regard ; dans le tableau, un faune au teint jaunâtre tente d’attraper cette femme sûre d’elle, qui ignore son regard lubrique et ne prête pas attention à ses mains qui lui agrippent les cheveux. C’est elle qui mène la danse.


Michaelina Wautier est à l’affiche à la Royal Academy de Londres jusqu’au 21 juin 2026

The Conversation

Gabriele Neher ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Michaelina Wautier : une peintre du baroque flamand au talent époustouflant – https://theconversation.com/michaelina-wautier-une-peintre-du-baroque-flamand-au-talent-epoustouflant-282185

Pourquoi le gouvernement renonce à décentraliser

Source: The Conversation – in French – By Tommaso Germain, Chercheur en science politique, Sciences Po

La nouveau grand acte de décentralisation promis par Sébastien Lecornu n’aura pas lieu. Au contraire, une « recentralisation » en direction des préfets est à l’ordre du jour. Pourquoi la décentralisation, tant de fois annoncée, est-elle sans cesse ajournée ?


En octobre dernier, le premier ministre Sébastien Lecornu affichait une franche ambition : mettre en place un « grand acte de décentralisation » censé régler les problèmes liés à l’organisation territoriale de la République. Après quelques mois de réflexion, de concertation et une fois les élections municipales passées, le gouvernement a largement revu à la baisse cette ambition. Quelles sont les raisons de ce recul stratégique ?

Des promesses initiales à une réforme technique

Les annonces de septembre et d’octobre 2025 affichaient un cap audacieux : revoir l’ensemble des responsabilités entre l’État et les différentes collectivités territoriales. L’idée, déclarait le premier ministre, était d’avoir « un seul responsable par politique publique », qu’il s’agisse d’un ministre, d’un préfet, ou d’un élu local, afin de sortir de la confusion actuelle où plusieurs acteurs partagent des responsabilités.

La question de la décentralisation était au cœur du discours de politique générale du premier ministre, fait symbolique et solennel. L’enjeu financier était également au centre. Les rapports Woerth sur la décentralisation (2024) et Ravignon sur le coût du millefeuille territorial (2025) avaient mis en évidence le coût élevé de cet enchevêtrement de compétences et les élus locaux étant demandeurs d’une grande clarification et d’une sécurisation au sujet du « casse-tête » de l’autonomie financière.

Pourtant, parmi les différents scénarios analysés par le gouvernement, une option – moins ambitieuse qu’une véritable décentralisation (impliquant un transfert de pouvoir aux collectivités territoriales et à leurs élus) – consistait à miser sur une « déconcentration », désignant une réorganisation de l’action de l’État dans les territoires, sous l’égide du préfet.

Ce scénario n’a pas tardé à se concrétiser, comme en témoigne le texte transmis début avril au Conseil d’État. Ainsi, le terme de « décentralisation » ne figure plus dans le texte mis à l’ordre du jour. Le seul élément de décentralisation, très ciblé et proposé il y a quelques semaines de façon séparée, concerne la métropole du Grand Paris, qui fait l’objet d’un texte spécifique. Enlisée depuis des années, la MGP devrait évoluer soit vers une métropole plus intégrée, soit au contraire vers un affaiblissement visant à renforcer les établissements publics territoriaux qui la composent, ce qui revient à fragmenter la Métropole. Signalons qu’entre-temps, l’Assemblée nationale a soutenu la velléité de l’Alsace de quitter la région Grand Est pour réformer une région autonome – une forme de retour en arrière par rapport à la dernière réforme créant les grandes régions en 2016.

Des ambitieuses promesses initiales, il semblerait que le gouvernement se cantonne à une réforme essentiellement technique. Le texte se concentre en effet sur la consolidation du pouvoir des préfets. À travers le renforcement du pouvoir de substitution du préfet (si des carences sont « dûment constatées », le préfet peut se substituer à toute autorité locale temporairement), la réactivité de l’action publique semble l’axe privilégié. Cela s’inscrit dans l’anticipation de potentielles crises où une décision rapide s’impose, (domaine agricole, eau, énergie ou sécurité).

Sous couvert de décentralisation, l’exécutif opère donc une recentralisation discrète, transformant les collectivités en relais d’exécution. Ainsi, l’État pourra sélectionner et accélérer les projets jugés « utiles » – notamment industriels – par le biais d’un relais plus fort sur les opérateurs de service public et notamment sur les maires. Le droit de dérogation aux normes par les préfets, mis en place depuis quelques années, sortirait renforcé de la promulgation de ce texte. Certains chercheurs estiment d’ailleurs que ce droit de dérogation est constitutif d’une légalité néolibérale où la hiérarchie des normes est remise en question. En effet, le droit préfectoral permet de ne pas appliquer certaines normes, notamment environnementales. Introduire un système « à la carte », par la montée de ces mécanismes permettrait « de neutraliser la volonté législative sous couvert du discours managérial de la simplification ».

Temps politique, crise budgétaire et art français de gouverner

Pourquoi le grand projet de décentralisation annoncé en octobre a-t-il abouti à ce résultat ?

La première raison du revirement du gouvernement tient au temps politique. La réforme devait initialement intervenir avant les élections municipales et métropolitaines de mars 2026, ce qui s’est révélé irréaliste. Or, désormais, l’agenda politique, parlementaire et médiatique est structuré par l’élection présidentielle. Dans ce cadre contraint, avec un gouvernement technique dédié à stabiliser la vie publique, une réforme d’ampleur sur la décentralisation est quasiment impossible.

Au-delà de ce facteur politique et institutionnel, le revirement actuel peut s’expliquer par une situation territoriale et structurelle impossible à transformer en profondeur dans un cadre budgétaire si contraint. En effet, les finances publiques nationales justifient de nombreuses baisses de budgets, politiquement périlleuses, et ne permettent pas d’ouvrir les vannes financières pour permettre une véritable décentralisation.

Selon la ministre de l’Aménagement du territoire et de la décentralisation, Françoise Gatel, les élus locaux « ne veulent pas de décentralisation, ils veulent avant tout de la simplification ». Pour le gouvernement, les élus locaux attendent principalement l’allègement des normes, la simplification des différentes procédures administratives.

Cette demande de simplification est sans doute réelle et semble largement partagée parmi les acteurs publics et privés. Toutefois, les élus locaux continuent, dans leur majorité, de réclamer plus de décentralisation et d’autonomie financière : la simplification ne fait pas tout, c’est l’autonomie locale qui est le nerf de la guerre. In fine, le gouvernement semble donc vouloir faire porter aux élus la responsabilité du recul sur la réforme en les accusant implicitement de « défiance ».

En prenant du recul, cette réforme s’inscrit dans une tendance à l’œuvre depuis de nombreuses années : les gouvernements successifs font la promotion « d’actes » de décentralisation, livrent des annonces ambitieuses où l’élu local et les collectivités seraient placés au centre du système décisionnel et où le millefeuille territorial, complexe et coûteux, serait enfin rationalisé. Or, par le mécanisme de la négociation avec les associations d’élus locaux, qui fait apparaître une demande de décentralisation hétérogène et qui requiert un fort engagement budgétaire, ces annonces aboutissent souvent à un renoncement. Cela avait été le cas après les gilets jaunes avec la réforme de l’organisation territoriale de l’État. Cela avait été le cas en 2022 avec la loi 3DS qui était aussi un texte technique et de simplification, avec une décentralisation très accessoire.

En définitive, et en attendant un hypothétique texte supplémentaire, le paradoxe français n’en finit plus de se répéter : la « décentralisation » annoncée avec éloquence aboutit à une « recentralisation » stratégique.

The Conversation

Tommaso Germain ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Pourquoi le gouvernement renonce à décentraliser – https://theconversation.com/pourquoi-le-gouvernement-renonce-a-decentraliser-281723

Pourquoi l’hôtel Hilton de Washington relie Reagan et Trump : quand la violence devient une épreuve du pouvoir

Source: The Conversation – France in French (3) – By Florian Leniaud, Docteur en civilisation américaine. Membre associé au Centre d’histoire culturelle des sociétés contemporaines, Université de Versailles Saint-Quentin-en-Yvelines (UVSQ) – Université Paris-Saclay

La tentative d’assassinat qui a visé Donald Trump et ses ministres les plus importants le 26 avril dernier s’est produite à l’hôtel Hilton de Washington, devant lequel Ronald Reagan avait été grièvement blessé par balles 45 ans plus tôt. Ce parallèle invite à analyser la manière dont les attaques physiques qu’ils ont subies ont transformé l’image des deux présidents républicains, ainsi que les réponses qu’ils y ont apportées.


Quarante-cinq ans après la tentative d’assassinat contre Ronald Reagan du 30 mars 1981, une attaque visant Donald Trump vient de survenir au même endroit : l’hôtel Hilton de Washington.

Ce détail n’en est pas un, car il transforme un fait isolé en continuité. Le lieu devient une scène. La violence politique ne surgit plus seulement comme un événement, elle semble se rejouer, tout en reliant deux figures présidentielles au sein d’une même épreuve.

Un lieu qui transforme la violence en récit

En 1981, Reagan, qui avait eu le poumon perforé par une balle tirée à bout portant par John Warnock Hinckley, Jr., sort profondément renforcé de cet épisode. Les images de sa sortie d’hôpital, son humour face au danger mortel auquel il a été exposé et la mise en récit médiatique contribuent à installer durablement la figure d’un leader ayant traversé l’épreuve.

Quelques heures après avoir été touché, Reagan plaisante auprès de ses chirurgiens : « J’espère que vous êtes tous des Republicans ». La formule fait immédiatement le tour du pays et structure l’image d’un président courageux, maître de lui-même jusque dans la proximité de la mort.

Aujourd’hui, Trump — qui avait déjà vécu un moment similaire le 14 juillet 2024 lorsqu’il avait émergé, le poing brandi et l’oreille en sang, après avoir échappé à une tentative d’assassinat lors d’un meeting — apparaît dans une configuration différente mais comparable sur un point précis : l’exposition à la violence renforce une posture de leader assiégé. Depuis près de dix ans, son discours politique repose largement sur l’idée d’une Amérique menacée, encerclée par des ennemis intérieurs et extérieurs. Chaque attaque contribue dès lors à renforcer un récit déjà installé, celui d’un dirigeant pris pour cible parce qu’il incarnerait une forme de résistance politique.




À lire aussi :
Les États-Unis de l’après-Charlie Kirk, ou l’apogée de la polarisation affective


Dans les deux cas, l’événement ne se limite donc pas à un acte violent, puisqu’il est immédiatement intégré dans une narration politique. Or ce récit ne fonctionne pas seul. Il repose sur une médiatisation continue qui transforme la violence en séquence politique majeure. Si la violence fait l’événement, le récit médiatisé en fait un moment politique.

Un attentat prémédité dans un espace hautement symbolique

Les éléments désormais connus sur l’assaillant du 25 avril dernier, Cole Tomas Allen, confirment qu’il avait préparé son attaque de longue date. L’homme, âgé de 31 ans, avait traversé les États-Unis avec plusieurs armes et réservé une chambre au Hilton plusieurs semaines à l’avance. Selon les enquêteurs, il projetait de viser Donald Trump ainsi que plusieurs responsables politiques présents lors du dîner des correspondants de la Maison-Blanche.

Ses écrits, mélange de confession, de revendication politique et de message d’adieu, révèlent une accumulation de griefs personnels et politiques contre l’administration Trump. Les autorités indiquent également qu’il ne pensait pas survivre à son attentat, ce qui ancre son geste dans une logique sacrificielle relativement fréquente dans les violences de masse contemporaines.

Cette dimension est importante car elle éloigne l’idée d’un acte purement impulsif ou irrationnel. Les travaux consacrés aux auteurs de fusillades montrent des trajectoires souvent marquées par l’isolement social, des formes d’humiliation ou une quête de reconnaissance. Dans de nombreux cas, le passage à l’acte s’inscrit dans un environnement saturé de récits violents et fortement médiatisés.




À lire aussi :
Ce que l’on sait des tueries dans les écoles aux États-Unis et de leurs auteurs


La médiatisation ne constitue alors pas un simple relais d’information, car à travers la répétition des images et des noms des assaillants, elle peut contribuer, chez certains individus, à rendre ces actes réellement possibles, soit imaginables. À force d’être rejouée en boucle, la violence s’installe dans un horizon mental familier où le passage à l’acte peut apparaître comme un moyen brutal d’accéder à une forme de visibilité publique.

Le lieu comme scène politique

Le choix du lieu joue un rôle central dans cette dynamique. Les attaques ne surviennent pas dans des espaces neutres : écoles, centres commerciaux, universités, lieux de pouvoir ou bâtiments gouvernementaux concentrent visibilité et résonance médiatique. Ils fonctionnent comme des scènes ouvertes sur le pays tout entier.

Le Hilton de Washington agit à ce titre comme un espace de mémoire politique. Déjà associé à la tentative d’assassinat contre Reagan, il transforme instantanément l’événement en continuité historique. Ce lieu de mémoire produit du sens avant même l’interprétation politique et dépasse largement le geste individuel.

La comparaison d’Allen avec John Hinckley Jr. permet néanmoins de souligner des différences importantes. Hinckley agit dans une logique obsessionnelle très personnelle qui mêle fascination médiatique et fixation sur l’actrice Jodie Foster. Allen apparaît, quant à lui, engagé dans une démarche nettement plus politisée et idéologique. Pourtant, un point commun demeure : dans les deux cas, l’acte vise un espace hautement visible, aujourd’hui chargé de sens.

La violence politique contemporaine ne cible donc pas seulement des individus. Elle cible aussi des lieux, des symboles et des récits.

Une polarisation médiatique qui transforme immédiatement la violence en affrontement politique

Cette évolution ne peut être comprise sans replacer ces événements dans l’histoire récente du paysage médiatique américain. La présidence Reagan marque un tournant majeur avec la disparition progressive de la Fairness Doctrine à la fin des années 1980. Cette règle imposait jusque-là aux médias audiovisuels de traiter les sujets controversés de manière équilibrée.

Sa suppression ouvre progressivement la voie à un système médiatique beaucoup plus polarisé, où l’information devient un espace d’affrontement idéologique permanent. L’essor du talk radio conservateur, puis des chaînes d’information continue et des réseaux sociaux fragmente l’espace public américain en récits concurrents.




À lire aussi :
États-Unis : les médias conservateurs, acteurs clés de la campagne présidentielle


Dans ce contexte, chaque événement violent fait immédiatement l’objet d’interprétations opposées. Pour les soutiens de Trump, l’attaque confirme l’idée d’un dirigeant persécuté parce qu’il dérange une partie du système politique et médiatique. Pour ses opposants, l’attaque renvoie au contraire à un climat de tension politique auquel les discours de Trump et sa manière de polariser le débat public auraient contribué.

La violence cesse alors d’être seulement un drame partagé pour devenir un élément du combat politique, utilisé par chaque camp pour conforter sa propre lecture du pays, du pouvoir et de la menace.

Les armes à feu comme imaginaire politique

La question des armes à feu occupe une place centrale dans cette dynamique. Leur diffusion massive entretient un imaginaire politique fondé sur l’autodéfense et la menace permanente. Aux États-Unis, lorsque les armes ne relèvent pas de la sécurité ou du loisir, elles constituent un marqueur culturel et identitaire profondément enraciné dans une partie du conservatisme américain.

Ce système fonctionne en boucle : la peur favorise l’armement, tandis que l’omniprésence des armes rend la violence plus probable. Chaque nouvelle attaque engendre un sentiment d’insécurité qui justifie à son tour la possession d’armes.




À lire aussi :
Tueries de masse et sécurité dans les écoles américaines : l’armement des enseignants en question


C’est précisément dans cette tension entre culture des armes et expérience directe de la violence que la comparaison entre Reagan et Trump devient éclairante. Ronald Reagan, pourtant figure majeure du conservatisme américain et défenseur du deuxième amendement, avait progressivement infléchi sa position après avoir survécu à la tentative d’assassinat de 1981 lors d’une tribune écrite pour le New York Times. Dans les années 1990, après ses deux mandats, il soutient publiquement le Brady Act, texte renforçant les contrôles sur les ventes d’armes à feu — baptisé ainsi en hommage à James Brady, porte-parole de la Maison-Blanche grièvement blessé en même temps que le président le 30 mars 1981, et resté lourdement handicapé à la suite de ses blessures. Reagan reconnaît alors qu’un meilleur encadrement des armes aurait pu sauver des vies.

Donald Trump défend au contraire une ligne plus ferme en faveur du droit au port d’armes, y compris après avoir lui-même été visé. Cette différence traduit une transformation plus profonde du camp républicain : chez Reagan, la violence conduit partiellement à une forme de remise en question, alors que chez Trump elle vise davantage à renforcer un récit politique déjà raffermi autour du danger et de l’affrontement.

Quand le lieu survit à l’événement

L’attaque contre Donald Trump ne constitue pas un événement isolé. Elle survient dans un contexte plus large de polarisation politique et de violences visant des responsables publics aux États-Unis. L’assaut du Capitole en 2021 avait déjà révélé l’intensité d’une polarisation où une partie du conflit politique se déplace désormais sur le terrain physique et sécuritaire.

Mais le plus frappant reste peut-être la persistance du lieu lui-même. Quarante-cinq ans après Reagan, le Hilton de Washington réapparaît comme si certains espaces conservaient la mémoire des violences qui les ont traversés. Le lieu ne se contente plus d’accueillir l’événement : il lui donne une profondeur historique immédiate et relie plusieurs séquences de la vie politique américaine à travers une même scène.

De Reagan à Trump, les effets politiques diffèrent, mais une constante demeure : l’exposition à la violence peut renforcer la portée symbolique du pouvoir. Si la violence politique fait depuis longtemps partie de l’histoire américaine, sa médiatisation permanente et son inscription dans un paysage fortement polarisé lui donnent aujourd’hui une résonance particulière, où chaque attaque devient aussitôt un affrontement politique et médiatique qui dépasse largement l’événement lui-même..

The Conversation

Florian Leniaud est membre du Centre d’histoire et d’études culturelles rattaché à l’Université Paris-Saclay

ref. Pourquoi l’hôtel Hilton de Washington relie Reagan et Trump : quand la violence devient une épreuve du pouvoir – https://theconversation.com/pourquoi-lhotel-hilton-de-washington-relie-reagan-et-trump-quand-la-violence-devient-une-epreuve-du-pouvoir-282314

IASI-NG, la nouvelle mission trois-en-un pour l’étude de l’atmosphère terrestre

Source: The Conversation – in French – By Cyril Crevoisier, Chercheur au CNRS, observation spatiale du climat, École polytechnique

L’instrument IASI-NG a rejoint l’orbite terrestre le 12 août 2025 à bord d’Ariane 6. ESA-CNES-ARIANESPACE-Optique Viédo du CSG- S. Martin, CC BY-SA

Le satellite européen Metop-SG-A1 a été lancé depuis la base de Kourou à bord d’Ariane 6 le 12 août 2025, et les premières données ont été distribuées à la communauté scientifique ce 4 mai. À son bord, pas moins de six instruments dédiés à l’observation de l’atmosphère terrestre, parmi lesquels la mission-phare IASI-Nouvelle Génération (IASI-NG) du CNES.

À l’heure où les données sur le climat sont en danger, cette nouvelle génération d’instrument va suivre l’évolution de l’atmosphère terrestre pendant plus de 20 ans et servir de référence internationale pour le sondage vertical infrarouge de notre atmosphère.

Les satellites sont une composante majeure de l’étude et de l’observation de la Terre. Ils apportent à l’échelle globale les observations nécessaires afin de mieux comprendre et prévoir l’évolution de la planète, et de distinguer les effets induits par l’homme de ceux liés à la variabilité naturelle de la Terre. Au cours des trois dernières décennies, les observations satellitaires ont permis de surveiller en continu l’état de l’atmosphère terrestre. Les instruments spatiaux actuels alimentent ainsi les modèles de prévision météorologique, contribuent à l’évaluation du climat et surveillent les changements rapides dans la composition de l’atmosphère.

La mission IASI (pour « Interféromètre Atmosphérique de Sondage Infrarouge ») occupe une place essentielle dans ce domaine car elle permet de cartographier l’atmosphère et sa composition en 3D. IASI cumule désormais plus de dix-huit années d’observations grâce à la combinaison de trois instruments identiques lancés sur trois satellites successifs entre 2006 et 2018. Les deux derniers exemplaires sont toujours en activité.

Afin de garantir la continuité à long terme de ces observations, le CNES et EUMETSAT (l’agence européenne chargée de la surveillance satellite du climat et de la météorologie) ont lancé le développement de la mission IASI-NG.

Deux fois plus précise et deux fois plus performante que ses prédécesseurs, IASI-NG fournira pour 20 nouvelles années une meilleure description de la structure de l’atmosphère (température, humidité, gaz atmosphériques) notamment dans les premiers kilomètres de l’atmosphère, ce qui est essentiel pour réaliser une bonne prévision météorologique, étudier la qualité de l’air et les émissions de gaz à la surface.

Lancement du satellite Metop-SG-A1 à bord d’Ariane 6.

Le sondage atmosphérique dans l’infrarouge : une filière d’excellence française

Développé par le CNES en collaboration avec EUMETSAT, l’instrument IASI mesure le spectre du rayonnement infrarouge émis par la Terre. Celui-ci varie en fonction de la température et des gaz présents dans l’atmosphère, et c’est son analyse qui permet de cartographier l’atmosphère en 3D et donc de visualiser les vagues de chaleur ou de froid, les nuages de poussières désertiques ou encore les panaches de pollution par exemple.

IASI est un élément clé du système de surveillance mondial de l’atmosphère. Il contribue individuellement davantage que tout autre instrument spatial à la précision des prévisions météorologiques mondiales à 24 heures. Ses observations représentent ainsi 45 % des données utilisées pour réaliser les prévisions dans le système de Météo-France.

De plus, grâce à IASI, la communauté scientifique a démontré la possibilité d’observer plus de trente composants atmosphériques, y compris des gaz qui n’avaient jamais été observés depuis l’espace auparavant, tel l’ammoniac.

IASI permet aussi de mesurer les concentrations de dioxyde de soufre émis par les éruptions volcaniques, qui participent au réseau de surveillance qui alerte les compagnies aériennes en cas d’éruption.

Enfin, IASI permet de mesurer l’évolution de seize variables climatiques essentielles pour suivre l’évolution du climat : gaz à effet de serre, nuages, aérosols.

IASI est ainsi un contributeur clé aux services européens Copernicus, le programme européen de surveillance intégrée de l’environnement basé sur des réseaux de surveillance in situ, sur l’observation spatiale et sur la mise en œuvre de modèles numériques. En reconnaissance de ses performances instrumentales exceptionnelles, IASI a été choisi comme référence internationale pour les mesures dans l’infrarouge par l’Organisation Météorologique Mondiale, contre laquelle toutes les autres missions spatiales du même type doivent se calibrer.

Les objectifs de IASI-NG

La mission IASI-NG vise à améliorer significativement les performances de IASI. Elle est embarquée sur les satellites européens Metop-SG-A dont trois lancements sont prévus de 2025 à 2039.

Ainsi, en couplant IASI et IASI-NG, quarante années d’observation du rayonnement infrarouge terrestre seront disponibles pour étudier l’évolution de l’atmosphère sur une échelle climatique.

De plus, grâce à ses performances instrumentales accrues, IASI-NG fournira une meilleure description de la température et de l’humidité, notamment dans les premiers kilomètres de l’atmosphère, ce qui est essentiel pour réaliser une bonne prévision météorologique. Ainsi, par exemple, IASI-NG améliorera la prévision des tempêtes, en termes de localisation et de suivi, mais également en termes de niveaux de précipitations.

Alors que les instruments IASI en service détectent déjà plus de 30 molécules de gaz différents (gaz à effet de serre, ammoniac, ozone, monoxyde de carbone), IASI-NG va encore enrichir ce catalogue, tout en observant mieux les basses couches de l’atmosphère ce qui est essentiel pour mieux prévoir les épisodes de pollution ou de soulèvement de poussières désertiques.

Enfin, IASI-NG permettra de mieux connaître le positionnement vertical de ces différents composants atmosphériques (gaz, particules), ce qui permettra de mieux contraindre les modèles de transport atmosphérique qui sont à la base des modèles de prévision météorologique et des modèles du climat.

La mission IASI-NG.

Une innovation technologique pour une première mondiale

IASI et IASI-NG mesurent le spectre du rayonnement infrarouge émis par le système Terre-atmosphère. À l’aide d’algorithmes numériques de traitement du signal, les spectres sont interprétés en termes de variables géophysiques (température, concentration de gaz).

Lors de la conception d’un nouvel instrument, il est nécessaire de trouver un compromis entre différents paramètres instrumentaux — par exemple, avoir un spectre mieux résolu avec un meilleur échantillonnage en fréquences augmente le bruit associé à la mesure. Le défi consiste donc à optimiser le choix des paramètres instrumentaux afin d’améliorer la résolution verticale et la précision des sondages.

Pour IASI-NG, une amélioration d’un facteur deux de la résolution spectrale et du bruit radiométrique par rapport à IASI a été choisie. Pour y parvenir, la solution est d’augmenter le champ d’observation de l’instrument. Mais l’instrument reçoit alors un rayonnement à un angle d’incidence élevé par rapport à son axe, ce qui altère le spectre mesuré.

La conception de IASI-NG a donc nécessité une innovation technologique pour compenser ces « effets de champ » : la réalisation d’un interféromètre de Mertz. Ce concept est pour la première fois déployé dans le cadre d’une mission spatiale. Le mécanisme interférométrique central est particulièrement innovant et a été breveté par le CNES et Airbus Defence and Space, maître d’œuvre de l’instrument.

Depuis sa mise en orbite, IASI-NG mesure plus de 1,3 million de spectres infrarouges par jour, sur terre et sur mer, de jour comme de nuit, avec un délai de réception par les centres de prévision météorologique et les laboratoires de recherche de moins de 120 minutes. Après une phase classique de « calibratrion/validation », durant laquelle le CNES s’est assuré du bon fonctionnement technique et des derniers réglages, la distribution des observations de IASI à la communauté scientifique débute début avril.

Plus qu’une simple continuation de IASI, les performances accrues et innovantes de IASI-NG en feront un atout pour les sciences atmosphériques pour les prochaines décennies dans trois domaines majeurs, la prévision numérique du temps, la composition atmosphérique et l’étude du climat.

The Conversation

Cyril Crevoisier a reçu des financements de projets et bourses de recherche de l’Agence Nationale de la Recherche, du Centre National d’Etudes Spatiales, de l’Agence Spatiale Européenne et de l’Agence Spatiale Européenne pour les Satellites Météorologiques.

Adrien Deschamps travaille au CNES qui a la responsabilité du développement de IASI-NG et a assuré sa maitrise d’ouvrage

ref. IASI-NG, la nouvelle mission trois-en-un pour l’étude de l’atmosphère terrestre – https://theconversation.com/iasi-ng-la-nouvelle-mission-trois-en-un-pour-letude-de-latmosphere-terrestre-262373

Stimuler l’odorat peut-il être bénéfique pour le cerveau ?

Source: The Conversation – in French – By Coline Zigrand, Candidate au doctorat en neuropsychologie, Université du Québec à Montréal (UQAM)

Une simple odeur diffusée pendant le sommeil peut-elle améliorer votre odorat, votre mémoire ou même la qualité de votre sommeil ? De nouvelles recherches explorent les bienfaits de la stimulation olfactive passive.

Une personne sur cinq présente une perte ou une diminution de l’odorat. Celle-ci peut survenir à la suite de différentes conditions, dont une infection respiratoire, une sinusite, une infection de type Covid-19, un traumatisme crânien, une maladie neurodégénérative ou une exposition à des produits chimiques.

Invisible, elle réduit fortement la qualité de vie.

Les personnes touchées peuvent s’isoler par crainte de sentir mauvais, ressentir de l’anxiété, perdre l’envie de manger ou modifier leur alimentation. La sécurité quotidienne est aussi compromise, puisque détecter la fumée, le gaz ou des aliments avariés devient plus difficile. Enfin, cette perte peut nuire à certaines professions, comme chef, parfumeur ou sommelier pour qui l’odorat est un véritable outil de travail.

Le traitement principal de la perte olfactive consiste en un « entraînement olfactif ». Tous les jours, matin et soir, le protocole consiste à s’exposer à des odeurs différentes pendant environ 30 à 40 secondes par odeur.

Les limites de la stimulation olfactive

Bien que les effets bénéfiques de la stimulation olfactive soient documentés par plusieurs études, le taux d’abandon est élevé. Effectivement, pour être efficace, l’entraînement olfactif requiert deux séances par jour pendant trois mois minimum. Cette routine répétitive est contraignante et certains abandonnent avant d’en voir les bénéfices.

Pour combler cette lacune, des chercheurs ont proposé une solution simple et accessible : la stimulation olfactive passive. Elle consiste à exposer le cerveau à des odeurs variées de manière continue, même durant le sommeil.

Un remodelage du cerveau

Sans effort et sans médicament, cette pratique nocturne intrigue de plus en plus les neuroscientifiques en raison de ses bienfaits. En effet, certaines études montrent une amélioration de la mémoire, une meilleure qualité du sommeil et même des changements anatomiques au niveau cérébral.

Ces effets reposent sur la plasticité cérébrale, c’est-à-dire la capacité du cerveau à se remodeler en fonction des expériences et apprentissages. En sentant des odeurs, nous activons et stimulons le système limbique du cerveau, une région clé qui régule les émotions et la mémoire. Malgré un champ de recherche en pleine expansion, cette approche demeure peu connue du grand public. Ses effets bénéfiques sur le cerveau pourraient améliorer la qualité de vie de nombreuses personnes, d’autant plus que les plaintes de mémoire, de sommeil ou d’odorat augmentent avec l’âge.




À lire aussi :
Vous aimez dormir avec votre animal de compagnie ? La science révèle qu’il y a un compromis délicat à trouver


Un « booster » de mémoire

L’odeur d’une tarte au sucre sortant du four peut suffire à raviver un souvenir d’enfance chez grand-mère. Véritable madeleine de Proust, ce phénomène illustre le lien intime entre l’odorat et la mémoire.

Une étude publiée dans Frontier in Neuroscience a exposé un groupe d’adultes en santé âgés de 60 à 85 ans à une odeur différente chaque nuit, soit sept odeurs en rotation sur une semaine, pendant six mois. Leurs résultats montrent une amélioration de 226 % de leur mémoire verbale comparativement à un groupe d’adultes non exposés.

Au niveau cérébral, les chercheurs ont rapporté une augmentation du faisceau unciné gauche, une sorte d’autoroute de communication entre les régions du cerveau impliquées dans la mémoire et l’apprentissage. Le fait que cette structure soit positivement modifiée par la stimulation olfactive passive laisse sous-entendre que les effets ne seraient pas qu’éphémères.

Ainsi, la stimulation olfactive pourrait agir comme un véritable « booster » pour la mémoire des personnes âgées. Cependant, bien qu’encourageants, ces résultats nécessitent d’être confirmés par d’autres études, notamment en raison de la petite taille de l’échantillon.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Bienfaits sur le sommeil

Les odeurs et le sommeil sont intimement liés, et ce depuis des millénaires. Déjà dans l’Égypte ancienne, nos ancêtres brûlaient de l’encens de myrrhe pour protéger les dormeurs des cauchemars. Aujourd’hui, la recherche suggère que la stimulation olfactive pratiquée au moment de l’endormissement et durant la nuit pourrait effectivement améliorer le sommeil.

Le sommeil est crucial pour le bon fonctionnement de notre santé physique et mentale. Au sens large, le sommeil permet à notre corps de récupérer, de réguler les émotions et d’éliminer les déchets métaboliques accumulés durant la journée ainsi que soutenir le système immunitaire. C’est également un moment clé pour consolider les souvenirs, en transformant les informations fraîchement apprises en mémoires à long terme. Or, en vieillissant, notre sommeil devient plus fragmenté, contient plus d’éveils et nous rapportons généralement un sommeil de moindre qualité.




À lire aussi :
Mieux dormir, un facteur de protection contre la démence


Une méta-analyse regroupant plusieurs études démontre que certaines odeurs peuvent améliorer la qualité du sommeil des personnes insomniaques. La lavande, l’écorce d’orange et la rose sont les odeurs les plus étudiées, bien que leurs effets thérapeutiques respectifs restent encore peu connus.

Dans la même lignée, une étude pilote a montré que la diffusion nocturne de l’odeur de lavande pouvait améliorer à la fois le sommeil perçu et certains indices objectifs du sommeil mesurés par EEG. Comparativement à une nuit sans odeur, la nuit avec odeur de lavande était associée à un meilleur bien-être au réveil, à une diminution des perturbations du sommeil, ainsi qu’à une augmentation du sommeil lent profond (N3) et de l’activité delta, un marqueur de sommeil plus profond et récupérateur.

Ces résultats restent préliminaires, mais suggèrent qu’une stimulation olfactive passive durant la nuit pourrait favoriser un sommeil de meilleure qualité.

Par où commencer ?

Pas besoin d’équipement sophistiqué pour s’initier à la stimulation olfactive passive. Voici quelques pistes :

  • Sentir un parfum, des huiles essentielles chaque matin ou soir sur les vêtements.

  • Utiliser un diffuseur ou un parfum d’ambiance dans votre pièce de vie.

  • S’exposer à des odeurs différentes.

  • Sentir au minimum 4 odeurs différentes. Chaque type durant environ 30 s dans chaque narine, 2 fois par jour pendant 3 à 6 mois.

Pour préparer notre corps à s’endormir, on tamise la lumière, on cherche le silence, on enfile des vêtements amples. On mobilise sans même s’en rendre compte presque tous nos sens. Alors, pourquoi ne pas y ajouter une odeur apaisante avant de fermer les yeux ?

La Conversation Canada

Coline Zigrand a reçu des financements de Fonds de recherche du Québec en Santé (FRQS).

Benoît Jobin reçoit du financement des Instituts de recherche en santé du Canada (IRSC).

ref. Stimuler l’odorat peut-il être bénéfique pour le cerveau ? – https://theconversation.com/stimuler-lodorat-peut-il-etre-benefique-pour-le-cerveau-278265

Réduire les pesticides : quelles conséquences économiques pour les filières agro-alimentaires ?

Source: The Conversation – France (in French) – By Julie Subervie, Directrice de recherche, Inrae

Taxe sur les pesticides, diffusion des pratiques agroécologiques, interdiction d’importer des produits cultivés avec des pesticides non-utilisés en France… Les pistes pour permettre une nette baisse de l’utilisation des pesticides sont nombreuses, mais toutes n’ont pas les mêmes effets attendus sur les rendements et les revenus des agriculteurs.


Depuis près de vingt ans, la France cherche à réduire l’utilisation des pesticides à travers une succession de mesures et de plans qui n’ont pour l’instant pas atteint leurs objectifs initiaux. Cette réduction reste toujours un objectif car les impacts dommageables des pesticides sur la santé humaine comme sur la biodiversité sont de plus en plus confirmés par les travaux scientifiques récents. En outre, l’efficacité des pesticides peut s’éroder avec le temps et le changement climatique tend à augmenter leur utilisation. Mais peut-on atteindre en France une baisse significative de l’utilisation des pesticides sans nuire aux filières agroalimentaires ?

Deux stratégies qui s’opposent

Pour bien comprendre quelles seraient les conséquences possibles d’une réduction des pesticides, commençons d’abord par voir les différentes options plébiscitées pour cela, telles qu’elles ont été mises en lumière par les récents débats sur la loi Duplomb.

Les défenseurs de cette loi estiment qu’il sera possible, à terme, de développer des solutions technologiques permettant de rendre l’agriculture conventionnelle plus vertueuse et moins dépendante des intrants chimiques. Ils misent notamment sur les avancées génétiques, avec des cultures capables de se protéger elles-mêmes, contre les maladies notamment. Mais le développement de ces solutions exige encore du temps et des investissements lourds.

Ces solutions soulèvent également des débats majeurs sur la brevetabilité du vivant, l’impact sur la biodiversité et la concentration du pouvoir économique dans les mains de quelques acteurs du secteur de l’agrochimie où, à l’extrême, tous les agriculteurs pourraient être contraints à acheter leurs semences à la même multinationale.

Les opposants à la loi Duplomb défendent une stratégie opposée, reposant sur l’arrêt immédiat ou très rapide de l’utilisation des pesticides les plus dangereux. Dans cette perspective, la transition ne doit pas être principalement technologique, mais agroécologique, ce qui suppose de repenser en amont l’organisation même des systèmes de culture, des systèmes de production, et plus globalement des systèmes alimentaires.

Au niveau de la production, cela passe par diverses actions préventives (aussi appelées prophylactiques), telles que la diversification de la succession des cultures et l’utilisation de variétés résistantes ou tolérantes. C’est dans cette voie que s’est engagée la France il y a plus de quinze ans, avec le plan Écophyto, mis en place à la suite du Grenelle de l’environnement de 2007 et en cohérence avec la Directive 2009/128/CE du Parlement européen et du Conseil.

Force est de constater que, malgré les efforts déployés, les résultats n’ont pas été à la hauteur des objectifs fixés : l’indicateur NODU (qui mesure l’intensité du recours aux pesticides en agriculture) n’a pas évolué à la baisse comme escompté.

Taxer les pesticides

Alors quels autres instruments économiques aurait-on pu mettre en place ? Pour répondre à cette question, des simulations ont été réalisées visant à estimer l’impact d’une taxe sur les pesticides, fixée à un niveau suffisamment élevé pour inciter les agriculteurs à réduire de moitié leur utilisation en Europe. Cette idée faisait écho à celle d’un projet de règlement de la Commission européenne en 2024, finalement abandonné.

L’étude a été calibrée à partir de données relatives aux comportements observés dans les filières agricoles françaises et des autres états membres pendant plus de trente ans, qui montrent que les achats de pesticides réagissent peu aux variations de prix, sauf lorsque celles-ci deviennent très importantes. Autrement dit, les agriculteurs ne basculeront pas spontanément vers des alternatives comme la protection agroécologique des cultures si l’incitation économique n’est pas particulièrement forte.

Les résultats des simulations montrent qu’une forte taxe sur les pesticides, combinée à un soutien découplé au revenu des agriculteurs, c’est-à-dire indépendant de leur niveau de production comme les actuelles aides de la Politique Agricole Commune, aurait deux effets majeurs largement sous-estimés dans les études précédentes : une baisse de la production végétale de 26 % (expliquée par une baisse des rendements de 16 % et une réduction de la surface agricole dédiée aux cultures non fourragères de 10 %) d’une part ; une hausse du prix des produits alimentaires pour les consommateurs de l’ordre de 15 % d’autre part.

La diffusion des innovations agroécologiques

Il convient toutefois d’interpréter ces résultats peu enthousiasmants avec prudence. Premièrement, ces simulations reposent en effet sur l’hypothèse que les systèmes de production resteraient inchangés, autrement dit à technologie constante.

Or, dans la réalité, les agriculteurs peuvent s’adapter. L’adoption d’innovations agroécologiques permettrait d’atténuer, au moins en partie, les effets d’une hausse des prix des pesticides, si ces innovations se diffusaient largement dans les exploitations. Sur ce point, l’expérience française est éclairante : depuis 2012, un réseau de 3000 fermes pilotes accompagne cette transition, et des travaux récents montrent que les pratiques innovantes testées ont déjà généré des résultats mesurables, y compris à l’échelle nationale, grâce à une forte dynamique d’apprentissage entre agriculteurs au sein de leurs réseaux de pairs.

Changer règles des échanges commerciaux

Deuxièmement, les résultats de ces simulations sont obtenus sous l’hypothèse que les règles aux échanges commerciaux ne seraient pas modifiées. Or, elles pourraient l’être. Il convient en effet de rappeler que près de la moitié des pesticides consommés dans l’UE provient des importations, qui ne représentent pourtant que 16 % de la consommation totale.

Ces chiffres invitent à considérer l’opportunité de mettre en place des clauses miroirs, c’est-à-dire des dispositions dans les accords commerciaux bilatéraux permettant de régir les échanges de produits agricoles et agroalimentaires pour une meilleure performance environnementale et sans pertes économiques importantes. Une étude récente montre en effet qu’une forte réduction des pesticides en Europe n’impliquerait pas nécessairement une trop forte baisse des revenus agricoles si les usages interdits en Europe étaient aussi interdits pour les produits importés.

Toutes ces études convergent vers un même constat : réduire fortement l’utilisation des pesticides suppose des politiques publiques ambitieuses, pérennes et accompagnées d’un soutien aux agriculteurs, et impliquant l’ensemble des acteurs du système agroalimentaire.

Enfin, si la transition agroécologique apparaît coûteuse à court terme, ce diagnostic doit être complété à deux niveaux : d’une part en intégrant les coûts cachés de la pollution agricole (sanitaires, environnementaux et sociaux) ; d’autre part en évaluant les bénéfices de tous les instruments économiques susceptibles d’atténuer les coûts de la transition.

The Conversation

Julie Subervie a reçu des financements de l’Agence Nationale de La Recherche pour le projet FAST — Faciliter l’Action Publique pour Sortir des pesTicides (ANR-20-PCPA-0005).

Jean-Noël Aubertot a bénéficié de financements issus d’Écophyto, de l’Agence nationale de la recherche (ANR) et de programmes européens dédiés à la recherche.

Raja Chakir a reçu des financements de l’Agence Nationale de la Recherche (projets CLAND ANR-16-CONV-0003 et FAST ANR-20-PCPA-0005) ainsi qu’un financement du programme de recherche et d’innovation Horizon Europe de l’Union européenne (projet LAMASUS n° 101060423).

Alexandre Gohin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Réduire les pesticides : quelles conséquences économiques pour les filières agro-alimentaires ? – https://theconversation.com/reduire-les-pesticides-quelles-consequences-economiques-pour-les-filieres-agro-alimentaires-280843

TotalEnergies ne « gagne » pas d’argent en France : le rôle des prix de cession interne

Source: The Conversation – France (in French) – By Benjamin Bournel, Maitre de conférences en Sciences de Gestion (spécialité comptabilité), Université de Poitiers

Alors que TotalEnergies a engrangé plus de 19 milliards de dollars de bénéfices en 2023, ses filiales françaises affichent des résultats bien plus modestes. Ce paradoxe est le produit d’un mécanisme méconnu du grand public, mais central dans la fiscalité des multinationales : les prix de cession interne. Comprendre ce dispositif, c’est aussi comprendre pourquoi les États peinent à taxer les grandes entreprises à la hauteur de leur puissance réelle. Une question que les débats autour d’un éventuel impôt sur les « surprofits » viennent relancer.


Note de l’auteur : cet article présente des structures d’entreprises et des mécanismes généraux comptables. Il ne vise en aucun cas à établir que TotalEnergies commet des irrégularités fiscales.

Imaginez une entreprise dirigée depuis la France, qui extrait du pétrole en Afrique, puis raffine en France et distribue dans toute l’Europe. On pourrait s’attendre à ce que cette entreprise paie une part importante de ses impôts en France, là où une grande partie de son activité se déroule. Pourtant la réalité n’est pas toujours là, et ce n’est pas (toujours) illégal.

Le mécanisme en cause s’appelle les prix de cession interne, ou prix de transfert. Il désigne les prix auxquels les différentes filiales d’un même groupe se facturent mutuellement des biens, des services ou des actifs. En apparence technique, ce dispositif est en réalité au cœur d’un enjeu politique et économique majeur : qui, au sein du groupe, paie l’impôt ? Combien paie chacune de ses entités ? Et où « choisit »-on de les payer ?




À lire aussi :
La transparence fiscale des entreprises commence dans les conseils d’administration


Constellation d’entreprises

Un groupe multinational comme TotalEnergies n’est pas une seule entreprise. C’est une constellation de plusieurs centaines de filiales, fonctionnant comme des entités à part entière, réparties dans des dizaines de pays, qui échangent en permanence entre elles. Ces échanges sont inévitables : le pétrole brut extrait par une filiale doit être ensuite vendu à celle qui le raffine, les technologies développées par une autre seront utilisées par d’autres et le tout, grâce à des financements circulant d’une entité à une autre.

Or, chaque fois que deux filiales d’un même groupe se facturent quelque chose, un prix doit être fixé. Et ce prix – le prix de cession interne – a une conséquence directe sur la localisation des profits du groupe : si une filiale vend très cher à une autre, elle l’enrichit comptablement à ses dépens. Et, qui dit profit, dit impôts sur les sociétés. Fixer les prix de transfert, c’est donc, en partie, choisir dans quel pays le groupe va payer ses impôts.

En théorie, ce choix est encadré. Les règles internationales établies par l’OCDE imposent que ces prix respectent le principe dit de « pleine concurrence » : les filiales d’un groupe doivent se facturer comme elles le feraient sur le marché, ou bien en fonction des prix pratiqués sur le marché par d’autres entreprises indépendantes. En pratique, l’application de ce principe est très complexe.

De l’Angola à la Normandie en passant par la Suisse

Prenons un exemple concret : un baril de pétrole brut est extrait par une filiale de TotalEnergies en Angola. Il doit ensuite être vendu à la filiale de raffinage, par exemple celle de Normandie. Cependant, entre les deux, les flux financiers passent par une société de trading, dont le siège se situe à Genève.

Pourquoi Genève ? La Suisse applique une fiscalité particulièrement favorable aux sociétés de négoce international. La filiale de trading achète donc le pétrole brut à bas prix à la filiale d’extraction, et le revend à prix plus élevé à la filiale de raffinage française. La marge commerciale – parfois substantielle – est ainsi captée en Suisse, où elle sera faiblement taxée, plutôt qu’en France ou en Angola.

Pour la filiale française, elle achète sa matière première à un prix élevé. Ses coûts de production sont alors plus importants, sa marge est comprimée et présente ainsi un résultat modeste, voire nul, et paie peu d’impôt sur les sociétés en France.

Le cas des actifs intangibles

Ce schéma n’est pas propre au marché du pétrole. Il se retrouve dans tous les secteurs où les multinationales opèrent : le numérique (avec les terres rares, ou les composants), la pharmacie (avec les brevets sur les médicaments) ou encore la grande distribution (avec les marques et enseignes ou les centrales d’achat).

Si les prix de transferts sur les biens physiques sont déjà difficiles à contrôler, le problème est encore plus important avec les actifs intangibles, qu’il s’agisse de brevets, de marques, de logiciels, de données, d’algorithmes… Ces actifs n’ont pas de prix de marché observable. Les multinationales ont donc toute latitude pour loger ces actifs dans des filiales situées dans des pays à faible fiscalité – Irlande, Luxembourg, Pays-Bas, etc. – et faire payer des redevances à toutes les autres filiales du groupe. Chaque redevance versée est une charge déductible pour la filiale qui la paie (réduisant ainsi le bénéfice imposable), et un revenu pour la filiale qui la reçoit (plus faiblement taxé).

Des milliards de manque à gagner

L’économiste Gabriel Zucman, professeur à l’École d’économie de Paris, a récemment estimé que 40 % des profits des multinationales mondiales sont artificiellement déplacés vers des pays à fiscalité réduite, représentant plusieurs milliards de manques à gagner pour les états.

Face à ces pratiques, les États ne restent pas inactifs. En France, l’administration fiscale peut contrôler les prix de cession interne des entreprises et les requalifier si elle estime qu’ils ne respectent pas le principe de pleine concurrence. Mais ce contrôle se heurte à une réalité pointée par la Cour des comptes dans son rapport sur le contrôle fiscal des grandes entreprises : l’administration fiscale rencontre des difficultés structurelles, notamment un manque de ressources humaines, pour faire face à la sophistication croissante de l’optimisation fiscale.

France 24 – 2026.

Au niveau international, deux grandes initiatives sont à relever. Le projet BEPS (Base Erosion and Profit Shifting) de l’OCDE, lancé en 2013, a produit une série de recommandations visant à mieux encadrer les prix de transfert et à obliger les multinationales à déclarer leurs profits par pays : le Country-by-Country Reporting. Ces déclarations, pays par pays, désormais obligatoires dans l’Union européenne, permettent aux administrations de mieux identifier les écarts suspects entre les pays où sont déclarés les profits et ceux où l’activité économique a réellement lieu.

Une solution : l’impôt mondial ?

Plus récemment, l’accord sur un impôt mondial minimum de 15 % sur les bénéfices des multinationales, conclu en 2021 et progressivement mis en œuvre au sein de l’UE depuis 2024, représente une avancée importante. En fixant un plancher fiscal universel, il réduit mécaniquement l’intérêt de déplacer des profits vers des pays aux fiscalités avantageuses.

Enfin, il est important de préciser qu’il serait inexact de présenter TotalEnergies – et de manière générale, toutes les multinationales recourant à cette pratique – comme des entreprises hors la loi, recourant à de l’évasion fiscale. Dans leur grande majorité, ces pratiques sont légales, encadrées par des règles que les entreprises respectent scrupuleusement. Le problème se situe davantage sur les règles elles-mêmes, insuffisantes, incomplètes et souvent interprétables.

Les prix de cession interne ne sont pas une anomalie du système : ils en sont un produit logique. Tant que les États fixeront des taux d’imposition différents et que les multinationales opéreront dans plusieurs juridictions, la tentation de déplacer des profits existera.

The Conversation

Benjamin Bournel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. TotalEnergies ne « gagne » pas d’argent en France : le rôle des prix de cession interne – https://theconversation.com/totalenergies-ne-gagne-pas-dargent-en-france-le-role-des-prix-de-cession-interne-282105

Pesticides : mieux les évaluer pour mieux protéger notre santé et limiter la contamination de l’air, des eaux et des sols

Source: The Conversation – France in French (3) – By Cécile Chevrier, Epidemiologie, Inserm

Dans le cadre du paquet législatif « Omnibus X – Sécurité alimentaire et alimentation animale », la Commission européenne propose de simplifier les procédures d’autorisation de mise sur le marché des pesticides, alors que les données scientifiques montrent une contamination généralisée de la population mais aussi de l’air, des eaux et des sols. La décision de la Commission européenne irait à rebours du nécessaire renforcement de l’évaluation des pesticides afin de protéger la santé humaine et limiter la pollution de l’environnement.


Comment un pesticide est-il évalué et mis sur le marché ? Pourquoi les pesticides peuvent-ils présenter des risques pour la santé et l’environnement alors que leurs usages sont autorisés ? On fait le point.

Qu’est-ce qu’un pesticide ?

Un pesticide (pest- : nuisible ; -cide : tuer) est utilisé pour contrôler et/ou tuer les organismes vivants que nous considérons nuisibles pour nos activités, telles que l’agriculture, mais aussi la protection du bois, les transports, ou la lutte contre les moustiques.

Cependant, un pesticide peut présenter un risque pour des organismes a priori non ciblés s’il entre en contact avec eux. Par exemple, certains insecticides agissent sur l’insecte ciblé par des mécanismes de neurotoxicité communs à d’autres organismes, comme les abeilles ou l’espèce humaine. Être en contact avec un pesticide présente donc un risque potentiel qu’il faut pouvoir identifier et maîtriser.

Comment un pesticide est-il actuellement autorisé ?

Dans le langage réglementaire, les pesticides utilisés notamment sur les cultures pour notre agriculture sont appelés plus positivement : produits phytopharmaceutiques (pharmaco- pour médicaments ; phyto- pour plantes), c’est-à-dire produits de protection des plantes.

Un peu d’histoire… Nous utilisons des pesticides depuis des siècles. C’est en 1978 que l’Europe démarre un processus d’harmonisation avec une liste commune de produits interdits, prenant conscience du danger qu’ils peuvent représenter pour la santé humaine.

En 1991, s’opère un changement de paradigme important avec l’établissement d’une « liste positive » (en d’autres termes, tout produit-pesticide doit être autorisé avant d’être mis sur le marché), l’implication des industriels dans la preuve de l’innocuité des produits qu’ils commercialisent, et la considération de la protection de l’environnement (Directive 91/414/CEE du Conseil du 15 juillet 1991 concernant la mise sur le marché des produits phytopharmaceutiques)

Aujourd’hui, c’est le Règlement européen (CE) No 1107/2009 qui régit la mise sur le marché des produits phytopharmaceutiques. Cette évaluation des risques a priori impose une série de tests que l’industriel doit conduire pour évaluer les propriétés toxicologiques, environnementales et écotoxicologiques de la substance-pesticide qu’il souhaite introduire ou réintroduire sur le marché européen.

L’EFSA (Autorité européenne de sécurité sanitaire des aliments) évalue la conformité des tests réalisés par les industriels et de leurs résultats, et réalise l’évaluation des risques en vue de l’approbation (ou non) de la substance par la Commission européenne. Puis, pour le cas de la France, c’est l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) qui autorise (ou non) les produits commerciaux contenant cette substance et ses coformulants et qui définit des conditions d’usage possibles pour une bonne protection des utilisateurs et de l’environnement.

Finalement, selon les termes du règlement, l’autorisation est obtenue s’il n’y a « aucun effet nocif sur la santé humaine ou animale » (c’est-à-dire si les risques sont considérés comme « maîtrisés » avec notamment l’identification d’une dose sans effet), « ni aucun effet inacceptable sur l’environnement » (ce qui ne signifie pas qu’il n’y a pas d’effet).

En outre, « pour des raisons de sécurité » dixit le règlement, l’autorisation d’une substance ne peut qu’être limitée dans le temps (jusqu’à 15 ans maximum). La substance doit faire l’objet de réévaluations afin de prendre en compte l’évolution des lignes directrices des tests réglementaires ainsi que des connaissances scientifiques. Pour résumer, les substances doivent être réévaluées périodiquement et de façon de plus en plus complète.

Une évaluation réglementaire nécessaire mais incomplète

L’évaluation a priori est nécessaire car elle permet dans un cadre commun européen d’éviter la mise sur le marché de pesticides fortement nocifs pour la santé humaine et animale et/ou dangereux pour l’environnement. Toutefois, elle est insuffisante par construction, car elle ne teste pas les conditions réelles d’usage et d’exposition.

Prenons un exemple : de récents travaux montrent que la moitié des enfants français de 3,5 ans ont été en contact avec plus de 68 pesticides différents en seulement quelques mois (les résultats ont été obtenus par des mesures dans les cheveux). Or il n’existe pas de « tests réglementaires » ni de conditions de laboratoire qui permettent de reproduire cette exposition multiple et répétée et d’étudier les risques associés, à plus ou moins long terme, dans la vie de l’enfant.

Un autre exemple décrit la présence de pesticides en cours d’utilisation dans des zones très éloignées des traitements (au niveau du pôle Nord, en montagne, etc.), qui est révélatrice d’une persistance atmosphérique non anticipée par l’évaluation a priori actuelle, et potentiellement à risque pour ces écosystèmes lointains.

Le mode d’évaluation actuel des pesticides se révèle peu réactif face aux nouvelles connaissances scientifiques. Plus de dix années ont en effet été nécessaires pour que l’EFSA (Autorité européenne de sécurité sanitaire des aliments) publie, en 2023, la version finalisée du document-guide dédié à l’évaluation des risques pour les abeilles. Et celui-ci n’est toujours pas mis en application… alors que la science continue à avancer en parallèle.

Enfin, dans les faits, il est plus simple pour les autorités en charge de l’évaluation de la conformité des tests d’invalider des données scientifiques non conformes au cadre réglementaire que de remettre en question l’ensemble du processus d’évaluation des risques.

Des observations de contamination environnementale et risques associés aux pesticides qui s’accumulent

Une fois un pesticide mis sur le marché, il est essentiel de mettre en place des études pour surveiller a posteriori, en conditions réelles, à court, moyen et si possible long termes, les potentiels effets indésirables non identifiés a priori.

En France, les études de surveillance environnementale mettent en évidence depuis plusieurs décennies une contamination quasi généralisée de l’environnement, « en ville » comme « à la campagne » au niveau des eaux, des sols et de l’air. Cette surveillance est majoritairement issue d’initiatives d’acteurs associatifs et académiques et largement dépendante de financements publics. Un grand nombre de ces données est accessible en ligne.

Un large corpus d’autres études observationnelles issues de la recherche académique, conduites dans la population humaine ou animale, a permis de conclure à l’existence d’un risque pour la santé humaine, en particulier pour les utilisateurs des produits-pesticides et les enfants, et de risques pour la biodiversité et ses fonctions écosystémiques, pourtant elles-mêmes essentielles aux activités agricoles.




À lire aussi :
Pesticides et santé : les agriculteurs ont été, sont et seront les principales victimes de ces substances


On ne peut plus nier aujourd’hui que le système tel qu’il a été construit implique la présence de risques non maîtrisés pour la santé et pour les écosystèmes. Certains sont reconnus en France puisque ces connaissances scientifiques consolidées ont aidé aux systèmes de réparation des victimes professionnelles, à la sensibilisation des utilisateurs, des préventeurs (c’est-à-dire les professionnels de la prévention, ndlr).

Un système de vigilance vis-à-vis des risques des pesticides à consolider

Comme pour les médicaments, il existe en France un système de vigilance vis-à-vis des « effets indésirables » des pesticides observés a posteriori (c.-à-d., après leur mise sur le marché). Ce dispositif de phytopharmacovigilance (ou PPV), piloté par l’Anses, est unique en Europe, mais reste peu connu et insuffisamment encouragé. Sa mission initiale est d’identifier les effets indésirables pour faire évoluer les dossiers réglementaires à l’échelle nationale, en proposant des modifications aux autorisations des produits-pesticides.

Les données de surveillance environnementale et la littérature scientifique constituent des sources d’informations importantes. Un bilan des 10 ans d’activités de phytopharmacovigilance démontre l’utilité et le succès de ce système.

Par exemple :

  • une contamination inattendue de cultures non traitées par le prosulfocarbe, une substance active très employée en France en tant qu’herbicide, a conduit à durcir les conditions d’emploi (en l’occurrence, les traitements ont été interdits dans un rayon de 1 km de productions agricoles sensibles prêtes à être récoltées) ;

  • les situations de non-conformité des eaux (caractérisées par des taux supérieurs à un seuil de référence) ont conduit à des réductions de doses d’emploi autorisées du S-métolachlore, une autre substance herbicide ;

  • des situations nouvelles peuvent aussi constituer un signal à gérer, par exemple la mesure dans les eaux de l’acide trifluoroacétique, un composé appartenant à la famille des PFAS.

Cependant, ces signaux préoccupants pris en charge ne sont que l’« arbre qui cache la forêt ». De fait, ce dispositif de vigilance n’identifie pas comme signal la contamination des milieux ou l’exposition de la population générale, pourtant régulièrement observées, banalisant ainsi cette connaissance. L’absence de seuil de référence sanitaire, souvent difficile et long à déterminer, écarte aussi la possibilité d’un signal de vigilance. C’est notamment le cas de l’observation ubiquitaire de traces d’insecticides pyréthrinoïdes dans les urines de la population française depuis plus de 10 ans.

De plus, comme l’évaluation a priori, le système de vigilance actuel n’est pas conçu pour considérer la problématique d’une exposition à des mélanges. Ainsi, si l’on reprend l’exemple cité plus haut, la moitié des enfants français seront encore longtemps exposés à plus de 68 pesticides.

Enfin, une fois identifié, le signal est transmis aux acteurs décisionnaires. Mais sa gestion dépend de la compréhension et de la sensibilité de ces acteurs face à ces connaissances.

Une banalisation des contaminations environnementales et des expositions humaines préoccupante

Les connaissances montrent une complexité croissante des contaminations environnementales ainsi que des risques directs et indirects pour la santé humaine, animale et des écosystèmes. La banalisation de cette connaissance est préoccupante. Elle est devenue pour certains acteurs une normalité et engendre un risque croissant de régression des politiques publiques.

Une simplification des procédures d’évaluation a priori des risques des pesticides est ainsi à contresens du besoin. Il est illusoire de penser que les coûts économisés par cette simplification seraient supérieurs aux coûts des conséquences multiples et complexes sur la santé et l’environnement.

Au contraire, l’évolution continue à la lumière des nouvelles connaissances scientifiques et des nouvelles pratiques agricoles, de ces systèmes d’évaluation a priori et a posteriori des risques, ainsi que leur rapprochement, sont nécessaires pour préserver la santé de tous.


Ont contribué à la rédaction de cet article : Brice Appenzeller (Luxembourg Institute of Health, Luxembourg), Carole Bedos (UMR ECOSYS, Université Paris-Saclay, INRAE, AgroParisTech, Palaiseau, France), Rémi Béranger (UMR1085 Inserm, Université Rennes, Irset, Rennes, France), Aurélie Berthet (Centre universitaire de médecine générale et santé publique, Unisanté, Lausanne, Suisse), Cécile Chevrier (UMR1085 Inserm, Université Rennes, Irset, Rennes, France), Fleur Delva (U1219 Inserm, Université de Bordeaux, Bordeaux Population Health Center, ISPED, Bordeaux, France), Marc Gallien (ULR 4477, Université Littoral Côte d’Opale, Université Lille), Emmanuelle Kesse-Guyot (U1153 Inserm, U1125 INRAE, CNAM, Université Sorbonne Paris Nord, CRESS, Bobigny, France), Laure Mamy (UMR ECOSYS, Université Paris-Saclay, INRAE, AgroParisTech, Palaiseau, France), Christian Mougin (UMR ECOSYS, Université Paris-Saclay, INRAE, AgroParisTech, Palaiseau, France), Maryline Pioz (INRAE, UR406 Abeilles et Environnement, Avignon, France).

The Conversation

Activité d’expertise à l’Anses

Activité d’expertise à l’Anses

Christian Mougin est membre de l’Académie d’Agriculture de France. Il a une activité d’expertise à l’Anses.

Laure Mamy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Pesticides : mieux les évaluer pour mieux protéger notre santé et limiter la contamination de l’air, des eaux et des sols – https://theconversation.com/pesticides-mieux-les-evaluer-pour-mieux-proteger-notre-sante-et-limiter-la-contamination-de-lair-des-eaux-et-des-sols-282323