Léonard de Vinci, intelligence éclectique et autodidacte, côté sciences et techniques

Source: – By Pascal Brioist, Professeur des Universités. Spécialiste de Léonard de Vinci, des sciences et des techniques à la Renaissance, de l’Angleterre du XVIe et du XVIIe siècle., Université de Tours

Voler comme les oiseaux en battant des ailes, ou l’ornithoptère de Léonard de Vinci, conçu vers 1495. Copyright Artes Mechanicae., Fourni par l’auteur

Léonard de Vinci est incontesté comme peintre et comme inventeur, depuis la Joconde jusqu’à ses machines volantes. Ce que l’on sait moins, c’est qu’il a aussi proposé de nombreuses contributions en sciences et, de façon toujours aussi éclectique, a touché à la physique, à la géologie et à la botanique de son temps. Ces contributions montrent comment l’artiste toscan a pu accéder à des connaissances pointues bien qu’il ait été exclu des circuits traditionnels de diffusion des connaissances, en particulier de l’université.


Considéré par le philosophe Pierre Duhem, en 1900, comme le chaînon manquant entre la Science médiévale et la Science moderne, Léonard de Vinci a été depuis parfois jugé incapable d’avoir eu accès aux savoirs scientifiques et d’avoir été un piètre savant. En effet, sa naissance illégitime l’empêcha de fréquenter l’université (celle-ci était interdite aux enfants illégitimes). Certains experts ont même essayé de le cantonner au rôle de technicien et sont allés jusqu’à critiquer les machines qu’il dessina en soulignant qu’elles étaient de simples reprises de celles de prédécesseurs ou en les qualifiant d’impossibles.

Aujourd’hui cependant, l’examen attentif des écrits du Toscan prouve qu’au contraire, celui-ci avait trouvé des biais pour avoir accès à la culture qui lui était refusée et, mieux encore, avait été capable de remettre en cause par l’expérience des savoirs scolastiques – en trouvant des savants qui pouvaient lui expliquer ce à quoi il n’avait pas accès directement, par exemple le mathématicien Luca Piacioli pour accéder à Euclide, ou le médecin de Pavie Marcantonio della Torres pour comprendre les idées de Galien.

dessin de char d’assaut par un prédecesseur de léonard
Les travaux de Léonard de Vinci s’inscrivent à la suite de ceux de ses prédécesseurs. Ici un char d’assaut de Kyeser, dessiné en 1405.
Bellifortis, 1405, numérisé et rendu disponible par l’Archimedes Project

Dans le domaine de la technologie, certes, il s’inspirait d’ingénieurs médiévaux comme l’architecte Filippo Brunelleschi ou les ingénieurs le Taccola et Francesco di Giorgio, mais il les dépassa en inventant une méthode de réduction en art de la mécanique (qui consiste à avoir une approche analytique de la mécanique en identifiant sur le papier tous les éléments simples, comme les engrenages, cames, échappements, ressorts, pour pouvoir composer des combinatoires agençant ces éléments de machines), en perfectionnant le dessin technique et en s’inspirant du vivant pour des machines volantes.

Ainsi, il est à l’origine de grandes percées dans les domaines multiples dans lesquels il excella – même si ses textes restèrent manuscrits jusqu’en 1883, ce qui l’empêcha de léguer ses découvertes.

De l’observation du monde aux concepts de physique

Si l’on commence par la physique, celui qui n’avait été formé ni à l’aristotélisme, ni aux théories d’Archimède, fut tout de même capable, sur le tard, capable de se faire expliquer les principes de la science de l’antiquité (comme les quatre puissances de la nature : mouvements, poids, force et percussion) et de parcourir les traités de base en latin.

Ainsi, il était parfaitement au courant de la théorie de l’antipéristase et de celle, médiévale, de l’impetus. La première disait qu’un corps lancé continue à avancer parce que l’air qui est devant lui est propulsé derrière lui et alimente la poussée. Léonard récuse cette idée en acceptant le concept d’impetus : ce qui pousse le corps, c’est une qualité d’impulsion conférée au projectile. Léonard le démontre par une expérience où il tire avec une arquebuse dans une gourde (si l’antipéristase fonctionnait, l’eau de la gourde empêcherait la balle de poursuivre sa trajectoire, ce qui n’est pas le cas).

À propos d’un autre concept de physique, celui des frottements, Léonard prouve là encore par l’étude des faits que celui-ci est proportionnel non à la surface de contact mais au poids de l’objet.

Léonard, passionné par les tourbillons, explore aussi le champ de l’hydraulique et de l’aérodynamique, on lui doit l’intuition des turbulences, des vortex de surface et des vortex profonds, des tourbillons induits, etc.




À lire aussi :
De la physique à la météo, une petite histoire de la turbulence



Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Dans le domaine de l’optique, Léonard s’inspire du mathématicien, physicien et médecin du XIe siècle Alhazen, de son vrai nom Ibn al-Haytham, est un auquel on doit une théorie moderne de l’optique, incluant des réflexions physiologiques sur l’œil, et l’introduction des mathématiques dans les sciences physiques. Grâce à la traduction d’Erasmus Vitello – Vitellion en français, un moine de Silésie du XIVe siècle, commentateur d’Alhazen et auteur d’un traité de perspective –, il étudie l’œil et les rayons lumineux qu’il considère comme émis par l’objet pour créer dans la rétine des simulacres.

tableau
La Vierge aux rochers, entre 1483 et 1486.
Léonard de Vinci, au Louvre

Il construit même une « boîte noire » (ou camera obscura, sorte de caméra primitive) pour simuler ce phénomène.

Excellent cartographe, Léonard est aussi un remarquable géologue qui théorise le rôle de l’eau dans l’érosion, comprend les empilements de couches géologiques et explique l’origine des fossiles.

Enfant élevé à la campagne, il s’intéresse aussi à la botanique, dessinant toutes sortes de plantes mais cherchant aussi les règles de leur croissance. Le tableau de la Vierge aux Rochers constitue un véritable herbier virtuel.

L’anatomie, bien au-delà de l’« Homme de Vitruve »

Le domaine de l’anatomie est assurément celui où le maître est allé le plus loin. À partir de nombreuses lectures, il perfectionne les méthodes de dissection en collaborant avec des médecins de Florence, de Pavie (comme le galéniste Marcantonio Della Torre) et de Rome, produisant des dessins du corps et de ses parties d’une précision ahurissante.

Mieux encore, il découvre par des expérimentations le principe de la circulation du sang en tourbillons dans les valves aortiques, propose des interprétations du fonctionnement du système uro-génital, du système respiratoire ou du système digestif et étudie les relations du fœtus et de la matrice.

Pour comprendre l’anatomie du cerveau, et le lien entre les sens et la mémoire, il coule de la cire dans les cavités cérébrales et découpe des crânes.

Léonard et les mathématiques

C’est peut-être dans les mathématiques que Léonard fut le plus faible, malgré sa collaboration avec le Franciscain Luca Pacioli pour lequel il dessine les polyèdres de la Divina Proportione. Il n’empêche que les mathématiques ne cessent de l’inspirer et qu’il est convaincu que la nature est animée par des règles géométriques et arithmétiques.

manuscrit
Dessin de Léonard de Vinci représentant la raison géométrique de la croissance des branches d’arbres, entre 1487 et 1508.
E-Leo, archive numérique des dessins de Léonard de Vinci



À lire aussi :
« La recherche de la beauté est l’une des motivations principales du chercheur »


L’approche scientifique de Léonard l’amène à produire un certain nombre de traités aujourd’hui perdus mais auxquels il fait souvent allusion comme un traité sur l’eau, un traité sur le vol des oiseaux ou un traité sur les éléments de machines.

Baigner dans les inspirations des ingénieurs de son temps

Si l’on n’a guère retenu les apports de Léonard dans les sciences, en revanche, son activité d’ingénieur et d’inventeur constitue un élément clé de sa légende.

Là encore, l’activité du Toscan témoigne d’une curiosité tous azimuts dans les arts mécaniques : grues et machines de chantiers, écluses et machines hydrauliques, machines textiles, machines de fonderie, pompes, machines de guerre, machines de théâtre, automates, machines volantes…

dessin
La première description connue de parachute, vers 1470, précède de peu la description de Léonard de Vinci.
Anonyme, MS 34113, f. 200v, British Library

Le chimiste Marcelin Berthelot, au début du XXe siècle, fut le premier à s’apercevoir que bien des machines de Léonard étaient inspirées du Moyen Âge. Le principe du char d’assaut, par exemple, était déjà là dans le Bellifortis, de Konrad Kyeser (1366-1406), et bien des engins de siège proposés par Léonard de Vinci à Ludovic Sforza, dans une lettre de motivation, étaient décrits par Roberto Valturio en 1472 dans le De arte militari.

Le principe du parachute avait été aussi exposé dans un manuscrit siennois de la première moitié du XVe siècle.

En ce temps où la propriété intellectuelle n’est pas vraiment stabilisée, il est fréquent que les ingénieurs reprennent les idées de leurs prédécesseurs ou de leurs contemporains. Ainsi, une scie mécanique hydraulique d’ingénieurs siennois reprend des usages techniques de moines médiévaux, et Francesco di Giorgio des idées de Brunelleschi pour des navires à aubes.

Ainsi, les carnets de Léonard sont remplis de croquis d’engins de levage ou de bateaux à aubes de Brunelleschi, de moulins et d’engrenages de Francesco di Giorgio Martini ou encore de mécanismes d’horlogerie de Della Volpaia. Il n’est pas toujours facile d’attribuer l’invention d’une machine dessinée par Léonard à ce dernier car il copie ce qui l’entoure — ce qu’il concède volontiers, par exemple quand il dit qu’un dispositif anti-frottement pour les cloches lui a été suggéré par un serrurier allemand nommé Giulio Tedesco.

Certains chercheurs, hypercritiques, en ont conclu que Léonard n’avait jamais construit une seule machine. C’est aller trop vite en besogne car certaines machines sont attestées par plusieurs témoins – les ambassadeurs de Ferrare ou de Venise, ou encore des contemporains florentins : un lion automate, par exemple, un compteur d’eau, des ponts autoportants, des mécanismes de théâtre…

De plus, quand Léonard recommande à ses apprentis de se méfier des espions qui pourraient voir ses essais de machines volantes depuis le tambour de la cathédrale de Milan ou quand il reproche à des mécaniciens allemands d’avoir copié à Rome ses projets de miroirs incendiaires, il est évident qu’il parle d’artefacts concrets.

Pour autant, tous les schémas de projets n’ont pas nécessairement été réalisés ; ce que l’on devine lorsqu’on essaye de les reconstituer… et qu’ils ne fonctionnent pas (par exemple, les engrenages d’un char d’assaut qui feraient aller les roues arrière et avant de l’appareil en sens contraire).

De plus, des machines textiles (fileuses, métiers à tisser, batteuses de feuilles d’or, tondeuses de bérets) incroyablement sophistiquées présentent des problèmes de résistance des matériaux qui rendent leur survie improbable.

Les apports effectifs de Léonard aux technologies du XVᵉ siècle

dessins de Léonard
La machine automobile de Léonard, vue de haut et en perspective.
folio 812r du Codex atlanticus, dans e-Leo, archives numériques des œuvres de Léonard de Vinci

L’apport de Léonard de Vinci aux technologies est d’abord une approche méthodologique. Ainsi par exemple, dans son Traité des éléments de machines, le Toscan s’est attaché à réduire la mécanique en éléments simples (leviers, manivelles, vis, cames, ressorts, échappements, engrenages, etc.) pour pouvoir en mathématiser les effets et élaborer des combinatoires. Tout est alors question de timing, par exemple pour les fileuses automatiques, les métiers à tisser, les batteurs d’or, les machines à tailler les limes ou les polisseurs de miroirs. Vitesse et puissance fonctionnent en proportion inverse et le chercheur s’émerveille des vertus des vis et des engrenages.

Son autre apport est une élaboration nouvelle du dessin technique combinant vue de dessus, vue de profil, axonométries et éclatés.

Enfin, Léonard étonne par son investigation de domaines nouveaux, comme le vol, utilisant l’observation de la nature pour trouver des solutions mécaniques à des problèmes inédits.

Les limites du travail de Léonard sont évidentes – en mathématiques, par exemple – mais contrairement à ce que disent les critiques qui soulignent les déficiences de sa formation, elles l’amènent souvent à dépasser la tradition.


L’exposition « Léonard de Vinci et le biomimétisme, s’inspirer du vivant », dont Pascal Brioist est commissaire, est visible au Clos Lucé, à Amboise (Indre-et-Loire), du 7 juin au 10 septembre 2025.


Pour en savoir plus sur Léonard de Vinci et sa vie à contre-courant, le livre de Pascal Brioist Les Audaces de Léonard de Vinci, aux éditions Stock (2019).

The Conversation

Pascal Brioist a reçu des financements de la région Centre. J’ai reçu autrefois une APR pour un spectacle sur Marignan

ref. Léonard de Vinci, intelligence éclectique et autodidacte, côté sciences et techniques – https://theconversation.com/leonard-de-vinci-intelligence-eclectique-et-autodidacte-cote-sciences-et-techniques-258007

Science, éducation, médias : quels rôles pour les climatologues aujourd’hui ? Conversation avec Éric Guilyardi

Source: – By Éric Guilyardi, Directeur de recherche au CNRS, Laboratoire d’océanographie et du climat, LOCEAN, Institut Pierre-Simon Laplace, Sorbonne Université

Éric Guilyardi est océanographe et climatologue, spécialiste de modélisation climatique. Il s’intéresse tout particulièrement au phénomène climatique El Niño. Il a été auteur principal du 5e rapport du GIEC et a contribué au 6e. Il anime également une réflexion sur l’éthique de l’engagement public des scientifiques. Ce grand entretien, mené par Benoît Tonson, est l’occasion de mieux comprendre les liens entre l’océan et le climat et de réfléchir à la place du scientifique dans les médias et plus généralement dans la société, au moment où se tient la troisième Conférence des Nations unies sur l’océan (Unoc 3) à Nice.


The Conversation : Quels sont les liens entre le climat et l’océan ?

Éric Guilyardi : Le climat résulte de nombreuses interactions entre les composantes de ce que l’on appelle le « système Terre », dont l’atmosphère, l’océan, les surfaces continentales et la cryosphère (toutes les portions de la surface des mers ou terres émergées où l’eau est présente à l’état solide). L’océan est au cœur du système Terre car c’est son principal réservoir d’énergie. Les deux premiers mètres de l’océan contiennent en effet autant d’énergie que les 70 km de la colonne atmosphérique qui la surplombe ! Profond en moyenne de 4 000 mètres son immense inertie thermique en fait un gardien des équilibres climatiques. Par exemple, dans les régions au climat océanique, cette inertie se traduit par moins de variations de température, que ce soit dans une même journée ou à travers les saisons. L’océan est également un acteur des variations lentes du climat. Par exemple, le phénomène El Niño sur lequel je travaille, résulte d’interactions inter-annuelles entre l’océan et l’atmosphère qui font intervenir la mémoire lente de l’océan, située dans le Pacifique tropical ouest, vers 400 mètres de profondeur. Allant chercher une mémoire plus en profondeur, l’océan est également source de variations lentes qui influencent le climat depuis l’échelle décennale (mémoire vers 1 000 mètres de profondeur) jusqu’à des milliers d’années (entre 2 000 et 4 000 mètres).

L’océan joue un rôle fondamental dans le changement climatique, à la fois parce qu’il permet d’en limiter l’intensité, en absorbant à peu près un quart des émissions de carbone que l’activité humaine envoie dans l’atmosphère (via la combustion des énergies fossiles).

L’océan est donc notre allié, puisqu’il permet de limiter les impacts du changement climatique, mais il en subit également les conséquences. Sous l’effet de l’augmentation de la température, l’eau se dilate, elle prend plus de place et le niveau de la mer monte. La moitié de l’augmentation du niveau marin global (4 mm/an et environ 20 cm depuis 1900) est due à cette dilatation thermique. L’autre vient de la fonte des glaciers continentaux (en montagne, mais aussi de la fonte des calottes polaires en Antarctique et au Groenland).


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Dans le couple océan-atmosphère, l’atmosphère c’est un peu le partenaire nerveux, qui va vite : une dépression, qui se crée par exemple au nord du Canada, traverse l’Atlantique, arrive en Europe et disparaît au-dessus de la Sibérie aura une durée de vie de quelques semaines. Les structures équivalentes dans l’océan sont des tourbillons plus petits mais plus lents qui peuvent rester cohérents pendant des années, voire des dizaines d’années.

Vous avez commencé à évoquer El Niño, qu’est-ce que c’est ?

É. G. : Ce sont les pêcheurs sud-américains qui ont donné le nom d’El Niño a un courant chaud qui est présent tous les ans au moment de Noël le long des côtes du Pérou et du Chili (d’où « l’Enfant Jésus », El Niño en espagnol). Le reste de l’année, et en « année normale », des eaux froides et riches en nutriments remontent des profondeurs, faisant de cette région une des plus poissonneuses de la planète.

Mais certaines années, le courant chaud reste toute l’année – cela devient une année El Niño et la pêche s’arrête, un signal que l’on retrouve dans les registres de pêche depuis des siècles.

Alors qu’est-ce qu’il se passe ? Dans le pacifique, les années « normales » (Fig. 1), des alizés soufflent d’est en ouest. Ces vents font remonter des eaux froides venant des profondeurs à la fois le long de l’équateur, dans l’est, mais aussi le long des côtes du Pérou et du Chili. L’eau chaude des tropiques s’accumule à l’ouest, autour de l’Indonésie et du nord de l’Australie.

Schéma de la différence entre une année normale et une année El Niño. La thermocline est la zone sous-marine de transition thermique rapide entre les eaux superficielles (chaudes) et les eaux profondes (froides).
Fourni par l’auteur

Certaines années, des anomalies peuvent perturber ce système. Cela peut venir d’une anomalie de température vers le centre du Pacifique, par exemple sous l’effet de coup de vent d’ouest, des vents qui vont contrer les alizés pendant un moment. Si on a moins de différence de température, on a moins d’alizés, donc moins de remontée d’eaux froides. De l’eau plus chaude va s’étendre dans l’est et amplifier l’anomalie initiale. Le système s’enraye, les alizés s’affaiblissent et des anomalies de température de plusieurs degrés Celsius apparaissent dans d’immenses régions du Pacifique central et du Pacifique Est. Ces perturbations vont durer un an et c’est ce que l’on appelle un événement El Niño.

Aujourd’hui, on comprend bien les mécanismes de base de ce phénomène, on sait prévoir les impacts pour le bassin pacifique ainsi que pour les nombreuses régions de la planète que El Niño influence. On sait que l’anomalie se produit à intervalles irréguliers (tous les trois à sept ans). Le dernier a eu lieu en 2023-2024.

On parle également de La Niña, qu’est-ce que c’est ?

É. G. : C’est la petite sœur d’El Niño, dont les impacts sont en miroir puisque l’on assiste à des anomalies froides dans le Pacifique central et Est, liées à des alizés plus forts, au lieu d’anomalies chaudes. On peut la décrire comme une année normale avec des alizés plus forts. Ce n’est pas un miroir parfait car El Niño a tendance à être plus fort et La Niña plus fréquent.

Depuis quand travaillez-vous sur ce sujet ?

É. G. : J’ai d’abord fait une thèse sur les échanges océan-atmosphère à partir du milieu des années 1990. À cette époque, il n’existait pas encore de modèle climatique global en France. On en avait un qui simulait l’atmosphère, et un autre, l’océan. Mon premier travail a donc consisté à « coupler » ces deux modèles. J’ai commencé à m’intéresser au phénomène El Niño lors d’un postdoctorat dans un laboratoire d’océanographie (le LODYC, ancêtre du LOCEAN). J’ai poursuivi mes recherches à l’université de Reading en Grande-Bretagne avec des spécialistes de l’atmosphère tropicale. En effet, pour comprendre El Niño, il faut s’intéresser à la fois à l’atmosphère et à l’océan. À cette époque, je développais des simulations informatiques et j’analysais comment ces simulations représentaient le phénomène El Niño.

On a vraiment assisté à de grandes avancées depuis les années 1990. Non seulement nous arrivons à représenter El Niño dans ces modèles, mais la prévision saisonnière opérationnelle permet aujourd’hui de prévoir El Niño six neuf mois à l’avance. C’est-à-dire qu’on a suffisamment bien compris les mécanismes et que nous disposons d’un réseau d’observation de qualité.

Une des découvertes à laquelle j’ai contribué, à la fois importante et étonnante, a été de démontrer le rôle prépondérant de l’atmosphère dans la définition des caractéristiques d’El Niño. Pendant longtemps, nous avons considéré qu’un phénomène qui arrive tous les 3 à 7 ans était principalement une question d’océan et d’océanographe, car liée à la mémoire lente de l’océan.

Grâce à des modèles toujours plus précis, nous nous sommes en fait rendu compte que l’atmosphère jouait un rôle dominant, en particulier à travers le rôle des vents, des flux de chaleur, de la convection atmosphérique et des nuages associés.

Pourquoi est-ce si important d’étudier ce phénomène en particulier ?

É. G. : El Niño est la principale anomalie interannuelle du climat à laquelle les sociétés et les écosystèmes doivent faire face. On a vu l’impact sur la pêche au Pérou ou au Chili. Aujourd’hui, la décision d’armer ou non les flottes de pêche de ces pays dépend des prévisions saisonnières d’El Niño, d’où leur importance.

Il y a d’autres impacts liés à ce que nous appelons des « téléconnections », c’est-à-dire des sortes de ponts atmosphériques qui connectent les anomalies du Pacifique tropical aux autres régions du globe, en particulier dans les tropiques. Par exemple, en Indonésie, une année El Niño particulièrement marquée peut diviser la récolte de riz par deux. Il y a aussi de nombreux impacts en l’Afrique, en particulier en Afrique de l’Est : des inondations pendant El Niño, des sécheresses pendant La Niña, avec des impacts humanitaires très sévères dans des pays déjà vulnérables. Les agences humanitaires utilisent aujourd’hui les prévisions saisonnières pour pouvoir anticiper ces événements extrêmes et leurs impacts. Il y a aussi des impacts en Californie, qui voit ses précipitations augmenter pendant El Niño et diminuer pendant La Niña, amplifiant les impacts de la sécheresse liée au changement climatique.

On lie souvent ces événements extrêmes au changement climatique, peut-on faire un lien direct entre El Niño et le changement climatique ?

É. G. : Il y a trois aspects à retenir sur les liens avec le changement climatique : l’un avéré, un autre qui est une question de recherche et enfin un aspect trompeur. Celui qui est avéré vient du fait qu’une atmosphère plus chaude contient plus d’humidité. Donc quand il pleut plus, il pleut encore plus du fait du réchauffement climatique. Pendant El Niño, il y a par exemple des précipitations intenses dans certaines régions qui étaient plutôt sèches, par exemple le Pacifique central ou les côtes du Pérou et du Chili. Il y en a d’autres en Afrique centrale et de l’est, comme nous l’avons vu aussi. Donc ces événements extrêmes vont être plus extrêmes du fait du réchauffement climatique. Ce premier aspect est bien documenté, en particulier dans les rapports du GIEC.

La seconde question qui se pose est de savoir si El Niño lui-même va changer. Est-ce que son intensité, sa fréquence, sa localisation vont évoluer ? Cela reste une question de recherche. Il y a une série d’études basées sur des résultats de modélisation qui suggère que la fréquence des événements les plus forts pourrait augmenter. Mais il faut rester prudent car ces simulations numériques, fiables à l’échelle saisonnière, ont encore des biais à plus long terme. Il reste de nombreuses questions dont la communauté scientifique s’empare avec énergie.

Enfin, l’aspect trompeur est de penser qu’El Niño accélère le changement climatique. C’est d’abord une confusion d’échelle de temps : El Niño modifie la température planétaire d’une année sur l’autre alors que le réchauffement la modifie dans le temps long (décennies). Ensuite, il est arithmétiquement compréhensible qu’El Niño modifie la température moyenne car le Pacifique tropical représente un quart de la surface de la planète. Mais cela ne veut pas dire que la température augmente de façon durable sur le reste du globe. La focalisation de la communication climatique sur la température moyenne annuelle et d’éventuels records une année particulière encourage cette confusion.

Comment prévoit-on El Niño ?

É. G. : Aujourd’hui les systèmes de prévisions opérationnels, par exemple à Météo-France ou au Centre européen de prévision à moyen terme en Europe ou à la NOAA aux USA, prévoient ce phénomène environ 6 à 9 mois à l’avance. Un réseau d’observation couvre le Pacifique tropical composé essentiellement de bouées fixes et dérivantes et de satellites. Ce réseau permet de mesurer la température, les courants et les autres paramètres qui vont permettre d’établir avec précision l’état actuel de l’océan qui est la base d’une prévision de qualité. On va ainsi pouvoir détecter l’accumulation de chaleur dans le Pacifique Ouest, qui se traduit par une anomalie de température de plusieurs degrés vers 300 mètres de profondeur, et qui est un précurseur d’El Niño.

Cette condition nécessaire n’est pas suffisante car il faut un déclencheur, en général une anomalie de vent d’Ouest en surface. Le fait que celle-ci soit plus difficile à prévoir explique la limite de prévisibilité à 6 à 9 mois.

Par exemple, en 2014, Le système était rechargé en chaleur en profondeur et les prévisions indiquaient une forte probabilité d’El Niño cette année-là… qui n’a pas eu lieu car l’atmosphère n’a pas déclenché l’événement. Il a fallu attendre 2015 pour avoir El Niño et évacuer cette chaleur accumulée vers les plus hautes latitudes.

Les enjeux de recherche actuels, issus des besoins de la société, sont de prévoir plus finement le type d’El Niño. Va-t-il être plutôt fort ou plutôt faible ? Sera-t-il localisé plutôt dans l’Est du Pacifique ou plutôt dans le centre ? Les enjeux de prévision sont importants puisque les impacts ne seront pas les mêmes.

On le voit, vos travaux ont un impact sur certaines grandes décisions politiques, vous avez fait partie des auteurs du cinquième rapport du GIEC, cela vous a également exposé au système médiatique, comment l’avez-vous vécu ?

É. G. : J’ai d’abord pensé qu’il était important de partager ce que nous scientifiques savons sur le changement climatique, donc j’y suis allé. Sans être forcément très préparé et cela a pu être un peu rock’n’roll au début ! Ensuite, grâce à des media training, j’ai mieux compris le monde des médias, qui a des codes et des temporalités très différents de ceux du monde de la recherche. Depuis, les sollicitations viennent en fait de toute part, elles ne sont pas que médiatiques. En ce qui me concerne, j’ai décidé de principalement m’investir dans l’éducation, à travers la présidence de l’Office for Climate Education, qui a pour mission d’accompagner les enseignants du primaire et du secondaire pour une éducation au climat de qualité et pour toutes et tous. C’est un engagement qui fait sens.

Je suis également engagé dans une réflexion sur le rôle du scientifique dans la société. Nous avons créé un groupe de réflexion éthique au sein de l’Institut Pierre-Simon Laplace pour échanger collectivement sur ces enjeux science-sociéte et les différentes postures possibles.

Cette réflexion était essentiellement individuelle ou faite entre deux portes dans les couloirs de nos laboratoires. Les enjeux sont tels que nous avons décidé de nous en emparer collectivement. Cela m’a amené å rejoindre le Comité d’éthique du CNRS pour lequel j’ai co-piloté un avis sur l’engagement public des chercheurs. « L’engagement public », c’est quand un chercheur s’exprime publiquement en tant que chercheur pour pousser à l’action (par exemple une biologiste qui dit « vaccinez-vous » ou un climatologue qui suggère de moins prendre l’avion). C’est donc différent de la médiation ou de la communication scientifique qui n’ont, en général, pas cet objectif « normatif ». L’engagement public ainsi défini ne fait pas partie de la fiche de poste des chercheurs, mais c’est important que des scientifiques puissent le faire. Car si ce n’est pas eux qui interviennent dans le débat public, ce sera peut-être des personnes avec moins d’expertise.

Mais n’est-ce pas un risque pour le chercheur de s’engager ainsi ?

É. G. : Si bien sûr ! Un risque pour sa réputation académique, pour l’image de son institution, voire même pour l’image de la recherche. Pour le faire de façon sûre et responsable, il faut donc avoir conscience des valeurs que porte un tel engagement et en faire état. Car l’expression publique, même d’un chercheur, n’est pas neutre. Les mots que l’on va choisir, le ton de sa voix, la façon de se présenter, portent un récit et donc des valeurs. Clarifier ces valeurs personnelles pour ne pas tromper son auditoire, le laissant croire à une prétendue neutralité, a aussi l’avantage de ne pas risquer d’être perçu comme militant.

C’est un travail d’acculturation nouveau pour notre communauté, que d’autres sciences pratiquent depuis plus longtemps, comme les sciences médicales. Nous devons collectivement mieux comprendre la société et ses ressorts pour n’être ni naïfs, ni instrumentalisés, et rester pertinents. Il faut par exemple être particulièrement vigilant avec des porteurs d’intérêts privés (entreprises, ONG, partis politiques) qui peuvent vouloir chercher une forme de légitimation de leur agenda auprès des chercheurs.

Qu’est-ce qui a changé dans votre pratique des médias après toutes ces réflexions ?

É. G. : Tout d’abord, j’interviens nettement moins dans les médias. Les journées n’ont que 24 heures et je me suis rendu compte que ma valeur ajoutée n’était pas très élevée, l’angle de l’interview étant la plupart du temps décidé à l’avance. De plus, la pression sur les journalistes rend l’expression d’une nuance très difficile. L’injonction à prendre parti entre deux positions extrêmes me semble stérile même si je comprends que cela puisse faire de l’audimat.

J’ai joué ce jeu pendant un temps, mais j’ai fini par me rendre compte que je participais à un récit essentiellement catastrophiste et que mes tentatives de nuances étaient vaines. Et je ne parle même pas des réseaux sociaux, avec leurs algorithmes conçus pour polariser, que je ne pratique donc pas. Ce type de récit d’alerte a sans doute eu son utilité mais je suis convaincu qu’il est aujourd’hui contre-productif. Je suis aussi de plus en plus gêné quand on me tend le micro pour me demander ce qu’il faudrait faire. On entend souvent le message : « on connaît les solutions mais on ne les met pas en œuvre parce que, soit l’on n’écoute pas assez les scientifiques, soit il y a des “méchantes” entreprises, soit il y a des politiques incompétents ». Mais je ne suis pas sûr qu’il y ait des solutions clairement identifiées. Pour moi, le défi environnemental (climat, biodiversité, pollution) est comme la démocratie ou les droits de l’Homme, il n’y pas de solutions mais une attention de tous les instants, une réflexion démocratique sur le monde que nous voulons, le niveau de risque acceptable, le niveau d’inégalités acceptable, etc. C’est une discussion essentiellement politique, au sens noble du terme, dans laquelle l’avis des scientifiques n’a pas plus de poids que celui de chaque citoyen. Trop donner la parole aux scientifiques (ce que vous faites dans cet interview !) c’est risquer de dépolitiser des enjeux essentiels et ouvrir la porte à un backlash des populations.

D’où l’importance de l’éducation, pour bien percevoir la complexité des enjeux, bien différencier les registres de connaissance (scientifique, croyances, valeurs…), comprendre les liens et l’articulation entre les différents défis, et éviter ainsi de tomber dans des visions étroites du monde ou de l’avenir, forcément angoissantes. Le sentiment simpliste qu’il y aurait des solutions peut aussi générer de la colère envers les dirigeants qui ne les mettraient, donc, pas en œuvre.

Que proposez-vous pour avancer ?

É. G. : Tout d’abord retrouver de la nuance, de la complexité, affirmer haut et fort qu’il n’y a pas que le climat et la température moyenne de la Terre dans la vie, apprendre à préparer l’avenir positivement. Il y a 17 objectifs du développement durable qui sont autant de sources de malheur humain. A mes yeux de citoyen, il n’y en a pas un qui serait plus important ou plus urgent que les autres. Les éventuelles priorités dépendent de la société que nous voulons, du niveau de risque acceptable et sont donc ancrées localement et culturellement. Regardez comment les différents pays ont fait des choix politiques très différents face au même virus pendant le Covid ! Placer le débat d’abord au niveau du monde que nous voulons, c’est faire un grand pas en avant, même si le chemin reste long.

On me traite souvent « d’optimiste » face à tous ces défis. Mais en fait, pour moi, la période que nous vivons est passionnante ! Nous sommes face à une transition majeure, rare dans l’histoire de l’humanité. Oui c’est vrai, et il ne faut pas se voiler la face, cette transition aura son lot de risques et de malheurs et il y a des intérêts du monde ancien qui résisteront longtemps et farouchement. Mais un nouveau monde de possibles s’ouvre à nous – c’est terriblement excitant, en particulier pour les jeunes !


Éric Guilyardi est coordinateur du projet METRO (Modulation d’ENSO par la variabilité intrasaisonnière dans le Pacifique tropical et impact du changement climatique) et dirige le projet ARCHANGE
(Changement climatique et Arctique et circulation océanique globale)
, tous deux soutenus par l’Agence nationale de la recherche (ANR). L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Éric Guilyardi est membre du Comité d’éthique du CNRS et du Conseil scientifique de l’Éducation nationale. Il est aussi président de l’Office for Climate Education et expert auprès de l’UNESCO et de l’OCDE.

ref. Science, éducation, médias : quels rôles pour les climatologues aujourd’hui ? Conversation avec Éric Guilyardi – https://theconversation.com/science-education-medias-quels-roles-pour-les-climatologues-aujourdhui-conversation-avec-eric-guilyardi-257585

Les mouvements d’une foule ne sont pas chaotiques mais prévisibles

Source: – By François Gu, Post-doctorant, Massachusetts Institute of Technology (MIT)

La Plaza Consistorial (Pampelune) pendant le « Chupinazo ». Fourni par l’auteur

La foule intimide voire terrifie certaines personnes. Ses mouvements peuvent conduire à des drames. C’est pourquoi mieux les comprendre est essentiel. Une nouvelle étude démontre que ces mouvements ne sont pas chaotiques comme on pourrait l’imaginer, mais, au contraire, quasi circulaires et périodiques.


Vous avez déjà vécu l’expérience d’être au milieu d’une foule compacte dans un espace confiné : sur les quais du métro bondés à l’heure de pointe, devant un magasin pour la sortie du dernier livre d’une autrice à succès, ou encore devant la scène lors d’un concert. Au-delà de l’inconfort suscité par les contacts physiques fréquents involontaires avec vos voisins, ces situations semblent incontrôlables et potentiellement dangereuses : on se sent comme contraint de bouger selon un mouvement dicté par l’impatience ou la pression exercée par les autres. Mais quelle est véritablement la nature des mouvements des individus au sein d’une foule dense ? Et peut-on en comprendre l’origine, notamment afin d’anticiper des drames ?

Si l’on se fie à notre intuition, ces mouvements semblent aléatoires et imprévisibles. Pourtant, notre étude, menée au sein de l’équipe de Denis Bartolo, professeur à l’ENS Lyon, et récemment publiée dans la revue Nature, révèle un phénomène contre-intuitif : au lieu d’un chaos désordonné, la foule bouge collectivement selon un mouvement régulier et spontané. Au-delà d’une densité critique de quatre personnes par mètre carré (imaginez-vous à quatre personnes dans une cabine de douche !), et sans consigne extérieure, la foule adopte spontanément un mouvement quasi circulaire et périodique.

Notre expérience : les fêtes de Pampelune et son « Chupinazo »

Notre premier défi, pour caractériser la dynamique des foules denses, était de taille : réaliser des expériences pour filmer, avec un bon angle de vue, la dynamique de centaines d’individus, tout en évitant les accidents. Il était donc évident qu’on ne pouvait pas faire cela dans notre laboratoire. L’opportunité idéale s’est présentée, quand Iker Zuriguel, professeur à l’Université de Navarre, nous a parlé des fêtes de San Fermín en Espagne. Chaque année, le 6 juillet, environ 5 000 personnes se rassemblent Plaza Consistorial, à Pampelune, pour la cérémonie du « Chupinazo », qui marque le début d’une semaine de fêtes. La densité atteint environ 6 personnes par mètre carré !

Cette place, qui mesure 50 mètres de long par 20 mètres de large, est délimitée par des immeubles de plusieurs étages, dont les balcons donnent une vue imprenable sur ce qui se passe sur la place. Nous avons filmé lors de quatre éditions avec huit caméras placées sur deux balcons les mouvements de la foule avec une très bonne résolution. Nous avons ainsi collecté un jeu de données unique au monde pour l’étude des foules denses.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


La foule oscille en synchronie

Grâce à une technique utilisée, par exemple en aérodynamique, nous avons pu cartographier les vitesses de déplacement dans la foule, comme on suit des courants d’air autour d’un avion. Nous en avons extrait que tous les individus dans un rayon d’environ 10 mètres se déplaçaient dans la même direction.

Lors du « Chupinazo », la densité de personnes est très importante, de l’ordre de six personnes par mètre carré : il faut donc imaginer environ 500 personnes entraînées ensemble de façon spontanée, ce qui représente une masse de plusieurs dizaines de tonnes en mouvement.

Nous avons également montré que la direction du mouvement de cette masse tournait progressivement, avant de revenir à son point de départ, toutes les 18 secondes. Autrement dit, les individus ne se déplacent pas de manière chaotique, mais suivent des trajectoires quasi circulaires et périodiques.

Ce mouvement lent s’explique par le fait que ce ne sont pas des individus isolés qui bougent, mais plusieurs centaines, entraînés les uns avec les autres.

Enfin, nous avons observé que les mouvements circulaires oscillants de la foule se font autant dans le sens des aiguilles d’une montre que dans le sens inverse, alors même que la majorité des êtres humains sont droitiers ou qu’ils ont tendance à s’éviter par la droite dans les pays occidentaux. Les facteurs cognitifs et biologiques ne sont donc plus pertinents pour expliquer le déplacement des masses d’individus dans les foules denses qui sont entraînées dans des mouvements à très grande échelle.

L’origine de l’oscillation spontanée des foules

Pour modéliser mathématiquement la dynamique d’une foule, constituée d’un ensemble de piétons, il apparaît naturel de considérer les individus comme des particules en interaction.

Prenez un piéton au sein de cette foule. Il subit des forces qui le mettent en mouvement. Ces forces peuvent avoir une origine physique – comme des forces de contact avec un mur ou un autre piéton – ou une origine cognitive – comme lorsqu’on cherche à éviter un autre piéton. Malheureusement, la modélisation mathématique de ces forces repose sur de nombreuses hypothèses invérifiables sur le comportement des individus, ce qui rend cette approche irréalisable.

Il n’est en réalité pas nécessaire de décrire la dynamique de chaque individu pour prédire la dynamique de la foule. Prenez l’écoulement de l’eau dans un tuyau : les lois de la physique permettent de prédire l’écoulement de l’eau, alors même que déterminer la force subie par une seule molécule d’eau dans cet écoulement s’avère impossible.

Nous avons donc déterminé l’équation qui décrirait le mouvement d’une masse d’individus entraînés tous ensemble, sans déterminer les lois qui régissent le mouvement d’un seul piéton. Notre démarche n’utilise que des principes fondamentaux de la physique (conservation de la masse, conservation de la quantité de mouvement) et ne fait aucune hypothèse comportementale sur le mouvement des individus. Elle nous a permis de construire un modèle mathématique dont la résolution a montré un excellent accord avec les observations expérimentales.

Une nouvelle méthode de prévention des accidents de foule ?

Nous avons également analysé des vidéos issues des caméras de surveillance de la Love Parade de 2010 à Duisbourg, en Allemagne. Bien que cette foule soit très différente de celle du « Chupinazo », nous y avons observé les mêmes oscillations collectives. Cela suggère que ce comportement de masse est universel, indépendamment du type d’événement ou du profil des participants.

Comme nous l’avons souligné précédemment, ces oscillations peuvent mettre en mouvement plusieurs dizaines de tonnes. Nous pensons qu’un tel déplacement non contrôlé de masse peut devenir dangereux. Lors du « Chupinazo », aucun accident n’a jamais été signalé, sans doute parce que l’événement est court (une à deux heures) et que les participants y viennent de leur plein gré, avec une certaine conscience des risques. Ce n’était pas le cas lors de la Love Parade de 2010, où un accident a causé des dizaines de morts et des centaines de blessés. Juste avant que l’accident ne se produise, nous avons détecté ces oscillations.

Cette détection peut se faire en temps réel, à partir d’une analyse directe et simple des caméras de vidéosurveillance. Et puisque cette dynamique est universelle, la même méthode pourrait être appliquée à d’autres foules. Ainsi, nos découvertes pourraient, dans le futur, inspirer le développement d’outils de détection et de prévention d’accidents de masse.

The Conversation

Ce travail a été soutenu par le Conseil européen de la recherche (ERC) dans le cadre du programme de recherche et d’innovation Horizon 2020 de l’Union européenne (convention de subvention numéro 101019141) (D.B.) et par la subvention numéro PID2020-114839GB-I00 soutenue par MCIN/AEI/10.13039/501100011033 (I.Z.).

Benjamin Guiselin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les mouvements d’une foule ne sont pas chaotiques mais prévisibles – https://theconversation.com/les-mouvements-dune-foule-ne-sont-pas-chaotiques-mais-previsibles-253459

Pourquoi l’océan est-il si important pour le climat ?

Source: – By Sabrina Speich, Professeure en océanographie et sciences du climat, École normale supérieure (ENS) – PSL

Quand on parle de réchauffement climatique, on pense souvent à l’air qui se réchauffe. Mais c’est l’océan qui, grâce aux courants marins et aux propriétés exceptionnelles de l’eau, a jusqu’à présent absorbé frontalement une grande partie du réchauffement. Avec l’accélération du changement climatique, la perte de biodiversité et la pollution omniprésente, les observations océaniques sont indispensables pour évaluer et préserver la santé des océans.

Au cours des trois dernières décennies, les développements technologiques et la coordination des observations de l’océan à l’échelle mondiale, sous l’égide de l’Unesco, ont révolutionné notre compréhension des processus océaniques, permettant des descriptions et des capacités de prévision robustes à l’échelle planétaire, régionale et côtière. Néanmoins, à l’heure où s’ouvre à Nice la troisième conférence internationale des Nations unies pour les océans (Unoc 3), il est urgent de pérenniser les moyens scientifiques de la surveillance de l’océan et de retisser les liens entre sciences et société.


Depuis les années 1960, le domaine de l’observation des océans a été transformé par d’importantes avancées technologiques et numériques. La transition vers une approche globale de surveillance de la santé de l’océan s’est fait grâce à l’émergence d’instruments in situ déployés en mer et de satellites qui permettent d’observer la Terre depuis l’espace, et grâce à l’amélioration des modèles numériques.

Progressivement, les scientifiques du monde entier ont su mettre l’océan à cœur ouvert. Aujourd’hui, les scientifiques sont unanimes : le changement climatique est bien en cours, et il a des conséquences dramatiques sur l’état de santé d’un océan qui a déjà absorbé 90 % de l’excès de chaleur et 26 % des émissions de CO₂ dus à nos activités humaines. Par exemple, une eau plus acide et plus chaude menace les écosystèmes marins comme les coraux, les coquillages et toute la chaîne alimentaire océanique.

Les scientifiques observent également que trois des neuf limites planétaires sont déjà franchies et que, parmi les dix principaux risques pour la décennie 2025-2035 à venir, quatre d’entre eux sont liés à l’environnement et à l’état de santé de l’océan.

infographie
Quatre des neuf limites planétaires impliquent l’océan.
CGDD 2023

L’océan est le pilier de la machine climatique

Le système climatique, alimenté en énergie par le soleil, est principalement composé de réservoirs et de flux entre ces réservoirs. La planète Terre compte ainsi trois grands compartiments que sont l’atmosphère, les surfaces continentales et les océans. Les flux entre ces réservoirs sont principalement des flux de matières, d’énergie et de chaleur.

Les océans ne forment qu’un, connectés entre eux au pôle Sud par l’intermédiaire de l’anneau austral qui encercle le continent antarctique. Cet océan est l’unique enveloppe fluide de notre planète, couvrant plus des deux tiers de la surface du globe et représentant près de 96 % de l’eau disponible sur Terre. L’océan et l’atmosphère sont en contact permanent et les échanges air-mer se font principalement sur la base du cycle de l’eau, par exemple lors des précipitations ou de l’évaporation de l’eau de mer. Ces échanges continus permettent l’équilibre du système climatique par la redistribution des flux et l’installation des différentes conditions climatiques dans chaque région du monde.

En particulier, la chaleur et le CO2 atmosphériques sont absorbés par l’océan à l’interface air-mer, puis transportés et redistribués sur le globe grâce aux courants marins et à l’activité biologique marine. Cette circulation s’effectue dans chacun des bassins océaniques, du nord au sud et d’ouest en est. Mais elle est aussi verticale, entre la surface et les très grandes profondeurs marines. Sa profondeur moyenne de 3 800 mètres fait de l’océan un immense réservoir de chaleur doté d’une très forte inertie thermique, du fait des propriétés physiques de l’eau.

deux schemas pour indiquer la cuirculation océanique
La circulation océanique se fait à l’échelle du globe et sur la profondeur de l’océan.
Plateforme Océan & Climat, CC BY

Par la capacité de ses courants marins à absorber, à transporter puis à stocker dans ses plus grandes profondeurs les signaux atmosphériques et les nombreux flux provenant des autres réservoirs, l’océan joue un rôle clé dans les mécanismes climatiques globaux et dans l’équilibre planétaire. Il est un des piliers du système climatique, de sorte que les scientifiques le qualifient de « thermostat de la planète ».

Un océan à cœur ouvert grâce au système global d’observation des océans, sous l’égide de l’Unesco

Pour comprendre le système climatique, les scientifiques se basent sur la combinaison de trois types d’observations océaniques :

  • les mesures in situ, collectées en mer et qui fournissent des données détaillées sur les couches sous-marines pour surveiller la variabilité des océans en profondeur et les changements à long terme ;

  • les observations par satellite, offrant une couverture spatiale étendue des premiers mètres de la surface océanique pour suivre l’élévation du niveau de la mer, la couleur des océans, la température et la salinité de surface ou encore la productivité primaire marine ;

  • les modèles numériques et l’assimilation des données qui synthétisent les observations afin de décrire l’évolution passée, présente et future des océans.

Aujourd’hui, les observations océaniques englobent un large éventail de paramètres physiques (température, salinité…), biogéochimiques (oxygène, carbone dissous…) et biologiques (phytoplancton, zooplancton…) essentiels à l’évaluation du climat, à la gestion des ressources marines et aux systèmes d’alerte précoce. Elles sont la seule source fiable d’informations sur l’état des océans et du climat, et viennent améliorer et valider les modèles numériques pour affiner leurs prévisions.

Le Global Ocean Observing System (GOOS), programme international créé au début des années 1990 après la deuxième Conférence mondiale sur le climat de Genève et le Sommet de la Terre à Rio de Janeiro, coordonne l’observation et la surveillance de l’océan à l’échelle de la planète. Son objectif est de mieux comprendre l’état de l’océan, prévoir son évolution et soutenir la prise de décisions face aux enjeux climatiques, environnementaux et sociétaux.

Il fonctionne comme un réseau mondial intégré d’observations océaniques, combinant des données issues de satellites, de bouées, de flotteurs profilants (comme le programme Argo), de navires et de stations côtières.

Les données collectées par le réseau d’observations coordonnées par GOOS sont gratuites et ouvertes, accessibles non seulement aux chercheuses et chercheurs, mais aussi aux actrices et acteurs de la société civile, aux entreprises, aux collectivités locales et à toute organisation impliquée dans la gestion ou la protection de l’océan. Ces informations sont essentielles pour surveiller la santé des écosystèmes marins, anticiper les événements extrêmes, soutenir les politiques climatiques et favoriser une économie bleue durable.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Renforcer l’observation des océans pour éclairer les politiques climatiques et la gestion des écosystèmes marins

Un système complet d’observation des océans tel que le GOOS répond à de multiples besoins sociétaux.

Comme nous l’avons vu, l’océan modère le réchauffement climatique, atténuant par conséquent les phénomènes météorologiques extrêmes. En améliorant la prévision des vagues de chaleur marines, des ondes de tempête, des proliférations d’algues nuisibles et des tsunamis, le GOOS contribue à l’initiative « Alertes précoces pour tous », lancée en 2022 par les Nations unies. Son objectif est simple et ambitieux : que chaque personne sur Terre soit protégée par un système d’alerte précoce d’ici 2027, un système qui diffuse des alertes claires et accessibles pour donner le temps de se préparer à l’arrivée d’un événement extrême.

Alors que plus de 90 % du commerce mondial dépend du transport maritime, que la pêche et l’aquaculture font vivre des milliards de personnes, une surveillance renforcée soutient également une économie bleue durable. En particulier, la gestion écosystémique, la planification des usages des océans et l’exploitation durable des ressources marines garantissent la résilience des écosystèmes tout en favorisant la croissance économique – en miroir du quatorzième objectif de développement durable (ODD 14) des Nations unies, « Conserver et exploiter de manière durable les océans, les mers et les ressources marines aux fins du développement durable ».

Le GOOS actuel constitue une infrastructure essentielle pour suivre l’état de l’océan et informer les politiques publiques. Mais il reste encore insuffisant pour répondre pleinement aux besoins liés à l’action climatique, aux prévisions opérationnelles, aux jumeaux numériques de l’océan ou à la gestion durable des océans et de leurs ressources.

Les efforts futurs doivent viser à maintenir et à renforcer les systèmes d’observation existants, tout en les étendant pour couvrir de manière plus complète l’ensemble des dimensions physiques, biogéochimiques et biologiques de l’océan.

En priorité, il s’agira de :

  • développer les observations dans les zones jusqu’ici peu couvertes, notamment les observations en eaux profondes et polaires ;

  • renforcer les observations biogéochimiques et biologiques jusqu’ici moins nombreuses et peu systématiques ;

  • améliorer l’intégration des observations océaniques avec les services de prévision océaniques et climatiques afin de fournir des informations utiles et exploitables aux décideurs, aux acteurs économiques et aux communautés côtières.

Enfin, la pérennisation des financements pour les réseaux d’observation à long terme représente un défi majeur de la prochaine décennie. Sans un engagement durable, il sera difficile de maintenir, d’adapter et de faire évoluer ces infrastructures clés face à l’accélération des changements océaniques et climatiques.

Retisser le lien entre sciences et société pour relever les défis du XXIᵉ siècle

Au-delà de la recherche et de la politique, il est essentiel de sensibiliser à l’océan pour que la société soit mieux informée et consciente des liens entre la santé des océans, la stabilité du climat et le bien-être humain.

Pour cela, des initiatives d’observation mondiale, par exemple Adopt-A-Float ou Ocean Observers, invitent élèves, étudiants et communautés à suivre les instruments océanographiques et à contribuer à la surveillance environnementale.

Plus globalement, ouvrir les portes des laboratoires et mettre la science à la portée de tous est urgent.

À ce titre, la collaboration entre experts-scientifiques et journalistes portant l’information auprès du grand public est un véritable enjeu, en particulier dans le contexte actuel d’une société à la fois surinformée, mal informée et parfois désinformée.

Alors que des milliers de scientifiques sont au chevet de la santé de l’océan 24 heures sur 24 et 7 jours sur 7, l’évolution continue du GOOS, guidée par les progrès scientifiques et par les besoins politiques, jouera un rôle essentiel dans la construction d’un avenir durable et résilient pour les océans. Un système d’observation véritablement mondial et inclusif, soutenu par une gouvernance collaborative et une allocation équitable des ressources, sera essentiel pour relever les défis et saisir les opportunités du XXIe siècle.


Cet article a été co-écrit avec Carole Saout-Grit, physicienne océanographe, directrice du bureau d’études GlazeO et directrice de publication du média Océans Connectés.


Les projets EUREC4A-OA et SAMOC sont soutenus par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Sabrina Speich, professeure à l’Ecole Normale Supérieure de Paris, a reçu des financements de l’ANR, de Europe Horizon 2020, Europe Horizon 2030, et de l’European research Council. Elle est co-présidente du comité d’experts Ocean Observations for Physics and Climate du Global Ocean Obsrving System et du Global Climate Observing System sous l’égide des Nations Unies, de l’International Science Council et de l’Organisation Météorologique Mondiale. Ce travail n’est pas rémunéré. Elle fait partie de plusieurs “scientific advisory boards” internationaux d’instituts de recherche.

ref. Pourquoi l’océan est-il si important pour le climat ? – https://theconversation.com/pourquoi-locean-est-il-si-important-pour-le-climat-258339

Nouvelle découverte : les deux gros bébés exoplanètes du système YSES-1

Source: – By Mickael Bonnefoy, Chercheur CNRS à l’Institut de Planétologie et d’Astrophysique de Grenoble, Université Grenoble Alpes (UGA)

Vue d’artiste du système YSES-1. On voit le système de l’extérieur, avec un effet de perspective, ce qui explique la petitesse de l’étoile sur le dessin. Au premier plan, l’exoplanète YSES-1 c qui est couverte de nuages de poussières de silicates. À l’arrière-plan, l’exoplanète YSES-1 b, plus proche de son étoile, est entourée d’un disque de matière où des exolunes peuvent se former. Ellis Bogat.

Une nouvelle étude, publiée aujourd’hui dans Nature, dévoile deux jeunes exoplanètes, dont l’une toujours en formation, au sein d’un système stellaire atypique.

Mickaël Bonnefoy, astrophysicien et co-auteur de l’étude, nous explique qui sont ces « bébés exoplanètes ».


Vous nous emmenez en voyage dans un système stellaire atypique, YSES-1. Pourquoi intrigue-t-il les scientifiques ?

M. B. : Le système YSES-1 est atypique dans le bestiaire exoplanétaire. Situé à plus de 300 années-lumière de nous, ce système 270 fois plus jeune que le système solaire se compose d’une étoile analogue à notre Soleil et de deux grosses planètes, respectivement de 14 et 6 fois la masse de Jupiter, qui est pourtant de loin la plus grosse planète du système solaire. Ces exoplanètes sont aussi très éloignées de leur étoile – sur des orbites 35 et 71 fois la distance Soleil-Jupiter.

Cette architecture exotique remet en perspective l’origine et les propriétés de notre propre système solaire. YSES-1 nous permet d’étudier les propriétés de plusieurs exoplanètes joviennes jeunes, des « bébés exoplanètes », au sein d’un seul et même système.

Les données du télescope spatial James-Webb (JWST) révèlent l’intrigante nature de ces deux gros « bébés exoplanètes », et montrent que la plus massive des deux est encore en train de se forme. C’est ce que notre collaboration internationale publie aujourd’hui dans Nature.

Quelles sont les observations que vous décrivez dans votre article ?

M. B. : Grâce au télescope spatial James-Webb, nous avons observé des poussières de silicates en suspension dans l’atmosphère de la planète la moins massive et la plus lointaine de l’étoile, YSES-1 c. Ces poussières ont été prédites il y a plusieurs décennies par les études théoriques, mais c’est seulement aujourd’hui, avec ce télescope spatial, que l’on peut les observer directement.

Nos données mettent également en évidence pour la première fois un disque autour de la planète la plus massive et la plus proche de l’étoile, YSES-1 b. Ce type de disque est bien différent des anneaux de Saturne. Il s’agit plutôt d’un « réservoir de matière » qui alimente l’atmosphère de cette planète toujours en train de se former.

C’est aussi le lieu de formation de possibles exolunes. Nous savons qu’il y a eu un disque de poussière similaire autour de Jupiter dans le passé, qui a donné naissance à ses lunes, dont Europe et Ganymède.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Quel était votre but en pointant le télescope James-Webb sur ce système stellaire, déjà bien connu ?

M. B. : Nous souhaitions initialement étudier l’atmosphère de ces deux planètes et mettre en évidence leurs différences physiques (masse, température) pour comprendre comment elles ont pu se former.

En étudiant le système YSES-1, très jeune (16,7 millions d’années), on espérait mieux comprendre les origines de notre propre système solaire (4,5 milliards d’années).

Mais vous avez observé quelque chose que vous n’aviez pas prévu d’observer initialement ?

M. B. : Absolument. Jusqu’au lancement du télescope James-Webb, nous ne pouvions étudier la lumière des exoplanètes au-delà de 5 micromètres du fait de l’absorption de l’atmosphère terrestre à ces longueurs d’onde depuis le sol.

Grâce à la nouvelle fenêtre observationnelle offerte par ce télescope spatial, nous pouvons étudier la signature spectroscopique de nombreuses molécules et particules en suspension dans l’atmosphère de ces exoplanètes.

Ici, nous avons pu révéler la présence d’un disque autour de la planète la plus massive du système, qui cause un excès de flux dans l’infrarouge mis en évidence par ces observations. Ce disque est le lieu de formation possible d’exolunes similaires à celles formées autour de Jupiter. Ce disque sert également de réservoir de matière pour former l’enveloppe gazeuse de la planète.

Est-ce que vous avez répondu à vos questions initiales ? Comprend-on mieux aujourd’hui comment un tel système a pu se former, avec ses planètes très massives et très lointaines de l’étoile ?

M. B. : Non, finalement, l’étude n’aborde pas ces points en détail, mais se focalise plus sur les propriétés de l’atmosphère de l’exoplanète YSES-1 c et du disque de l’exoplanète YSES-1 b.

Quelles sont les questions qui sont ouvertes par votre étude ?

M. B. : La découverte d’un disque autour d’une des planètes et son absence sur l’autre planète dans un système d’un âge donné pose la question de la chronologie de la formation de ces planètes. Se sont-elles formées en même temps ? Un disque existait-il dans le passé autour de l’exoplanète la moins massive ? Il reste la possibilité qu’un tel disque soit toujours présent, mais invisible dans les observations actuelles : ce serait le cas s’il émet au-delà des longueurs d’onde de nos observations.

De nouvelles observations avec le télescope James-Webb dans une gamme de longueurs d’onde au-delà de 12 micromètres seront nécessaires pour clarifier ces questions ouvertes.




À lire aussi :
Le télescope James-Webb expliqué par ceux qui l’ont fait


Au-delà, cette étude permet de caractériser pour la première fois quantitativement les propriétés des nuages de poussière dans l’atmosphère d’une exoplanète jovienne jeune. De nouvelles observations du système au-delà de 12 micromètres permettront de préciser la composition de cette poussière, qui est sans doute faite de plusieurs types de grains.


Les projets FRAME et MIRAGES sont soutenus par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Mickael Bonnefoy a reçu des financements de l’Agence Nationale de la Recherche (bourses ANR-20-CE31-0012 et ANR-23-CE31-0006).

ref. Nouvelle découverte : les deux gros bébés exoplanètes du système YSES-1 – https://theconversation.com/nouvelle-decouverte-les-deux-gros-bebes-exoplanetes-du-systeme-yses-1-258550

Détruire une carrière professionnelle, nouvelle forme de harcèlement moral

Source: – By Michel Naim, Enseignant chercheur de management, EBS Paris

En 2024, 35 % des actifs déclarent avoir déjà été victimes de harcèlement au travail. Certaines catégories sont particulièrement touchées, comme les moins de 35 ans et les femmes, même si les hommes n’en sont pas pour autant épargnés. PrazisImages/Shutterstock

La menace de détruire la carrière professionnelle se manifeste par des agissements répétés, qui altèrent la santé physique et/ou mentale. Une étude menée dans plus de dix pays analyse les mécanismes de ce phénomène insidieux, avec des codes aussi implicites qu’explicites. Quelles conclusions en tirer ? Quelles recommandations donner aux victimes ?


Le procès de trois anciens cadres d’Ubisoft, accusés notamment de harcèlement moral, s’est clos, à Bobigny, le 5 juin et le jugement est attendu pour le 2 juillet prochain. Une actualité qui illustre la question du harcèlement moral au travail.

Il « se manifeste par des agissements répétés qui ont pour objet ou pour effet une dégradation des conditions de travail susceptible de porter atteinte aux droits de la personne du salarié au travail et à sa dignité, d’altérer sa santé physique ou mentale ou de compromettre son avenir professionnel ».

Un phénomène qui est celui qui entraîne le plus de répercussions graves sur les individus, dans une moindre mesure sur les institutions.

Ce sujet est de plus en plus reconnu dans les milieux organisationnels. Une de ses formes n’a pas été étudiée de manière indépendante et approfondie : la menace de détruire la carrière professionnelle des autres.

À travers une étude (à paraître) qualitative de 26 entretiens avec des salariés, issus du secteur public ou privé, au Canada, en France, aux États-Unis, en Allemagne, au Royaume-Uni, au Liban, en Égypte et en Irak, nous nous efforçons d’expliquer le mécanisme de ce phénomène.

Avec quelles conclusions à tirer ? Quelles différences entre pays développés et en développement ? Pour quelles recommandations ?

Environnement professionnel malsain

Ce harcèlement moral repose sur l’utilisation de l’autorité ou de l’influence pour infliger des dommages psychologiques. L’objectif ? Manipuler émotionnellement en menaçant de détruire la carrière d’autrui, ou de nuire réellement à l’avenir professionnel de la victime.

En 2002, les chiffres du baromètre national du harcèlement au travail sont édifiants : 35 % des salariés déclarent avoir déjà été victimes de harcèlement au travail. Certaines catégories d’actifs sont particulièrement touchées, notamment les moins de 35 ans (43 %), les femmes (38 %), même si les hommes sont loin d’être épargnés (31 %).

Ce comportement toxique est souvent motivé par des conflits personnels, la peur de la concurrence, le leadership narcissique, la jalousie, la stigmatisation ou la discrimination, comme l’atteste un salarié interrogé :

« Simplement à cause de mes opinions politiques, on m’a clairement fait comprendre que si je ne m’alignais pas avec certaines vues, mon avenir dans l’entreprise serait compromis. C’est une forme de harcèlement insidieuse, où la liberté d’expression est étouffée sous prétexte de maintenir une “certaine ligne”. »

Les origines de ce type de harcèlement résident dans des environnements professionnels malsains, où les règles sont ambiguës et les relations sont tendues :

« Cette pression constante, associée aux menaces, m’a fait réaliser à quel point le harcèlement peut se manifester dans des espaces de travail où la communication et la confiance font défaut. »

Cette ambiguïté du management peut créer un climat où les salariés restent incertains quant aux attentes à leur égard, générant des tensions, des erreurs et même des conflits.

Menaces explicites et implicites

Ce type d’intimidation s’exerce souvent sous forme de pressions psychologiques, de manipulation émotionnelle ou de menaces voilées. La diffusion de rumeurs malveillantes est l’un des outils les plus courants. Elle vise à ternir la réputation de la victime et à semer le doute sur sa crédibilité. Saboter les projets clés ou retirer des opportunités importantes constitue une autre tactique, privant ainsi la victime des moyens de démontrer ses compétences.

« J’ai rapidement compris que certaines remarques et comportements étaient des menaces subtiles contre ma carrière. C’est une forme de pression insidieuse qui crée un climat de peur et de soumission. »




À lire aussi :
L’arroseur arrosé : Quand les témoins de dénigrements au travail le font payer à leur auteur


Les évaluations professionnelles biaisées ou manipulées peuvent dégrader artificiellement les performances perçues de la personne ciblée. Elles faussent la perception des compétences et des contributions réelles de l’employé, impactant négativement sa trajectoire professionnelle. Des menaces explicites ou implicites de licenciement ou de réduction des avantages professionnels sont fréquemment utilisées pour instiller la peur. Ces méthodes sont souvent complétées par une marginalisation sociale, visant à isoler la victime de ses collègues.


Abonnez-vous dès aujourd’hui !

Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH, marketing, finance…).


Chantage permanent

Ensemble, ces tactiques créent une atmosphère toxique qui mine la confiance et bloque tout épanouissement professionnel. La plus grande inquiétude de la victime reste la menace de ternir sa réputation après avoir quitté son travail, notamment auprès d’employeurs potentiels :

« Lors de la réunion au cours de laquelle mes employeurs m’ont dit que j’allais être licencié, sans aucune preuve, je leur ai parlé des organisations où je travaille à temps partiel. La responsable, totalement narcissique, a immédiatement pris le stylo et a commencé à écrire les noms des organisations avec un sourire diabolique sur le visage, dans une tentative apparente de me menacer de les contacter pour me discréditer. »

Voire même aller au-delà du préjudice professionnel… dans la sphère privée. Le harcèlement au travail peut conduire à des menaces judiciaires.

« Lorsque ils ont échoué à fournir une preuve prouvant que j’avais enfreint les règles du travail, ils m’ont soudainement informé qu’une dame se plaignait de moi, affirmant que je l’avais terrifiée en lui parlant. Ce qui est absolument faux. Puis ils ont insinué sournoisement la possibilité d’aller en justice. Bien que je sois innocent à cent pour cent, comparaître devant la justice pour des accusations fausses à mon encontre pourrait effectivement entraîner une décision judiciaire injuste à mon égard. C’est pourquoi, j’ai choisi de garder le silence. J’ai cessé d’affirmer que j’étais victime d’injustice. »

Pression et dépression

Les conséquences de la menace de destruction de carrière sont graves et multiples, affectant aussi bien la victime que l’organisation. Sur le plan psychologique, la victime subit un stress intense, une perte de confiance en soi, et parfois même des troubles émotionnels tels que l’anxiété ou la dépression. Professionnellement, cette pression peut entraîner un ralentissement de la progression de carrière, voire un départ forcé ou volontaire du poste, ou même des dommages à l’avenir professionnel. Pour l’organisation, ces comportements entraînent une baisse de la productivité globale, une augmentation du turnover et une difficulté à retenir ou à attirer les talents ; ce qui nuit à sa réputation et à sa performance.

« Ils ont suivi ma page LinkedIn pour savoir où je travaillerai, pour ruiner ma carrière. Ils sont vraiment cruels. Je n’ai commis aucune erreur. Le problème est que je suis en désaccord avec eux sur les opinions politiques et religieuses. »

Les conséquences pour les salariés dans les pays développés –  Canada, en France, aux États-Unis, en Allemagne, au Royaume-Uni – sont généralement moins sévères que dans les pays en développement – Liban, en Égypte et en Irak. En raison de systèmes sociaux et économiques plus robustes, les travailleurs dans les pays développés peuvent bénéficier de prestations de chômage et de réseaux de soutien pour les aider à surmonter le licenciement du travail, par exemple.

Réaction des victimes

Les réactions de la victime varient en fonction de sa personnalité, de son réseau de soutien et des circonstances sociales et professionnelles. Certaines peuvent adopter des stratégies de confrontation directe, tandis que d’autres préfèrent l’évitement ou la soumission.

« Je n’ai jamais gardé le silence. Je l’ai confronté et lui ai dit qu’il s’agissait d’une menace et d’une tentative de manipulation que je n’accepterais pas. »

Les différences entre pays en développement et pays développés sont multiples. Recourir à la justice dans les pays développés est plus sûr et facile si un salarié est exposé à de mauvais traitements au travail. Certains employés peuvent transformer la menace en opportunité en recherchant un meilleur emploi ou en devenant entrepreneurs.

Les conditions organisationnelles, telles que la culture de l’entreprise et les politiques en matière de gestion des conflits, jouent également un rôle crucial dans la manière dont la victime réagit et s’adapte à cette forme de harcèlement.

Pour éradiquer cette forme de harcèlement, les organisations doivent instaurer une culture de respect et de collaboration, mettre en place des politiques claires contre le harcèlement et proposer des canaux de signalement sécurisés pour les employés.

Notre étude tire quelques recommandations à destination de la victime : restez calme, évaluez la situation, documentez tout, communiquez, recherchez du soutien, envisagez une action en justice, concentrez-vous sur votre travail, pratiquez des activités qui vous aident à gérer le stress et planifier votre avenir.

The Conversation

Michel Naim ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Détruire une carrière professionnelle, nouvelle forme de harcèlement moral – https://theconversation.com/detruire-une-carriere-professionnelle-nouvelle-forme-de-harcelement-moral-252097

Mieux accompagner la santé mentale au travail : la stratégie des petits pas

Source: – By Tarik Chakor, Maître de conférences en sciences de gestion, Aix-Marseille Université (AMU)

Selon le baromètre Qualisocial-Ipsos 2025 sur la santé mentale au travail, 25 % des salariés estiment avoir une mauvaise santé mentale, avec une population féminine particulièrement touchée – 29 % des femmes, contre 21 % des hommes. PeopleImages-Yuri A./Shutterstock

Comment agir efficacement et de manière pérenne pour préserver la santé mentale des individus au travail et prévenir une détérioration de leur qualité de vie et des conditions de travail (QVCT) ? Un credo : privilégier les petites victoires à une grande défaite. L’acteur clé : le manager de proximité.


La Semaine pour la qualité de vie et des conditions de travail (QVCT) aura lieu du 16 au 20 juin 2025 sur tout le territoire français. Cette initiative, lancée par l’Agence nationale pour l’amélioration des conditions de travail (Anact) en 2004 a pour objectif de promouvoir le débat et de favoriser le partage de pratiques en santé au travail, notamment au niveau mental et psychologique.

Bien que présente dans le débat public et scientifique depuis le début des années 2000, notamment avec les travaux de la psychiatre Marie-France Hirigoyen autour du harcèlement moral, puis de la vague de suicides chez France Télécom dès 2006, la question de la santé mentale au travail se pose toujours au sein des organisations. Selon le baromètre Qualisocial-Ipsos 2025 sur la santé mentale au travail, 25 % des salariés estiment avoir une mauvaise santé mentale, avec une population féminine particulièrement touchée – 29 % des femmes, contre 21 % des hommes.

Malgré la succession de quatre plans Santé-Travail, de deux accords nationaux interprofessionnels (ANI) sur la QVT (en 2013 puis en 2020)
ou de multiples rapports officiels, une question semble rester en suspens : comment agir efficacement – et de manière pérenne – pour préserver la santé mentale des individus au travail et prévenir une détérioration de leur QVCT ?

Santé mentale au travail : de quoi parle-t-on ?

Selon l’Organisation mondiale de la santé (OMS), la santé mentale correspond à « un état de bien-être mental qui nous permet d’affronter les sources de stress de la vie, de réaliser notre potentiel, de bien apprendre et de bien travailler, et de contribuer à la vie de la communauté ». Elle n’est pas uniquement l’absence de troubles mentaux, mais plutôt un état dynamique pouvant être influencé par de nombreux facteurs. Les causes, mais également les manifestations peuvent varier d’une personne à une autre.

Dans la sphère professionnelle, de nombreux concepts en lien avec la santé mentale ont émergé depuis une vingtaine d’années : stress, risques psychosociaux, burnout, mais également bien-être, qualité de vie au travail (QVT) et QVCT plus récemment, dans une approche plus positive de la santé au travail. La santé mentale au travail concerne tous les niveaux hiérarchiques, tous secteurs d’activité confondus : direction, encadrement, management de proximité, exécutants mais aussi travailleurs indépendants.

« Greatwashing »

Les acteurs tels que l’Anact ou l’Institut national de recherche et de sécurité (INRS), ainsi que de nombreux articles scientifiques, notamment en gestion des ressources humaines, défendent depuis une dizaine d’années une approche spécifique de l’action en santé au travail.

Ils souhaitent débattre collectivement de l’activité réelle de travail, des conditions et du contenu du travail, garantir aux salariés une capacité d’expression et d’action autour de leur travail, co-construire le diagnostic de la situation de travail et proposer des dispositifs adaptés et partagés.




À lire aussi :
Qualité de vie au travail : bienvenue dans l’ère du « greatwashing »


La situation ne semble pas s’améliorer au sein des organisations, elle semble même empirer, notamment au sortir de la crise sanitaire et des épisodes de confinement. De multiples obstacles à la prévention en santé mentale au travail sont apparus :

  • le déni des salariés et/ou de leur encadrement, notamment dans un contexte de crise et d’instabilité économiques ;

  • la difficulté à mettre en mots les maux (pas de liens stricts de cause à effet entre des contextes de travail et des manifestations de dégradation de la santé mentale au travail) ;

  • la forte dimension subjective du vécu du travail et de ses risques.


Abonnez-vous dès aujourd’hui !

Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH, marketing, finance…).


Plus largement d’autres obstacles émergent. Certains accords de prévention en entreprise sont scellés a minima. Ils questionnent peu ou pas l’organisation du travail avec des actions plus individualisées (cellules d’écoute, formations, etc.), une déresponsabilisation de l’organisation, privilégiant des actions visibles et sur le court terme, leur permettant de communiquer rapidement, voire d’améliorer leur marque employeur, jusqu’à potentiellement tomber dans le « greatwashing ».

Une autre limite identifiée est en lien avec le taux de rotation des personnels encadrants. Les actions et les résultats de courte durée sont préférés, dans une optique de carrière, plutôt que des actions sur le long terme, dont les résultats sont peu visibles, et donc peu valorisables.

Privilégier les petites victoires à une grande défaite

Nous pensons que, pour être efficace et pérenne, l’action en santé mentale au travail doit reposer sur deux piliers : le pragmatisme managérial et la subsidiarité.

Face aux difficultés telles que l’instrumentalisation de la prévention, les stratégies et rapports de force entre acteurs, la déresponsabilisation de l’organisation et l’individualisation des maux, nous défendons l’idée d’une action modeste, simple, identifiable et identifiée. Elle vise en priorité à agir sur ce qui est possible, faisable, et « au bon niveau », avec les parties prenantes concernées.

Cette stratégie des petits pas et des petits groupes, appliquée au management de la santé au travail, semble lever certains blocages. Elle permettrait aux acteurs de s’entendre plus facilement sur les termes employés, facilitant un diagnostic partagé, situé, dans un périmètre limité – un service, un groupe de travail, une équipe, etc. Cette stratégie faciliterait également l’instauration d’un dialogue et d’une saine conflictualité, ou la rendrait a minima moins complexe et risquée. Le principe de subsidiarité prendrait ici tout son sens, en réglant le problème là où il se pose, par et avec les personnes directement concernées.

Toute ambition démesurée en santé au travail nous semble perdue d’avance, voire contre-productive, la gestion de la santé mentale au travail pouvant paradoxalement dégrader cette dernière.

Le rôle du manager de proximité nous semble décisif : bien que la QVCT soit « l’affaire de toutes et de tous », elle nous semble être particulièrement l’affaire de ces encadrants, positionnés au plus proche du réel, en prise avec sa complexité et pouvant, plus que les autres, mettre en débat l’activité de travail.

The Conversation

Tarik Chakor ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Mieux accompagner la santé mentale au travail : la stratégie des petits pas – https://theconversation.com/mieux-accompagner-la-sante-mentale-au-travail-la-strategie-des-petits-pas-248922

Covid-19 : de nouvelles molécules anticoronavirus isolées à partir de l’argousier

Source: – By Céline Rivière, Professeure des Universités, Chimie des substances naturelles, Université de Lille

L’argousier contient des composés actifs contre les coronavirus. Joanna Boisse/Wikimedia Commons, CC BY-NC-SA

L’arsenal pharmaceutique dont nous disposons pour combattre les coronavirus demeure très limité. En raison de la grande diversité des composés qu’elles produisent, les plantes pourraient s’avérer de précieuses alliées pour l’étoffer. Y compris les plus communes d’entre elles : des composés anticoronavirus ont en effet été découverts dans l’argousier, un arbuste épineux qui peuple nos rivages.


Cinq ans après l’émergence du SARS-CoV-2, responsable de la pandémie de Covid-19, très peu de molécules antivirales efficaces contre ce coronavirus sont disponibles pour soigner les patients. Malgré les efforts des équipes de recherche académique et pharmaceutiques à travers le monde, le repositionnement des médicaments existants n’a pas donné les résultats escomptés.

Même si la pandémie est désormais considérée comme terminée, et que les vaccins permettent de protéger les personnes les plus à risque de faire des formes sévères, il demeure important de poursuivre les recherches. En effet, les spécialistes s’accordent sur le fait que l’émergence d’autres coronavirus hautement virulents se produira dans le futur.

La poursuite des efforts pour identifier des molécules actives contre cette famille de virus s’impose donc, notamment parce qu’il est particulièrement difficile d’anticiper l’apparition de ces nouveaux épisodes infectieux.

C’est précisément l’objet des recherches que nous menons en collaboration depuis plusieurs années au sein de nos équipes respectives. Nos travaux ont pour but de diversifier les sources de molécules antivirales, d’identifier de nouvelles cibles virales ou cellulaires, ou de découvrir de nouveaux mécanismes d’action.

Ils nous ont permis d’identifier un composé anticoronavirus prometteur à partir d’une plante commune, l’argousier (Hippophae Rhamnoides L., Elaegnaceae). Si ces travaux sont encore préliminaires, ils démontrent l’intérêt d’explorer le potentiel antiviral des molécules présentes dans les végétaux.

Peu de molécules efficaces contre les coronavirus

Les coronavirus humains se divisent en deux groupes : les coronavirus « peu virulents », responsables de simples rhumes (tels que HCoV-229E, HCoV-HKU-1, ou HCoV-NL63, par exemple), et les coronavirus « hautement virulents ». On trouve parmi ces derniers non seulement le SARS-CoV-2, responsable de la pandémie de Covid-19, mais aussi le SARS-CoV-1, à l’origine en 2003 d’une épidémie qui avait contaminé plus de 8 000 personnes et entraîné près de 800 décès, ou encore le MERS-CoV, qui circule au Moyen-Orient.

Cinq ans après l’apparition du SARS-CoV-2, et malgré un effort international colossal en matière de recherche de molécules efficaces contre cet agent infectieux, un seul antiviral par voie orale est disponible sur le marché français, le Paxlovid. Celui-ci est basé sur l’association de deux composés : le nirmatrelvir, qui inhibe une enzyme nécessaire à la réplication du coronavirus SARS-CoV-2, et le ritonavir, un second inhibiteur d’enzyme qui permet, dans ce contexte, d’augmenter les concentrations sanguines du nirmatrelvir.

Un autre antiviral, le remdesivir, qui inhibe la polymérase virale (autre enzyme indispensable au virus pour se reproduire), est également disponible, mais par voie intraveineuse et seulement pour certains patients.

Cet arsenal limité souligne à quel point il est compliqué de mettre au point des molécules spécifiques dans des délais courts. La recherche d’antiviraux est un processus de longue haleine.

Les plantes, une réserve de substances actives à préserver

Les plantes représenteraient la seconde plus grande source de biodiversité de notre planète : on estime en effet que le nombre d’espèces végétales est compris entre 300 000 et 500 000. Parmi elles, de 20 000 à 50 000 sont employées en médecine traditionnelle.

Chaque plante a sa propre identité « phytochimique » : elle produit plusieurs centaines de composés dont les structures sont souvent uniques et complexes. Les végétaux constituent donc un réservoir majeur de molécules ayant potentiellement des activités biologiques très différentes les unes des autres.

De nombreux médicaments couramment utilisés à travers le monde s’appuient sur des principes actifs d’origine végétale. Ces derniers peuvent être utilisés après avoir été directement extraits de la plante, comme la morphine, extraite du pavot. Ils peuvent aussi être légèrement modifiés par réaction chimique, comme dans le cas du taxol (un anticancéreux obtenu par hémisynthèse, processus consistant à fabriquer une molécule à partir de composés naturels dont la structure chimique est déjà proche du composé souhaité) à partir d’un précurseur isolé de l’if européen ou des dérivés hémisynthétiques de l’artémisinine, une molécule à activité antipaludique extraite de l’armoise annuelle.

Cependant, à l’heure actuelle, seuls 15 à 20 % des plantes terrestres ont été évaluées pour leur potentiel pharmaceutique. En outre, jusqu’à présent, les molécules d’origine végétale ont été très peu étudiées par les scientifiques recherchant des antiviraux, qu’ils soient dirigés contre les coronavirus ou d’autres familles de virus.

En raison de leur grande diversité et des nombreuses molécules qu’elles produisent, les plantes constituent pourtant une source potentielle d’agents antiviraux très intéressante, pouvant être utilisés tels quels ou légèrement modifiés. Les composés produits par les plantes peuvent aussi inspirer la conception d’antiviraux obtenus par synthèse totale (autrement dit fabriqués entièrement artificiellement). Mais avant d’en arriver là, encore faut-il réussir à identifier les molécules actives, ce qui n’est pas une mince affaire.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Des milliers de molécules à séparer

Identifier une molécule biologiquement active à partir d’organismes vivants n’est pas simple, en raison du très grand nombre de composés qui constituent ces derniers. Cela requiert de passer par un « fractionnement bioguidé » : il s’agit de tester l’activité biologique à chaque étape du processus de séparation des composés (fractionnement). Ce fractionnement peut être accéléré en combinant des approches analytiques et statistiques.

Concrètement, lorsque l’on cherche à identifier un composé actif dans un végétal, la plante concernée est d’abord broyée et mise en contact avec des solvants (eau, éthanol, solvants organiques…). Les filtrats récupérés (appelés « extraits ») sont ensuite séchés. Ils contiennent des centaines, voire des milliers de molécules.

Ces extraits sont ensuite testés sur différents modèles (comme des cultures de bactéries, de champignons, de virus, de cellules tumorales, etc) afin de détecter une activité biologique (on parle de « criblage »).

S’il s’avère qu’un extrait présente un effet, il va subir plusieurs étapes de purification successives, par des techniques dites de chromatographie préparative. Le but est de séparer les nombreux composés différents qu’il contient pour ne garder que celui (ou ceux) responsable(s) de l’activité.

À chaque étape, du début à la fin de ce processus, les nouveaux extraits produits (on parle de « fractions ») à partir de l’extrait précédent sont testés, afin de suivre l’activité biologique. La phase ultime de ce « fractionnement bioguidé » est d’obtenir une molécule active purifiée dont on pourra déterminer la structure par des techniques spectroscopiques.

Le potentiel antiviral des plantes adaptées à des conditions extrêmes

Nos deux équipes s’intéressent depuis plusieurs années aux plantes extrêmophiles, qui, comme leur nom l’indique, vivent dans des conditions extrêmes. Ces espèces végétales doivent, en partie, leur capacité à survivre dans des milieux difficiles à des molécules spécifiques qui leur permettent de s’y adapter. Nous avons étudié en particulier les plantes halophytes, autrement dit poussant sur des sols qui contiennent des teneurs en sel très élevées.

En 2019, nos travaux ont permis d’identifier un agent antiviral d’origine naturelle, actif contre la réplication du virus de l’hépatite C, nommé dehydrojuncusol ; ce composé phénanthrénique a été découvert dans le rhizome de jonc de mer (Juncus maritimus Lam.) suite au criblage d’une quinzaine d’extraits de plantes halophytes et à un fractionnement bioguidé. Le déhydrojuncusol possède un mécanisme d’action similaire à celui de médicaments efficaces utilisés dans le traitement de l’hépatite C en inhibant une protéine du virus nécessaire à sa réplication.

Cette étude in vitro était la preuve que les plantes halophytes pouvaient contenir des antiviraux puissants aux mécanismes d’action similaires à ceux issus de la chimie de synthèse.

Dans la continuité de ces travaux, vingt-deux plantes strictement halophytes ou tolérantes au sel ont ensuite été collectées sur le littoral des Hauts-de-France, en partenariat avec les gestionnaires de ses sites naturels, dans le but cette fois de rechercher une activité contre les coronavirus humains.

L’argousier, une source d’inspiration d’agents antiviraux ?

Les extraits réalisés à partir de ces vingt-deux nouvelles plantes, parmi lesquelles la salicorne, la criste marine, la matricaire maritime, l’argousier, l’euphorbe maritime, l’oyat, ou encore le saule des dunes, ont été testés contre le coronavirus HCoV-229E, responsables de rhumes bénins.

Ceux qui se sont révélés les plus actifs ont ensuite été testés contre le coronavirus SARS-CoV-2, responsable de la Covid-19. Le but de ces recherches était en effet d’identifier des antiviraux capables de traiter plusieurs coronavirus humains.

Le meilleur candidat s’est avéré être un extrait d’argousier. Cette plante indigène, relativement tolérante au sel et à caractère envahissant, pousse dans les massifs dunaires de la région des Hauts-de-France.

Après un fractionnement bioguidé, des composés actifs ont pu être isolés et identifiés. Les plus prometteurs se sont avérés capables d’inhiber (in vitro) non seulement l’infection par le SARS-CoV-2, mais aussi par le HCoV-229E.

Quelle suite à ces travaux ?

Ces travaux ont permis de démontrer, au laboratoire, l’intérêt de molécules d’origine végétale dans la lutte contre les maladies humaines d’origine virale. Ils ne constituent cependant que l’étape préliminaire dans le long parcours semé d’embûches qui mène à la mise au point de nouveaux médicaments.

Après cette première étape de mise en évidence de molécules d’intérêt réussie, il faut ensuite poursuivre les essais, en passant notamment à des essais précliniques, autrement dit, sur des cellules humaines primaires isolées de biopsie de patients ou sur des animaux de laboratoire.

Si les résultats sont concluants, viendront ensuite les premières administrations chez l’humain, en général sur un petit nombre de volontaires sains (essais cliniques de phase I). La phase suivante (phase II) consiste à administrer le médicament à un plus grand nombre de patients afin de tester son efficacité, sa posologie et son devenir dans l’organisme (pharmacodynamique). Les essais de phase III portent sur un nombre encore plus grand de participants. Il faudra également les tester in vitro sur d’autres membres de la famille des coronavirus humains, tels que le MERS-CoV.

Toutes ces étapes nécessitent d’importants financements. Lorsqu’il s’agit d’identifier de nouveaux « candidats médicaments » (« drug candidate » en anglais), la finalisation de la recherche préclinique puis le passage en clinique reste le maillon faible, en raison du manque de moyens.

Il est cependant urgent aujourd’hui de trouver les moyens d’amener ces molécules d’intérêt à un stade plus avancé. En effet, dans l’optique de se préparer à une prochaine épidémie ou pandémie de coronavirus humains, disposer de médicaments actifs contre l’ensemble des coronavirus serait un atout majeur.

Rappelons qu’il faut en moyenne quinze ans pour qu’une molécule présentant un intérêt arrive sur le marché, et que le taux d’échec est très important (plus de la moitié des molécules qui arrivent en phase III échouent…). Il n’y a donc pas de temps à perdre. Actuellement, nos équipes continuent à chercher des composés antiviraux dans d’autres collections de plantes.

Nos travaux soulignent aussi que la découverte de molécules bioactives est très étroitement liée à la biodiversité végétale. La problématique de la dégradation des milieux naturels, qui s’est accentuée ces dernières décennies, doit donc être prise en considération dans le cadre des programmes de recherche qui ciblent le potentiel biologique des molécules d’origine naturelle.


Les autrices tiennent à remercier Malak Al Ibrahim, doctorante sur le projet (2021-2024, programme HaloHcoV PEARL), le Dr Gabriel Lefèvre (pour la sélection, la collecte et l’identification des différentes plantes testées), les gestionnaires de sites qui ont participé aux échanges et partagé leurs connaissances, ainsi que l’ensemble des membres des équipes de recherche.

The Conversation

Céline Rivière est membre de sociétés savantes (Association Francophone pour l’Enseignement et la Recherche en Pharmacognosie, Phytochemical Society of Europe). Elle est aussi experte pour l’ANSES. Elle a reçu des financements de la Région Hauts-de-France, de l’Union Européenne “Horizon 2020 Research and Innovation program” et I-Site ULNE (PEARL programme) et de l’ANR.

Karin Séron a reçu des financements de la Région Hauts-de-France, de l’Union Européenne “Horizon 2020 Research and Innovation program” et I-Site ULNE (PEARL programme) et de l’ANR.

ref. Covid-19 : de nouvelles molécules anticoronavirus isolées à partir de l’argousier – https://theconversation.com/covid-19-de-nouvelles-molecules-anticoronavirus-isolees-a-partir-de-largousier-250343

Passé 50 ans, quelle alimentation privilégier pour préserver et protéger ses muscles ?

Source: – By Patricia Yárnoz Esquíroz, Profesor Clínico Asociado, Universidad de Navarra

Hors pathologies, dans le cadre d’une vie quotidienne physiquement active, les apports nutritionnels sont couverts par une alimentation équilibrée ; il n’est pas nécessaire de prendre des compléments alimentaires. Prostock Studio/Shutterstock

Après 50 ans, la pratique d’une activité physique est recommandée pour compenser la perte naturelle de masse musculaire et osseuse. Pour la santé de ses muscles et de ses os, aussi pour éviter les blessures, elle doit s’accompagner d’une alimentation équilibrée qui apporte des protéines et nutriments essentiels. On fait le point.


Mieux vaut tard que jamais. De plus en plus de personnes envisagent de commencer la pratique d’activité physique après l’âge de 50 ans. Est-ce une bonne idée ? Les différents organismes dédiés à la santé s’accordent à dire que oui : l’activité physique n’est pas seulement essentielle pour prévenir des maladies, elle est également recommandée pour aider à la prise en charge de bon nombre de pathologies.




À lire aussi :
Activité physique : les objets connectés peuvent-ils nous motiver ?


Toutefois, commencer à bouger à ce stade de la vie nécessite de prendre certaines précautions. Surtout chez celles et ceux qui ne pratiquaient pas d’activité physique auparavant ou chez les personnes en surpoids ou obèses.

Il a en effet été prouvé que commencer à faire de l’exercice avec des routines trop exigeantes peut entraîner des blessures importantes, au niveau musculaire ou osseux, surtout si elles sont combinées à une alimentation inadaptée.

Ce risque est majoré après 50 ans, un âge où la perte de masse musculaire et osseuse est accentuée en raison du vieillissement naturel.

Par conséquent, avant de commencer tout programme d’activité physique, il est conseillé d’effectuer une analyse complète afin d’évaluer la nécessité d’une supplémentation en cas de carence en micronutriments.

(L’Agence nationale de sécurité sanitaire [Anses] indique : « Les déficits d’apport et a fortiori les carences en nutriments sont très rares dans la population générale et concernent principalement la vitamine D. De manière générale, en l’absence de pathologies, la couverture des besoins nutritionnels est possible par une alimentation variée et équilibrée dans le cadre d’une vie quotidienne physiquement active. La consommation de compléments alimentaires n’est alors pas nécessaire. » – ndlr.)

Le rôle clé joué par les protéines

En plus des micronutriments, le corps a besoin de macronutriments, c’est-à-dire de glucides, de graisses et de protéines. Ces derniers fournissent à l’organisme humain les acides aminés essentiels nécessaires au maintien et au développement de la masse musculaire et à la prévention de la sarcopénie – qui correspond à la perte de masse musculaire et de force liée à l’âge (généralement présentée comme une fragilité) –, de lésions musculaires et de l’ostéoporose.

Les besoins en protéines varient en fonction de la situation clinique de chaque individu. Chez les personnes actives de plus de 50 ans qui pratiquent une activité physique modérée, ces besoins varient entre 1 et 1,5 gramme par kilo de poids corporel et par jour.

Bien évidemment, il est conseillé de ne pas augmenter sa consommation si elle n’est pas accompagnée d’une activité physique qui nécessite cet apport. Un excès de protéines peut en effet avoir des effets contre-productifs, en particulier sur la santé des os, car il a été observé que cela peut augmenter l’élimination du calcium dans l’urine (calciurie), en raison d’une diminution de la réabsorption tubulaire du calcium.

D’origine végétale ou animale ?

Les sources de protéines doivent combiner des aliments d’origine végétale, comme le soja, le lupin, les graines de courge, les cacahuètes ou les lentilles, entre autres, et d’origine animale, à l’image des œufs, des produits laitiers, du poulet ou du poisson.




À lire aussi :
Soja : comment bien le préparer pour préserver sa santé


Par ailleurs, bien que l’idéal soit de suivre un régime avec une présence équilibrée des deux sources de protéines, il a été démontré que suivre un régime alimentaire végétarien est compatible avec le sport de haut niveau grâce à un suivi médico-nutritionnel adapté.




À lire aussi :
Haricots, soja, pois, lentilles… profiter des légumineuses sans risques ni inconforts


Enfin, la question du « Quand ? » compte aussi.

Répartir son apport en protéines tout au long de la journée est plus bénéfique que de le concentrer sur un seul repas. Dans la même ligne, en assurant un apport adapté durant les trente minutes qui précèdent ou qui suivent l’exécution des exercices physiques, l’absorption des protéines par l’organisme et leur disponibilité seront meilleures.

Micronutriments essentiels : magnésium, calcium et vitamine D

Quant aux micronutriments (vitamines et minéraux), certains jouent un rôle fondamental dans la pratique sportive à cet âge, comme le magnésium, le calcium et la vitamine D.

Le magnésium aide à la récupération musculaire et à la formation des os. Ce micronutriment peut être trouvé dans des aliments tels que le son de blé, le fromage, les graines de citrouille ou les graines de lin.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Concernant le calcium, il est essentiel pour maintenir une minéralisation osseuse adéquate et éviter les pertes de densité minérale osseuse (ostéopénie) associées à des déficits de cet élément dans le sang.

Traditionnellement, la consommation de produits laitiers a été l’un des grands alliés de la santé des os, à la fois pour leur biodisponibilité (degré et vitesse avec lesquels un médicament passe dans le sang et atteint son site d’action) en calcium et pour leur teneur en vitamine D dans les versions de produits laitiers faites à partir de lait entier.

D’autres aliments d’origine végétale, comme la pâte de sésame, les amandes, les graines de lin, le soja ou les noisettes, sont également considérés comme des sources de calcium, mais leur teneur en phytate et en oxalate peut entraver leur absorption.

Enfin, les poissons gras (thon, bonite, sardine ou saumon, entre autres) et les jaunes d’œufs sont considérés comme des sources complémentaires de vitamine D, dans le cadre d’un régime alimentaire axé sur les personnes de plus de 50 ans qui pratiquent une activité physique.

Et il n’est pas moins important de maintenir une bonne hydratation avant, pendant et après l’exercice. La déshydratation et la surhydratation peuvent toutes deux affecter les performances et augmenter le risque de blessures musculaires.

Le type d’exercice pratiqué est-il important ?

Jusqu’à présent, nous avons vu comment l’alimentation influence les performances sportives et, finalement, le risque de blessures. Maintenant, l’équation comporte une autre inconnue : le type d’exercice effectué.

À ce stade, nous assistons actuellement à un débat intéressant sur le type d’exercices appropriés en fonction de l’âge, du sexe ou de la composition corporelle ; la question est de savoir s’il est préférable de privilégier les exercices de musculation, d’alterner avec des séances de cardio ou de faire les deux sur des jours différents.

Quoi qu’il en soit, et malgré les différentes théories à ce sujet, une chose est claire : faire de l’exercice de manière régulière, adapté aux capacités de chaque personne et avec un bon suivi médico-nutritionnel, réduit le risque de maladies multiples et améliore la qualité de vie.

The Conversation

Patricia Yárnoz Esquíroz est membre de CODINNA, SEEDO, IdiSNA, SENPE et collabore avec l’AECC.

ref. Passé 50 ans, quelle alimentation privilégier pour préserver et protéger ses muscles ? – https://theconversation.com/passe-50-ans-quelle-alimentation-privilegier-pour-preserver-et-proteger-ses-muscles-258029

Pourquoi Saint-Pierre-et-Miquelon a-t-il été pris pour cible par Donald Trump et Laurent Wauquiez ?

Source: – By Paco Milhiet, Visiting fellow au sein de la Rajaratnam School of International Studies ( NTU-Singapour), chercheur associé à l’Institut catholique de Paris, Institut catholique de Paris (ICP)

Après Donald Trump, qui a menacé l’archipel français d’être taxé à 50 % sur ses exportations de poisson, le député LR Laurent Wauquiez a proposé d’y envoyer les étrangers sous OQTF, le 9 avril. Victime de ce double « bad buzz », les autorités locales du territoire de 5000 habitants ont réagi avec humour à travers une campagne promotionnelle « OQTF » (On Quitte Tout Facilement pour vivre à Saint-Pierre-et-Miquelon), mettant en avant sa qualité de vie et ses paysages exceptionnels.


Saint-Pierre-et-Miquelon est un petit archipel français situé au large de Terre-Neuve, dans la partie nord-ouest de l’océan Atlantique.

Une carte montre les îles au large de la côte de Terre-Neuve et sa zone économique exclusive
Carte de Saint-Pierre-et-Miquelon et de sa zone économique exclusive.
(Eric Gaba)

Le territoire ne s’étend que sur 244 kilomètres carrés et compte seulement 5 800 habitants. Il a néanmoins récemment fait parler de lui à l’échelle internationale, d’une part en raison de son inclusion dans une vague d’imposition de droits de douane par les États-Unis et, d’autre part, à cause d’une remarque controversée de Lurent Wauquiez, président du groupe parlementaire LR, suggérant d’y déporter des sans-papiers.

Ces événements sont l’occasion d’examiner les liens historiques et géopolitiques complexes qui concernent Saint-Pierre-et-Miquelon et qui impliquent la France, le Canada et les États-Unis.

Dernier territoire français dans la région

Visité par les peuples autochtones pendant près de 5 000 ans, l’archipel de Saint-Pierre-et-Miquelon a été découvert par des navigateurs européens à la fin du XVe siècle pour ensuite être officiellement revendiqué pour la France par Jacques Cartier en 1536.

L’archipel est rapidement devenu une base stratégique pour les pêcheurs français de morue et de baleine. Au cours des siècles suivants, la France et la Grande-Bretagne se sont âprement disputé ces îles, qui ont changé de mains à plusieurs reprises avant d’être définitivement rendues à la France en 1816.

Au XXe siècle, l’archipel a été le théâtre de conflits incessants entre le Canada et la France autour de la pêche.

Ces conflits ont atteint leur paroxysme en 1988 avec la saisie de navires de pêche, le rappel d’ambassadeurs et la violation d’accords. Malgré des droits historiques inscrits dans des traités, l’accès de la France aux zones de pêche a diminué après le moratoire sur la pêche à la morue décrété par le Canada en 1992, ainsi qu’une décision arbitrale accordant à Saint-Pierre-et-Miquelon une zone économique exclusive de seulement 38 kilomètres autour de l’archipel, à l’exception d’une bande de 16 kilomètres qui s’étend sur 320 kilomètres vers le sud.

Ces deux événements ont eu des répercussions économiques importantes pour Saint-Pierre-et-Miquelon

Des droits de douane exceptionnels

Aujourd’hui, l’économie locale est faible, représentant moins de 0,001 % du PIB de la France, et dépend fortement des fonds publics et des apports extérieurs, notamment du Canada voisin.

Néanmoins, le territoire a d’abord été inclus dans les cibles des tarifs douaniers dits du « jour de la libération », annoncés par le président américain Donald Trump en avril. Il a été soumis à des droits de douane de 50 %, ce qui en a fait temporairement un des territoires les plus taxés au monde, à l’égal du Lesotho, pays africain enclavé.

Si Trump a fait volte-face et ramené les droits de douane à 10 % quelques jours plus tard, la décision initiale laisse perplexe étant donné le poids économique minime de l’archipel et sa position géopolitique périphérique. Pourquoi l’administration Trump a-t-elle ciblé aussi brutalement ces îles ?

Flétan et géopolitique

Les relations commerciales entre Saint-Pierre-et-Miquelon et les États-Unis étaient équilibrées de 2010 à 2025, sauf en juillet 2024, où un écart marqué est apparu. Les États-Unis ont alors importé pour 3,4 millions de dollars de marchandises en provenance des îles, tandis que leurs exportations n’ont totalisé que 100 000 dollars sur toute l’année.

Le gouvernement américain a interprété ce déséquilibre commercial de 3 300 % pour l’année 2024 comme la preuve de l’imposition d’un droit de douane de 99 % par le territoire. Le même type de calcul erroné a été utilisé pour d’autres pays.

D’où vient cet écart en juillet 2024 ?

Selon plusieurs rapports, cette anomalie statistique est en fait le résultat d’un différend de longue date entre la France et le Canada au sujet des quotas de pêche dans les eaux bordant Saint-Pierre-et-Miquelon.

Historiquement, le territoire exporte principalement des produits de la mer vers la France et le Canada, et presque rien vers les États-Unis.

Pourtant, en juin 2024, un bateau français a déchargé plusieurs tonnes de flétan – un poisson cher et très prisé des gastronomes – à Saint-Pierre.

Bien que la prise ait été effectuée dans les eaux internationales et qu’elle soit techniquement légale, elle s’est déroulée dans un contexte de tensions entre la France et le Canada concernant les stocks de flétan et la durabilité de l’espèce dans la région.

En raison de ces tensions, le poisson a été redirigé vers le marché américain et vendu pour 3,4 millions de dollars, devenant ainsi la cause de l’imposition de droits de douane élevés par l’administration Trump.

La France et le Canada sont parvenus à une entente sur le flétan plus tard en 2024. Mais cette « guerre du flétan » n’est que le plus récent exemple des conflits récurrents entre les deux pays concernant les quotas de pêche au large des Grands Bancs de Terre-Neuve, une des zones de pêche les plus abondantes au monde.

Ainsi, les droits de douane élevés imposés par les États-Unis à l’archipel français, même s’ils ont été rapidement modifiés, étaient une conséquence indirecte des vieilles tensions entre la France et le Canada.

Un nouvel Alcatraz ?

Quelques jours après s’être remis du choc tarifaire, Saint-Pierre-et-Miquelon se retrouve à nouveau sur la sellette.

Laurent Wauquiez, l’un des prétendants LR à la présidence de la République, a proposé que les migrants faisant l’objet d’un ordre de quitter le territoire (OQTF) se voient offrir deux possibilités : être détenus à Saint-Pierre-et-Miquelon ou retourner dans leur pays d’origine.

Laurent Wauquiez lors d’une réunion des Républicains (LR) à Paris, le 9 février 2022.
Victor Velter

Ce n’est pas la première fois que des politiciens parlent d’expulser des prisonniers vers les territoires français d’outre-mer.

Cette suggestion s’inscrit dans la lignée de l’utilisation historique par la France de certains territoires comme sites de colonies pénitentiaires, notamment Cayenne, en Guyane française et la Nouvelle-Calédonie, dans le Pacifique Sud.

Les propos de Laurent Wauquiez ont été largement condamnés pour leur ton méprisant et colonial, y compris par des membres du gouvernement.

En réponse, les autorités locales ont tenté de tirer parti de la controverse en lançant une campagne médiatique humoristique reprenant le sigle OQTF pour « On Quitte Tout Facilement pour vivre à Saint-Pierre-et-Miquelon).

Trois publicités sur les réseaux sociaux
Annonces sur les réseaux sociaux de l’administration de Saint-Pierre-et-Miquelon inspirée par la proposition d’expulsion de Laurent Wauquiez.
(Compiled by Paco Milhiet)

Leur objectif était de changer le discours et de mettre en avant les attraits de l’archipel : faible taux de chômage, grande sécurité publique, paysages naturels exceptionnels et vie paisible et familiale, et ce, si possible, sans les lourds droits de douane américains.

The Conversation

Paco Milhiet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Pourquoi Saint-Pierre-et-Miquelon a-t-il été pris pour cible par Donald Trump et Laurent Wauquiez ? – https://theconversation.com/pourquoi-saint-pierre-et-miquelon-a-t-il-ete-pris-pour-cible-par-donald-trump-et-laurent-wauquiez-258262