Thés sencha, umami, grands crus… Comment le marketing invente de nouveaux discours

Source: The Conversation – Indonesia – By Pierre-Yves Modicom, Professeur, Université Jean Moulin Lyon 3

_Umami_ (« savoureux » en japonais) est un qualificatif, qui n’était pas spécialement associé au thé, dont la popularité récente désigne une « cinquième saveur », censément propre à la culture gastronomique japonaise. PeopleImagesYuri A/Shutterstock

Bienvenue à l’ère des thés iodés, boisés et umami. Cette nouvelle culture du thé haut de gamme s’appuie sur de supposés terroirs ou sur un imaginaire de raffinement, inspiré de l’œnologie. Les grands gagnants de cette mutation sémantique : les distributeurs et vendeurs de thé.


« Thés d’origine », « grands crus », « goût iodé » ou « boisé », « saveur umami », senteurs qui « évoquent les montagnes de Chine », si ces termes vous parlent, vous êtes certainement amateurs de thé. Depuis quelques années, ils fleurissent et traduisent un changement palpable dans les discours environnant la consommation du précieux breuvage. En 2022, la consommation moyenne de thé en France était de 250 grammes par personne et par an.

Cette mutation emprunte beaucoup aux discours œnologiques. Elle s’inscrit dans une longue histoire, celle de la perception occidentale du thé comme une boisson à la fois exotique et raffinée. En réalité, elle n’est pas spécifique à la France.

Elle témoigne d’une évolution du marché européen qui doit beaucoup à l’action des distributeurs spécialisés et à leur stratégie marketing. C’est ce que montrent les premiers résultats d’une étude qui sera présentée à Lyon le 20 juin, lors d’un colloque consacré à l’histoire du marché du thé dans une perspective interculturelle.

Parler d’un thé comme d’un vin

Les nouveaux discours du thé doivent beaucoup aux usages développés dans le domaine de la vigne et du vin. Une première série d’emprunts à l’œnologie concerne les pratiques de désignation des thés, en particulier des thés purs : les cultivars, terme botanique, sont fréquemment qualifiés de « cépages ».

Comme un vin, un thé peut « libérer des saveurs » qualifiées par des adjectifs que l’on retrouve aussi dans la description des arômes du vin ou du whisky. Le goût n’est pas seulement décrit en termes de « saveurs », mais aussi de « notes ». Par exemple, un thé darjeeling est décrit comme :

« Produit dans le jardin de Selimbong, ce thé noir dévoile lors de sa dégustation tout le charme secret qui rend les thés de printemps de cette région du nord de l’Inde si séduisants. Sa liqueur enveloppante libère des saveurs florales, fruitées, boisées et minérales d’une rare intensité. »

Les descriptions empruntent des tournures syntaxiques à l’œnologie : là où un vin peut « offrir une robe » qui sera décrite par des adjectifs de couleur, un vin « offre » ou « procure une tasse ». Même si celle-ci peut être « dorée », elle sera souvent décrite pour autre chose que sa couleur, comme « douce » ou « chaleureuse ».

Pour sa part, la description des « accords » thé/mets par les « sommeliers de thé » est calquée sur le discours des sommeliers traditionnels, comme pour ce thé du Yunnan :

« Ce thé s’accorde idéalement avec une viande rouge ou un gibier : ses notes se fondent avec les parfums pyrogénés de la viande rôtie ou grillée. Les notes miellées du Grand Yunnan impérial se marient aussi parfaitement avec un chocolat noir intense, pour un accord de caractère. »

Thé haut de gamme

On assiste à la diffusion d’une nouvelle culture du thé haut de gamme, en prenant appui sur les usages de l’œnologie. Ce choix stratégique se révèle d’autant plus judicieux qu’il est en phase avec l’image historique du thé comme boisson synonyme de raffinement et de distinction. Un distributeur peut ainsi décrire « un Earl Grey très élégant, à la fois sophistiqué et racé ».

La scène européenne du thé pris un soir d’automne ou d’hiver ressurgit au détour de la description d’un thé de Chine : « Un (thé) Pu-Erh de l’année aux feuilles torsadées, offrant une infusion au bouquet sous-bois humide et des notes évoquant le feu de cheminée. »

Comme pour le vin, les descriptions des thés d’origine évoquent volontiers des paysages : « Les nuits fraîches et brumeuses des contreforts de l’Himalaya ont donné à cette récolte de printemps son arôme si particulier. »

Plus généralement, les descripteurs utilisés renvoient souvent au domaine de la forêt, comme le montrent les adjectifs désignant la flore, mais aussi le « goût de sous-bois » fréquemment prêté au Pu-Erh chinois. La montagne et surtout la mer sont fréquemment mobilisées, elles aussi, sur une base fortement métaphorique. On ne s’étonnera donc pas de voir qualifié de « iodé » un thé s’accordant avec des fruits de mer :

« Cette récolte d’été offre une tasse aux notes végétales puissantes et à l’arôme iodé avec une légère astringence. Parfait en accompagnement de fruits de mer et crustacés, poisson cru et fromage de chèvre frais. »

Terroir de thé « umami »

La France produit 1 500 tonnes de thé par an, notamment à la Réunion, mais peu en France métropolitaine. Cette très faible production introduit une différence importante avec les discours du vin, en tout cas des vins français. La question du terroir est traitée sur le mode de l’exotisme, comme l’attestent les descriptions commençant par la désignation d’un lieu d’origine. Ce dernier prend la forme d’un nom propre que l’acheteur ne connaît pas forcément, le jardin de Selimbong.

Mais la question de l’ancrage dans un territoire ne se réduit ni aux paysages ni aux toponymes. Un thé pur ni parfumé ni mélangé et issu d’une seule région sera souvent qualifié de « thés d’origine », et adossé à un standard des productions agroalimentaires valorisées, l’appellation d’origine. Mais chez certains distributeurs, cette appellation s’applique aussi au genmaïcha, mélange de thé vert japonais et de riz soufflé, ou au thé au jasmin.

Les terroirs des « thés d’origine » sont presque toujours asiatiques, ce qui se traduit par des emprunts lexicaux au japonais et au chinois. Un simple coup d’œil à l’outil Google Ngram – application linguistique permettant d’observer l’évolution de la fréquence d’un ou de plusieurs mots ou groupes de mots – permet de constater une explosion récente de la fréquence du mot japonais umami dans les données francophones.

Occurence du terme umami (« savoureux ») dans le moteur de recherche Books Ngram Viewer.
Books Ngram Viewer

Umami, en japonais, signifie « savoureux ». Il n’est pas particulièrement associé au thé, mais a connu une popularité récente pour désigner une « cinquième saveur » supposément spécifique de la culture alimentaire japonaise. Le terme sencha, thé vert japonais, voit également son usage augmenter fortement. Cela contraste avec des thés plus haut de gamme gyokuro, mélangées genmaicha ou spécifiquement chinois comme Pu’Erh ou puerh, dont la fréquence d’usage est stable.

L’évolution des discours se cristallise donc sur le thé vert pur japonais d’entrée ou de milieu de gamme.

Évolution du marché

Cette évolution sur les trente dernières années doit beaucoup à quelques distributeurs emblématiques fonctionnant sur le modèle de la franchise comme Le Palais des Thés. Ces entreprises ont construit une image de marque reposant sur l’expertise technique de leurs fondateurs et la mise en avant d’un rôle de médiateur culturel et gastronomique. Le déploiement de cette nouvelle culture du thé passe par l’implantation de boutiques reconnaissables dans les quartiers commerçants de luxe, par le développement de formations privées ou partenariales aux métiers du thé, en particulier autour du métier de sommelier de thé, et par des initiatives éditoriales comme la publication de beaux livres sur le thé.

Devanture d’un magasin allemand de thé, Gschwendner, célèbre franchise européenne comme le Palais des thés, en France.
Wikimediacommons

Cette stratégie n’est pas spécifique au marché français. Elle est également très bien documentée en Allemagne, où elle a été initiée à la toute fin des années 1980 par la société Gschwendner. On en retrouve les grands principes en France dans la politique d’une société qui a pris son essor dans les années 1990, le Palais des thés. Dans les deux pays, les marques historiques vendant des thés parfumés de luxe ont rapidement développé une offre commerciale adaptée à ce marché émergent.

La comparaison entre les deux pays a ses limites. Les pratiques discursives attachées à cette nouvelle culture ont des formats très semblables, mais leur substance linguistique diffère. Les contributions consultables sur la théinosphère allemande évoquent le goût moins en détail, mais certaines s’attardent davantage sur la nuance de vert dans la tasse. De façon générale, l’homogénéisation des discours sur le thé dans le monde germanophone semble moins avancée qu’en France. Peut-être sous l’effet d’une sociologie des discours du vin qui n’est pas tout à fait la même entre les deux pays ?

The Conversation

Pierre-Yves Modicom ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Thés sencha, umami, grands crus… Comment le marketing invente de nouveaux discours – https://theconversation.com/thes-sencha-umami-grands-crus-comment-le-marketing-invente-de-nouveaux-discours-256725

Édouard Glissant, poète du tremblement et penseur des arts

Source: The Conversation – Indonesia – By Aliocha Karol Wald Lasowski, Professeur des Universités en Littérature, HDR et Directeur du département (Licence, Master & Doctorat), Institut catholique de Lille (ICL)

Premier Congrès des écrivains et artistes noirs, Paris, septembre 1956. Présence africaine Éditions/Photographie Lutetia

Jusqu’au 30 juin, le Centre Pompidou (Paris) présente l’exposition « Paris noir. Circulations artistiques et luttes anticoloniales, 1950-2000 ». Elle y rend principalement hommage à des artistes plasticiens, mais offre également une place de choix au poète-philosophe Édouard Glissant. Retour sur la relation de celui-ci avec les artistes.


Des Afriques aux Amériques, la ville-monde de Paris se déploie en archipel transatlantique et carrefour panafricain, accompagnant l’expression esthétique anticoloniale dans toutes ses dimensions, pendant cinquante ans d’émancipation. Tel est le cœur de l’exposition « Paris noir », avec 150 artistes africains, caribéens et africains-américains, du créateur béninois Christian Zohoncon à la Haïtienne Luce Turnier, du peintre Beauford Delaney au Sud-Africain Gerard Sekoto.

Les plasticiens et expérimentateurs mettent en vibration de nouvelles liaisons magnétiques et artistiques, par l’émergence de formes afro-modernes inédites. S’y joue un dialogue entre histoires et cultures, qui relie art et mémoire en un laboratoire des imaginaires : du mouvement de la négritude à la politique des identités, du premier numéro de Présence africaine (1947) au lancement de la Revue noire (1991), les esthétiques et politiques relationnelles explorent les retours et détours de l’Afrique vers le Tout-monde. Par d’étroites alliances, qui croisent poètes, artistes et théoriciens, le combat anticolonial est une révolte menée sur plusieurs fronts, comme le rappelle le catalogue de l’exposition Paris noir, citant le moderniste nigérian Ben Enwomwu :

« L’artiste africain moderne doit faire face à une double responsabilité : trouver un credo artistique et une philosophie pour étayer ses idées révolutionnaires. »

D’autres dimensions intellectuelles pionnières émergent, portées par les écrivaines Paulette et Jane Nardal, les poètes Suzanne et Aimé Césaire ou le psychiatre Frantz Fanon. Parmi ces personnalités martiniquaises engagées, Édouard Glissant (1928-2011) participe du renouveau culturel antillais et international.

Quelle est la relation de Glissant aux artistes ?

Le poète-philosophe s’intéresse aux arts : théâtre, cinéma, danse, architecture, street art, photographie, sculpture, musique ou peinture. Passionné par la diversité des expressions, voies d’accès au sensible, Glissant fréquente les artistes tout au long de sa vie. Il se rend aux ateliers, discute avec les plasticiens, commente les œuvres ; il préface les catalogues d’exposition, participe aux festivals de musique, attentif aux chorégraphies expérimentales et invente la pratique des chaos-opéras.

Sur plusieurs décennies, Glissant est proche d’artistes cubains – les peintres et sculpteurs Wifredo Lam et Agustín Cárdenas, martiniquais – le céramiste Victor Anicet, du Chilien Roberto Matta, de l’Argentin Antonio Segui, de l’Uruguayen José Gamarra, du Vénézuélien Pancho Quilici, de l’Italien Valerio Adami, du peintre états-unien Irving Petlin, de la plasticienne polonaise Gabriela Morawetz ou du peintre-graveur libanais Assadour.

La philosophie de l’art chez Glissant ne se limite pas à une théorie lisse et unifiée, comme dans la hiérarchie classique des arts – présente dans les branches du savoir au XVIIIe siècle européen. Au contraire, la puissance chaotique des créations se déploie en pratique des traces, vitesses et rythmes.

Elle approche le sensible par le tremblement et la démesure. Loin du système des arts, la réflexion de Glissant sur la création est une chaosthétique : ouverture multiple, tremblante, intuitive et polyphonique sur le monde, passant par l’oscillation et la déambulation, le déferlement et le brisement.

Un rapport sensible et intuitif à l’art

Glissant entretient un rapport pluri-sensible aux objets esthétiques. Les découvertes artistiques le guident, non pas au beau abstrait, mais aux beautés sensibles, sur gravure ou dessin. Glissant définit l’art en geste inachevé :

« C’est dévoiler ce qu’on ne voit pas, prévoir cela que la plupart ne cherchent pas, fouiller le paysage qui est autour, accorder ensemble des rythmes qui ne se sont jamais connus. »

Pour Glissant, la démarche classique cède le pas à une intuition du monde. Le savoir rationnel traditionnel se réinvente par lignes de force en créolisation, constellation hybride faite de traversées et d’échappées. En rupture avec l’uniformité et la normalité des conventions, Glissant privilégie l’intuition chaotique : sens, sensations et sensibilités.

Dans son approche de l’art, la créolisation offre trois expressions subjectives : plongée vibrante dans la matière, trouble dans le baroque archipélique et éphémère chaotique du vivant constituent des mosaïques du monde. Verbale, plastique, sonore, tactile, visuelle ou gestuelle, la démesure ouvre sur les corps, mouvements, images, mémoires, traumatismes et réparations. Glissant précise :

« Figurons cet infigurable, ce mouvement, multiplié dans les espaces et dans les durées des peuples, pour autant qu’il s’agit d’un art des mots et non pas de celui des formes et des harmonies. »


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Un insaisissable chaos

Chaque œuvre invite à un autre « art des mots » sur les imaginaires du Tout-monde. Tel est le plurivers et ses rythmes, qui renvoie dos à dos les visions de l’Un – l’unicité du monde – et du dualisme – la division entre corps et esprit, âme et matière. Ni système unifié ni binarisme thèse/antithèse : Glissant inscrit l’art dans l’insaisissable chaos, le profond devenir en mouvement. Pour incarner l’énergie chaosthétique, Glissant cite le peintre Wifredo Lam :

« Des ailes d’évasion, des présages d’oiseaux en plein vol effleurant nos yeux en contemplation de leur fuite, de leur exode, comme des langues de feu dans l’infini anxieux. »

Penseur du déploiement inachevé et démesuré, Glissant défie la vision cloisonnée du réel et rejette les séparatismes figés. Les créations se créolisent : elles dépassent les frontières, déploient des lignes de fuite dans l’étendue, vaste et indémêlable. Philosophe de l’identité-relation multiple, opposée à la fixité-racine unique, Glissant rompt avec le dogmatisme théorique. Il défend le devenir-minoritaire au cœur de la poétique de la relation, proche de la multiplicité du rhizome. Dans une conférence sur l’art, en juin 2010, au premier colloque du Centre Pompidou-Metz, Glissant précise :

« La fixité formelle est d’autant plus belle que le tremblement par-dessous anime la vie d’une matière, qui est celle du monde. »

La Galerie du Dragon

La sensibilité de Glissant s’appuie sur sa première grande expérience artistique en France, la Galerie du Dragon à Paris. Dès son arrivée pour ses études en 1946 et pendant plusieurs décennies, il assiste aux expositions à la galerie du 19, rue du Dragon. Animé par le poète Max Clarac-Sérou et la diplomate Cécilia Ayala, ce lieu accueille la peinture onirique et surréaliste, dans l’esprit politique de l’avant-garde.

De jeunes écrivains, Glissant, Michel Butor ou Henri Michaux y rencontrent des artistes-plasticiens, graveurs ou sculpteurs, Matta et Giacometti, Jean Hélion ou Bernard Saby. De solides amitiés y voient le jour, autour des peintures balnéaires de Leonardo Cremonini, évoquant la lumière des îles Éoliennes, ou des sculptures en marbre de Jean Robert, dit Ipoustéguy.

Ainsi, Victor Brauner, figure majeure dadaïste, y présente une exposition en 1961. À son propos, Glissant écrit :

« Ainsi apprenons-nous à fréquenter le Monde, ses éclats irréductibles et ses lumières répandues, unies comme des limons de fleuves qui s’enlacent. »

Pour Glissant, les artistes de la Galerie du Dragon élaborent des fréquentations sensibles du monde. Leurs créations engagent paysages et mémoires multiples. Un réel inédit est approché. Pour Glissant, l’art, c’est la recherche de la différence, non de l’identique :

« La particule élémentaire du tissu du vivant, ce n’est pas le même, c’est le différent. Si on ajoute le même au même, on obtient le même. Mais si on ajoute du différent au différent, on obtient de l’inédit, de l’imprévisible, du nouveau. »

Glissant participe aussi de cette découverte de la nouveauté : sa pensée des arts, ni simple commentaire d’un tableau ni regard sur une installation, est une texture plastique, une inventivité originale, insolite et sans équivalent.

The Conversation

Aliocha Karol Wald Lasowski ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Édouard Glissant, poète du tremblement et penseur des arts – https://theconversation.com/edouard-glissant-poete-du-tremblement-et-penseur-des-arts-255906

Améliorer la qualité de l’éducation permet une croissance forte

Source: – By Nadir Altinok, Maître de conférences en économie, Université de Lorraine

Ecole en Chine salinger/Pixabay

Depuis 1964, la plupart des pays développés participent à des tests en mathématiques et lecture de leurs élèves de primaire et collège. Très récemment, les résultats internationaux de l’enquête PIRLS (Programme international de recherche sur la lecture) ont montré que les élèves français avaient une performance relativement faible : 511 points contre plus de 560 points pour un pays comme l’Irlande.

Non seulement le niveau en lecture des élèves français de primaire est faible, mais il a surtout tendance à baisser dans le temps : il est passé de 525 à 511 points entre 2001 et 2016. La faible performance de la France est confirmée dans la plupart des enquêtes comme celle organisée par l’OCDE (Organisation de coopération et de développement économiques), appelée PISA (Programme international pour le suivi des acquis des élèves).

En quoi cette faible performance peut-elle avoir un impact sur l’économie ? Il semble à première vue évident qu’une faible performance en lecture et en mathématiques puisse avoir un impact sur la productivité des travailleurs (c’est-à-dire leur capacité à travailler vite et mieux). Les travaux d’économistes comme Eric Hanushek le prouvent : améliorer les compétences des travailleurs permet d’augmenter leur productivité ainsi que leurs salaires. Cependant, cela peut-il aussi influencer l’économie dans sa globalité ? C’est le dilemme classique analysé par les économistes : les conséquences sur les individus (ce que l’on appelle le “micro”) peuvent-elles avoir un impact sur l’économie globalement (ce qui s’appelle le “macro”) ?

Dans de récents travaux, nous collectons ainsi les résultats issus de toutes les enquêtes sur les compétences des élèves afin d’obtenir un indice mondial sur la qualité de l’éducation (appelé indice IQE). En analysant l’impact de cet indice sur la croissance, il en ressort une relation clairement positive.

Ce graphique présente une relation entre la qualité des systèmes éducatifs et la croissance économique d’environ 100 pays sur une longue période (1960-2010). Il en ressort une relation positive assez explicite : plus les systèmes éducatifs sont de qualité (indicateur IQE), plus les pays connaissent un développement économique important (indicateur TCA).

Nous trouvons ainsi qu’investir dans la qualité de l’éducation n’est pas seulement rentable pour les individus, mais aussi pour les pays. En comparant la qualité des systèmes éducatifs entre les différents pays du monde, il en ressort que les pays avec les meilleurs systèmes éducatifs (comme le Japon ou la Corée du Sud) ont une croissance économique plus forte que d’autres pays (comme la France). De façon plus nette, la faible croissance dans les pays d’Afrique subsaharienne peut être expliquée en grande partie par la faible qualité de ses écoles, même si d’autres facteurs peuvent entre en jeu.

Que pouvons-nous faire pour remédier à cette moindre croissance ? Assurément, augmenter la performance des systèmes éducatifs est le facteur clé pour les décennies à venir. Les recherches futures doivent ainsi s’axer sur les déterminants de la qualité des systèmes éducatifs. C’est un défi majeur pour tous les pays comme la France où les budgets sont restreints et où l’on doit faire « mieux » avec « moins ».


La data visualisation de cet article a été réalisée par Raphaël Da Silva.

The Conversation

Nadir Altinok ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Améliorer la qualité de l’éducation permet une croissance forte – https://theconversation.com/ameliorer-la-qualite-de-leducation-permet-une-croissance-forte-86586

Voyage en démographie : une population européenne en mouvement

Source: – By Sebastien Bourdin, Professeur de Géographie économique, Titulaire de la Chaire d’excellence européenne "Economie Circulaire et Territoires", EM Normandie

Migrations urbaines. Photo by Callum Chapman on Unsplash
DR.

Cet article est republié dans le cadre de l’initiative « Quelle est votre Europe ? » dont The Conversation France est partenaire. Retrouvez toutes les informations, débats et les événements de votre région sur le site quelleestvotreeurope.fr


La population européenne est en mouvement : un nouveau rapport de l’Office des Statistiques de la Commission européenne (Eurostat) suggère où et pourquoi. Parmi les nombreuses analyses produites dans ce rapport, des tendances lourdes émergent : les jeunes partent du sud de l’Europe, en particulier de ses zones rurales, à la recherche de travail dans les zones urbaines du nord-ouest du continent, riche en emplois. Cela crée un « trou démographique » qui pourrait prédire un déclin démographique prolongé et continu dans certaines régions.

Âge médian de la population, par pays, Europe 2015. Les petits cercles figurent les régions les plus et les moins âgées du pays. Les régions capitales sont les grands cercles, le trait horizontal est la moyenne nationale.
Philippe Roure/The Conversation France, CC BY

Age des villes, âge des champs

Le graphique ci-dessus fournit des indices sur ce mouvement. En ce qui concerne l’âge médian, on remarque très nettement que les zones rurales d’Europe ont tendance à avoir des populations plus vieilles, tandis que les capitales (marquées par des points bleus) sont en général plus jeunes que le pays auquel elles appartiennent. C’est en Grèce, dans la région d’Evrytania que la population est la plus âgée. Il s’agit d’une zone rurale où la migration des jeunes vers la capitale notamment a fait croître l’âge médian jusqu’à 53,6 ans. Entre 2006 et 2016, la Roumanie, la Lituanie, la Grèce et le Portugal ont tous vu leur âge moyen augmenter de plus de quatre ans. Cette hausse ne peut être simplement expliquée par une augmentation de l’espérance de vie. C’est également parce que les populations – surtout les jeunes – sont parties en grand nombre au début de leur carrière.

Au Portugal, ce mouvement s’est doublé d’une migration de retraités venus principalement d’Europe de l’Ouest qui sont venus s’installer dans le pays, créant ainsi une opportunité de développement territorial par la silver economy. Par ailleurs, combiné à un taux élevé de migration des jeunes, le faible taux de natalité accélère le vieillissement dans ces régions. Les taux de natalité bas constituent aujourd’hui un réel problème en Europe. En particulier, l’Espagne, l’Italie, la Slovaquie et la Grèce affichent les taux de natalité les plus faibles. Ceci est probablement un signe que les personnes choisissent d’avoir moins d’enfants pour des raisons économiques.

Néanmoins, il ne semble pas y avoir de lien automatique entre le vieillissement de la population et le taux de natalité. Alors que les populations lituanienne et roumaine ont vieilli rapidement, les deux pays ont un taux de natalité relativement élevé dans chaque région. Il est donc clair que la migration des jeunes est un facteur majeur. Dès lors, on comprend mieux les politiques d’attractivité actives menées par les métropoles européennes pour attirer cette population de jeunes diplômés à la recherche d’un travail bien rémunéré. Offrir de l’emploi à destination des jeunes doit être, de fait, une priorité en termes de politiques publiques.

Où vont les jeunes ?

À la lecture du rapport, nous n’obtenons pas de réponses claires car les augmentations de migrations observées dans certaines régions incluent également des arrivées de populations en provenance de l’extérieur de l’Union européenne. Ces dernières ont d’ailleurs augmenté en 2015 à la suite de la crise des migrants. Mais la carte ci-dessous montre que, dans l’Union européenne, l’Allemagne a été un centre de gravité. Ayant accepté 1,2 million de migrants en 2015, c’était le point d’arrivée le plus commun pour les déplacements des migrants cette année, bien que les plus grands réfugiés de la guerre en Syrie soient restés dans la Méditerranée orientale. Alors que l’acceptation des réfugiés a certainement été controversée dans de nombreux pays, il n’est pourtant pas automatique que l’arrivée des migrants cause des frictions intenses dans les communautés dans lesquelles ils arrivent.

Taux de migrations nettes (bilan migratoire : entrées – sorties) en Europe, 2015.
Philippe Roure/The Conversation France, CC BY

Pour comprendre pourquoi ces mouvements majeurs ont été en partis bien accueillis comme en Allemagne, il faut comprendre le vide créé par les faibles taux de natalité de l’Europe. Alors que le taux de 2,1 naissances par femme est généralement considéré comme nécessaire pour maintenir une taille de population statique, dans la quasi-totalité des pays de l’UE, le taux de fécondité est en deçà de ce seuil. Le taux de natalité de l’Allemagne a été particulièrement faible compte tenu de son succès économique. Si la chancelière Angela Merkel a été si généreuse envers les réfugiés, c’est parce que la situation démographique allemande est alarmante et beaucoup d’Allemands en sont conscients. La population migrante constitue une main d’œuvre pour le pays et un bassin potentiel de consommation. L’image globale est que l’Allemagne a voulu accepter les migrants parce que l’économie peut les absorber.

Migrants du Vieux Continent

Toutefois, les effets de la crise des migrants masquent en réalité d’autres tendances importantes et en cours. Il est certainement vrai que la Suède et l’Allemagne ont reçu beaucoup de demandeurs d’asile pendant la crise européenne des migrants, mais, les deux pays ont aussi accueilli de nombreux migrants provenant du Vieux continent. En Allemagne, même si les Syriens constituaient la nationalité ayant le plus déménagé outre-Rhin en 2015, on retrouvait juste derrière la Roumanie et la Pologne.

Un aperçu rapide de la carte européenne de l’emploi, ci-dessous, explique pourquoi l’Europe du Nord-Ouest (et surtout l’Allemagne) sont des destinations attrayantes. Les taux d’emploi pour 2016 étaient beaucoup plus élevés en Allemagne, en Scandinavie et dans le sud du Royaume-Uni que partout ailleurs, avec des niveaux d’emploi particulièrement bas dans le sud de l’Espagne, le sud de l’Italie et la Grèce. Les niveaux globaux d’emploi reflètent en partie l’écart des régions les plus dynamiques économiquement (dans le Nord-ouest européen). Ces régions pourraient encore devenir des destinations de migration majeures à l’avenir, à condition que leur croissance économique se poursuive. Elle aurait alors pour conséquence de renforcer les déséquilibres socio-économiques dans l’Union européenne.

Taux d’emploi des 20-64 ans en Europe, 2015.
Philippe Roure/The Conversation France, CC BY

L’espérance de vie, pas seulement une question de richesse

Tandis que l’Allemagne et d’autres pays du nord-ouest de l’Europe ont une plus grande résilience économique, ils n’ont pas nécessairement tous les avantages de leur côté.

À l’exception notable de la Norvège, les régions européennes avec une espérance de vie plus élevée se situent plutôt près de la Méditerranée. Il serait facile de suggérer qu’il n’y a pas de lien entre la richesse et la longévité. Les régions d’Espagne et d’Italie qui enregistrent l’espérance de vie la plus élevée pour les enfants nés aujourd’hui ne sont pas les plus pauvres de leurs pays. Il est encore clair que la longévité n’est pas une récompense directe découlant d’un revenu plus élevé.

Espérance de vie à la naissance en Europe, 2015.
Philippe Roure/The Conversation France, CC BY

L’espérance de vie est néanmoins un domaine où aucun État européen ne peut se permettre d’être complaisant. Entre 2014 et 2015, l’espérance de vie à travers l’UE a effectivement chuté pour la première fois. La baisse est faible (0,3 an soit une espérance de vie estimée à 80,6 ans) mais doit servir d’avertissement. Les hypothèses selon lesquelles l’Europe, comme l’Occident d’une manière plus générale, est automatiquement vouée à améliorer ses conditions de vie et la santé de la population sont remises en cause.

The Conversation

Sebastien Bourdin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Voyage en démographie : une population européenne en mouvement – https://theconversation.com/voyage-en-demographie-une-population-europeenne-en-mouvement-85855

Le vapotage n’est pas une porte d’entrée dans le tabagisme pour les jeunes

Source: – By Philippe Arvers, Médecin addictologue et tabacologue, Université Grenoble Alpes (UGA)

Porte d’entrée dans le tabagisme ? JeepersMedia, CC BY

La cigarette électronique – ou vapoteur personnel (VP) – risque-t-elle de devenir une étape d’initiation pour les jeunes, avant le passage à la cigarette classique ? À vrai dire, le public ciblé est plutôt constitué de fumeurs de tabac qui veulent arrêter. Il y a donc essentiellement des ex-fumeurs et des vapo-fumeurs qui vapotent, cherchant une porte de sortie du tabagisme… Quant aux jeunes, la vente dans les boutiques en France est interdite aux mineurs, et si certains l’expérimentent (recherche de sensation, recherche de nouveauté), peu continuent à vapoter occasionnellement ou régulièrement.

Une étude américaine vient d’être publiée en avril 2017, effectuée en 2014 auprès de 3 657 étudiants (âge moyen : 18,5 ans). Ils ont à nouveau été interrogés en 2015 sur leur statut de fumeur ou vapoteur (non-fumeur, vapoteur, fumeur de tabac, ou vapo-fumeur). Même si les effectifs sont faibles, 153 étudiants déclarent en 2014 vapoter (et ne pas fumer de tabac). Un an plus tard, parmi eux, près d’1 sur 4 ne vapote plus (et ne fume pas) et 8 (5,2 %) ne vapotent plus et fument du tabac. Près d’1 sur 2 continue à vapoter (46,4 %) et près d’1 sur 4 vapote et fume du tabac.

Cette étude a ses limites en termes d’effectifs, et on ne dispose que d’un suivi à court terme, sur une année. Il faut mettre en place des enquêtes longitudinales avec des effectifs de départ importants, en raison du taux d’attrition (sujets perdus de vue) au fur et à mesure des années de passation du questionnaire.

Une étude pilotée par le docteur Ivan Berlin est d’ailleurs en cours à l’Hôpital de la Pitié-Salpêtrière : il va recruter 700 fumeurs âgés de plus de 18 ans, et ils seront répartis en quatre groupes : des comprimés (de varénicline, médicament indiqué dans le sevrage tabagique, remboursé par la sécurité sociale ou un placebo) et une cigarette électronique (avec 12mg/ml de nicotine ou 0 mg/ml). L’objectif sera de comparer le nombre d’arrêts du tabac dans chacun des groupes.

« La vape ringardise le tabac »

En tout cas, l’étude publiée dans Addictive Behaviors ne démontre pas que la vape est le mode d’entrée dans le tabagisme, alors que l’on voudrait nous faire croire que de voir vapoter va donner envie de fumer du tabac et renormalise ainsi l’image du tabagisme. D’ailleurs, parmi les jeunes qui vapotent, combien auraient commencé le tabac de toute façon, ou plus tôt ?

Dans ce cas, la toxicité du tabac est certaine, et un fumeur sur deux en mourra dans le futur. Alors que les modèles de deuxième et de troisième génération de cigarette électronique, fabriqués et distribués en France, respectent des normes Afnor établies en 2016 qui garantissent des produits sûrs pour les utilisateurs. La nicotine peut être présente avec des dosages maximums à 19,99 mg/ml. Elle peut aussi en être absente.

« Quand on interroge ces collégiens et lycéens, on s’aperçoit que la vape ringardise le tabac », a souligné le Pr Bertrand Dautzenberg lors du Premier sommet de la vape, tenu à Paris en 2016. Avant, a-t-il souligné, le tabac n’avait pas de concurrent. La vape, qui plus est, est un concurrent moins nocif.


Les data visualisations de cet article ont été réalisées par Marie Simon.

The Conversation

Philippe Arvers a reçu des financements de Lundbek SAS, PierreFabre Médicament, RB Pharmaceuticals France, Novartis Santé Familiale SAS.

ref. Le vapotage n’est pas une porte d’entrée dans le tabagisme pour les jeunes – https://theconversation.com/le-vapotage-nest-pas-une-porte-dentree-dans-le-tabagisme-pour-les-jeunes-87833

Les « roulées » plus toxiques que les cigarettes manufacturées

Source: – By Philippe Arvers, Médecin addictologue et tabacologue, Université Grenoble Alpes (UGA)

Tabac à rouler. Scheigy.blogspot.fr, CC BY

Lorsque j’aborde la question des cigarettes roulées avec mes patients, c’est à chaque fois la même déconvenue : ils sont persuadés qu’elles sont moins toxiques que les autres cigarettes, celles achetées chez le buraliste. Or cela est faux, comme le montre la visualisation ci-dessous (jouez avec les flèches pour un maximum d’informations).

Certes, elles leur reviennent moins chères à l’unité comme on peut le voir ci-dessous. La différence est imputable aux taxes moins élevées pour les roulées, ce qui en train d’être modifié en France, avec une augmentation de 15 % des taxes appliquées au tabac à rouler. En effet, en raison du prix moindre, c’est un produit d’entrée dans le tabagisme chez les jeunes (qui pourront aussi y ajouter du cannabis, de l’herbe ou de la résine), et également un produit préféré par les précaires.


Les data visualisations de cet article ont été réalisées par Marie Simon.

The Conversation

Philippe Arvers a reçu des financements de Lundbek SAS, PierreFabre Médicament, RB Pharmaceuticals France, Novartis Santé Familiale SAS.

ref. Les « roulées » plus toxiques que les cigarettes manufacturées – https://theconversation.com/les-roulees-plus-toxiques-que-les-cigarettes-manufacturees-87564

Pourquoi retarder l’initiation au tabagisme est capital

Source: – By Philippe Arvers, Médecin addictologue et tabacologue, Université Grenoble Alpes (UGA)

En matière de tabagisme, la précocité fait de gros dégâts. Valentin Ottone/flickr, CC BY-SA

L’initiation précoce au tabagisme représente un souci majeur en santé publique. Elle prédit en effet une plus forte dépendance et une plus faible capacité à cesser de fumer. Les sujets ayant commencé à fumer avant l’âge de 16 ans ont une probabilité deux fois plus élevée que ceux qui ont commencé à fumer après cet âge de demeurer fumeur à l’âge de 60 ans.

En 2008, nous avons effectué une analyse secondaire des études Inserm (1993) et ESPAD (1999, 2003 et 2007) sur les jeunes âgés de 15-16 ans. Les « fumeurs précoces », que nous avons définis comme des personnes ayant commencé à fumer avant l’âge de 12 ans, ont tendance à avoir une consommation d’autres substances plus importantes.

En prenant en compte simultanément ces différents critères, les conduites addictives associées au tabagisme restent toutes significatives dans l’analyse (modèle de régression logistique). Ainsi, la consommation précoce de tabac est associée à :

  • une consommation de plus de 10 cigarettes par jour (risque augmenté de 55 %)

  • une consommation précoce de cannabis (risque multiplié par 4)

  • une expérimentation d’autres drogues illicites que le cannabis (risque augmenté de 31 %)

  • une consommation précoce d’alcool (risque multiplié par 3)

  • des ivresses précoces (risque augmenté de 43 %).

Mortalité augmentée, risque accru de maladies

La précocité de l’initiation est également synonyme de dégâts amplifiés sur la santé de ces fumeurs… Une étude publiée en 2017 a analysé les données de la National Health Interview Survey (de 1997 à 2005) qui portait sur plus de 90 000 sujets âgés de 30 ans ou plus, fumeurs ou anciens fumeurs. Parmi eux, 7,3 % avaient commencé à fumer régulièrement avant l’âge de 13 ans.

Cette étude montre que, pour ceux qui fument actuellement, la précocité de consommation de tabac (ici, avant 13 ans) augmente le risque de développer :

  • une maladie cardio-vasculaire ou métabolique (risque augmenté de 67 %)

  • une maladie pulmonaire (risque augmenté de 79 %)

  • un cancer lié au tabagisme (risque multiplié par 2)

De plus, la mortalité toutes causes confondues est augmentée de 18 % parmi ces fumeurs « précoces ».

Cette étude montre aussi – ce qui est important – que, pour ceux qui ne fument plus, la précocité de consommation de tabac (ici, avant 13 ans) augmente le risque de développer :

  • une maladie cardio-vasculaire ou métabolique (risque augmenté de 38 %)

  • une maladie pulmonaire (risque augmenté de 89 %)

  • un cancer lié au tabagisme (risque augmenté de 44 %)

De plus, la mortalité toutes causes confondues est augmentée de 19 % parmi ces anciens fumeurs « précoces ».

Il est donc important de retarder l’initiation au tabagisme, tout comme l’initiation à l’alcool ou au cannabis.


Les data visualisations de cet article ont été réalisées par Marie Simon.

The Conversation

Philippe Arvers a reçu des financements de Lundbek SAS, PierreFabre Médicament, RB Pharmaceuticals France, Novartis Santé Familiale SAS.

ref. Pourquoi retarder l’initiation au tabagisme est capital – https://theconversation.com/pourquoi-retarder-linitiation-au-tabagisme-est-capital-86506

Léonard de Vinci, intelligence éclectique et autodidacte, côté sciences et techniques

Source: – By Pascal Brioist, Professeur des Universités. Spécialiste de Léonard de Vinci, des sciences et des techniques à la Renaissance, de l’Angleterre du XVIe et du XVIIe siècle., Université de Tours

Voler comme les oiseaux en battant des ailes, ou l’ornithoptère de Léonard de Vinci, conçu vers 1495. Copyright Artes Mechanicae., Fourni par l’auteur

Léonard de Vinci est incontesté comme peintre et comme inventeur, depuis la Joconde jusqu’à ses machines volantes. Ce que l’on sait moins, c’est qu’il a aussi proposé de nombreuses contributions en sciences et, de façon toujours aussi éclectique, a touché à la physique, à la géologie et à la botanique de son temps. Ces contributions montrent comment l’artiste toscan a pu accéder à des connaissances pointues bien qu’il ait été exclu des circuits traditionnels de diffusion des connaissances, en particulier de l’université.


Considéré par le philosophe Pierre Duhem, en 1900, comme le chaînon manquant entre la Science médiévale et la Science moderne, Léonard de Vinci a été depuis parfois jugé incapable d’avoir eu accès aux savoirs scientifiques et d’avoir été un piètre savant. En effet, sa naissance illégitime l’empêcha de fréquenter l’université (celle-ci était interdite aux enfants illégitimes). Certains experts ont même essayé de le cantonner au rôle de technicien et sont allés jusqu’à critiquer les machines qu’il dessina en soulignant qu’elles étaient de simples reprises de celles de prédécesseurs ou en les qualifiant d’impossibles.

Aujourd’hui cependant, l’examen attentif des écrits du Toscan prouve qu’au contraire, celui-ci avait trouvé des biais pour avoir accès à la culture qui lui était refusée et, mieux encore, avait été capable de remettre en cause par l’expérience des savoirs scolastiques – en trouvant des savants qui pouvaient lui expliquer ce à quoi il n’avait pas accès directement, par exemple le mathématicien Luca Piacioli pour accéder à Euclide, ou le médecin de Pavie Marcantonio della Torres pour comprendre les idées de Galien.

dessin de char d’assaut par un prédecesseur de léonard
Les travaux de Léonard de Vinci s’inscrivent à la suite de ceux de ses prédécesseurs. Ici un char d’assaut de Kyeser, dessiné en 1405.
Bellifortis, 1405, numérisé et rendu disponible par l’Archimedes Project

Dans le domaine de la technologie, certes, il s’inspirait d’ingénieurs médiévaux comme l’architecte Filippo Brunelleschi ou les ingénieurs le Taccola et Francesco di Giorgio, mais il les dépassa en inventant une méthode de réduction en art de la mécanique (qui consiste à avoir une approche analytique de la mécanique en identifiant sur le papier tous les éléments simples, comme les engrenages, cames, échappements, ressorts, pour pouvoir composer des combinatoires agençant ces éléments de machines), en perfectionnant le dessin technique et en s’inspirant du vivant pour des machines volantes.

Ainsi, il est à l’origine de grandes percées dans les domaines multiples dans lesquels il excella – même si ses textes restèrent manuscrits jusqu’en 1883, ce qui l’empêcha de léguer ses découvertes.

De l’observation du monde aux concepts de physique

Si l’on commence par la physique, celui qui n’avait été formé ni à l’aristotélisme, ni aux théories d’Archimède, fut tout de même capable, sur le tard, capable de se faire expliquer les principes de la science de l’antiquité (comme les quatre puissances de la nature : mouvements, poids, force et percussion) et de parcourir les traités de base en latin.

Ainsi, il était parfaitement au courant de la théorie de l’antipéristase et de celle, médiévale, de l’impetus. La première disait qu’un corps lancé continue à avancer parce que l’air qui est devant lui est propulsé derrière lui et alimente la poussée. Léonard récuse cette idée en acceptant le concept d’impetus : ce qui pousse le corps, c’est une qualité d’impulsion conférée au projectile. Léonard le démontre par une expérience où il tire avec une arquebuse dans une gourde (si l’antipéristase fonctionnait, l’eau de la gourde empêcherait la balle de poursuivre sa trajectoire, ce qui n’est pas le cas).

À propos d’un autre concept de physique, celui des frottements, Léonard prouve là encore par l’étude des faits que celui-ci est proportionnel non à la surface de contact mais au poids de l’objet.

Léonard, passionné par les tourbillons, explore aussi le champ de l’hydraulique et de l’aérodynamique, on lui doit l’intuition des turbulences, des vortex de surface et des vortex profonds, des tourbillons induits, etc.




À lire aussi :
De la physique à la météo, une petite histoire de la turbulence



Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Dans le domaine de l’optique, Léonard s’inspire du mathématicien, physicien et médecin du XIe siècle Alhazen, de son vrai nom Ibn al-Haytham, est un auquel on doit une théorie moderne de l’optique, incluant des réflexions physiologiques sur l’œil, et l’introduction des mathématiques dans les sciences physiques. Grâce à la traduction d’Erasmus Vitello – Vitellion en français, un moine de Silésie du XIVe siècle, commentateur d’Alhazen et auteur d’un traité de perspective –, il étudie l’œil et les rayons lumineux qu’il considère comme émis par l’objet pour créer dans la rétine des simulacres.

tableau
La Vierge aux rochers, entre 1483 et 1486.
Léonard de Vinci, au Louvre

Il construit même une « boîte noire » (ou camera obscura, sorte de caméra primitive) pour simuler ce phénomène.

Excellent cartographe, Léonard est aussi un remarquable géologue qui théorise le rôle de l’eau dans l’érosion, comprend les empilements de couches géologiques et explique l’origine des fossiles.

Enfant élevé à la campagne, il s’intéresse aussi à la botanique, dessinant toutes sortes de plantes mais cherchant aussi les règles de leur croissance. Le tableau de la Vierge aux Rochers constitue un véritable herbier virtuel.

L’anatomie, bien au-delà de l’« Homme de Vitruve »

Le domaine de l’anatomie est assurément celui où le maître est allé le plus loin. À partir de nombreuses lectures, il perfectionne les méthodes de dissection en collaborant avec des médecins de Florence, de Pavie (comme le galéniste Marcantonio Della Torre) et de Rome, produisant des dessins du corps et de ses parties d’une précision ahurissante.

Mieux encore, il découvre par des expérimentations le principe de la circulation du sang en tourbillons dans les valves aortiques, propose des interprétations du fonctionnement du système uro-génital, du système respiratoire ou du système digestif et étudie les relations du fœtus et de la matrice.

Pour comprendre l’anatomie du cerveau, et le lien entre les sens et la mémoire, il coule de la cire dans les cavités cérébrales et découpe des crânes.

Léonard et les mathématiques

C’est peut-être dans les mathématiques que Léonard fut le plus faible, malgré sa collaboration avec le Franciscain Luca Pacioli pour lequel il dessine les polyèdres de la Divina Proportione. Il n’empêche que les mathématiques ne cessent de l’inspirer et qu’il est convaincu que la nature est animée par des règles géométriques et arithmétiques.

manuscrit
Dessin de Léonard de Vinci représentant la raison géométrique de la croissance des branches d’arbres, entre 1487 et 1508.
E-Leo, archive numérique des dessins de Léonard de Vinci



À lire aussi :
« La recherche de la beauté est l’une des motivations principales du chercheur »


L’approche scientifique de Léonard l’amène à produire un certain nombre de traités aujourd’hui perdus mais auxquels il fait souvent allusion comme un traité sur l’eau, un traité sur le vol des oiseaux ou un traité sur les éléments de machines.

Baigner dans les inspirations des ingénieurs de son temps

Si l’on n’a guère retenu les apports de Léonard dans les sciences, en revanche, son activité d’ingénieur et d’inventeur constitue un élément clé de sa légende.

Là encore, l’activité du Toscan témoigne d’une curiosité tous azimuts dans les arts mécaniques : grues et machines de chantiers, écluses et machines hydrauliques, machines textiles, machines de fonderie, pompes, machines de guerre, machines de théâtre, automates, machines volantes…

dessin
La première description connue de parachute, vers 1470, précède de peu la description de Léonard de Vinci.
Anonyme, MS 34113, f. 200v, British Library

Le chimiste Marcelin Berthelot, au début du XXe siècle, fut le premier à s’apercevoir que bien des machines de Léonard étaient inspirées du Moyen Âge. Le principe du char d’assaut, par exemple, était déjà là dans le Bellifortis, de Konrad Kyeser (1366-1406), et bien des engins de siège proposés par Léonard de Vinci à Ludovic Sforza, dans une lettre de motivation, étaient décrits par Roberto Valturio en 1472 dans le De arte militari.

Le principe du parachute avait été aussi exposé dans un manuscrit siennois de la première moitié du XVe siècle.

En ce temps où la propriété intellectuelle n’est pas vraiment stabilisée, il est fréquent que les ingénieurs reprennent les idées de leurs prédécesseurs ou de leurs contemporains. Ainsi, une scie mécanique hydraulique d’ingénieurs siennois reprend des usages techniques de moines médiévaux, et Francesco di Giorgio des idées de Brunelleschi pour des navires à aubes.

Ainsi, les carnets de Léonard sont remplis de croquis d’engins de levage ou de bateaux à aubes de Brunelleschi, de moulins et d’engrenages de Francesco di Giorgio Martini ou encore de mécanismes d’horlogerie de Della Volpaia. Il n’est pas toujours facile d’attribuer l’invention d’une machine dessinée par Léonard à ce dernier car il copie ce qui l’entoure — ce qu’il concède volontiers, par exemple quand il dit qu’un dispositif anti-frottement pour les cloches lui a été suggéré par un serrurier allemand nommé Giulio Tedesco.

Certains chercheurs, hypercritiques, en ont conclu que Léonard n’avait jamais construit une seule machine. C’est aller trop vite en besogne car certaines machines sont attestées par plusieurs témoins – les ambassadeurs de Ferrare ou de Venise, ou encore des contemporains florentins : un lion automate, par exemple, un compteur d’eau, des ponts autoportants, des mécanismes de théâtre…

De plus, quand Léonard recommande à ses apprentis de se méfier des espions qui pourraient voir ses essais de machines volantes depuis le tambour de la cathédrale de Milan ou quand il reproche à des mécaniciens allemands d’avoir copié à Rome ses projets de miroirs incendiaires, il est évident qu’il parle d’artefacts concrets.

Pour autant, tous les schémas de projets n’ont pas nécessairement été réalisés ; ce que l’on devine lorsqu’on essaye de les reconstituer… et qu’ils ne fonctionnent pas (par exemple, les engrenages d’un char d’assaut qui feraient aller les roues arrière et avant de l’appareil en sens contraire).

De plus, des machines textiles (fileuses, métiers à tisser, batteuses de feuilles d’or, tondeuses de bérets) incroyablement sophistiquées présentent des problèmes de résistance des matériaux qui rendent leur survie improbable.

Les apports effectifs de Léonard aux technologies du XVᵉ siècle

dessins de Léonard
La machine automobile de Léonard, vue de haut et en perspective.
folio 812r du Codex atlanticus, dans e-Leo, archives numériques des œuvres de Léonard de Vinci

L’apport de Léonard de Vinci aux technologies est d’abord une approche méthodologique. Ainsi par exemple, dans son Traité des éléments de machines, le Toscan s’est attaché à réduire la mécanique en éléments simples (leviers, manivelles, vis, cames, ressorts, échappements, engrenages, etc.) pour pouvoir en mathématiser les effets et élaborer des combinatoires. Tout est alors question de timing, par exemple pour les fileuses automatiques, les métiers à tisser, les batteurs d’or, les machines à tailler les limes ou les polisseurs de miroirs. Vitesse et puissance fonctionnent en proportion inverse et le chercheur s’émerveille des vertus des vis et des engrenages.

Son autre apport est une élaboration nouvelle du dessin technique combinant vue de dessus, vue de profil, axonométries et éclatés.

Enfin, Léonard étonne par son investigation de domaines nouveaux, comme le vol, utilisant l’observation de la nature pour trouver des solutions mécaniques à des problèmes inédits.

Les limites du travail de Léonard sont évidentes – en mathématiques, par exemple – mais contrairement à ce que disent les critiques qui soulignent les déficiences de sa formation, elles l’amènent souvent à dépasser la tradition.


L’exposition « Léonard de Vinci et le biomimétisme, s’inspirer du vivant », dont Pascal Brioist est commissaire, est visible au Clos Lucé, à Amboise (Indre-et-Loire), du 7 juin au 10 septembre 2025.


Pour en savoir plus sur Léonard de Vinci et sa vie à contre-courant, le livre de Pascal Brioist Les Audaces de Léonard de Vinci, aux éditions Stock (2019).

The Conversation

Pascal Brioist a reçu des financements de la région Centre. J’ai reçu autrefois une APR pour un spectacle sur Marignan

ref. Léonard de Vinci, intelligence éclectique et autodidacte, côté sciences et techniques – https://theconversation.com/leonard-de-vinci-intelligence-eclectique-et-autodidacte-cote-sciences-et-techniques-258007

Science, éducation, médias : quels rôles pour les climatologues aujourd’hui ? Conversation avec Éric Guilyardi

Source: – By Éric Guilyardi, Directeur de recherche au CNRS, Laboratoire d’océanographie et du climat, LOCEAN, Institut Pierre-Simon Laplace, Sorbonne Université

Éric Guilyardi est océanographe et climatologue, spécialiste de modélisation climatique. Il s’intéresse tout particulièrement au phénomène climatique El Niño. Il a été auteur principal du 5e rapport du GIEC et a contribué au 6e. Il anime également une réflexion sur l’éthique de l’engagement public des scientifiques. Ce grand entretien, mené par Benoît Tonson, est l’occasion de mieux comprendre les liens entre l’océan et le climat et de réfléchir à la place du scientifique dans les médias et plus généralement dans la société, au moment où se tient la troisième Conférence des Nations unies sur l’océan (Unoc 3) à Nice.


The Conversation : Quels sont les liens entre le climat et l’océan ?

Éric Guilyardi : Le climat résulte de nombreuses interactions entre les composantes de ce que l’on appelle le « système Terre », dont l’atmosphère, l’océan, les surfaces continentales et la cryosphère (toutes les portions de la surface des mers ou terres émergées où l’eau est présente à l’état solide). L’océan est au cœur du système Terre car c’est son principal réservoir d’énergie. Les deux premiers mètres de l’océan contiennent en effet autant d’énergie que les 70 km de la colonne atmosphérique qui la surplombe ! Profond en moyenne de 4 000 mètres son immense inertie thermique en fait un gardien des équilibres climatiques. Par exemple, dans les régions au climat océanique, cette inertie se traduit par moins de variations de température, que ce soit dans une même journée ou à travers les saisons. L’océan est également un acteur des variations lentes du climat. Par exemple, le phénomène El Niño sur lequel je travaille, résulte d’interactions inter-annuelles entre l’océan et l’atmosphère qui font intervenir la mémoire lente de l’océan, située dans le Pacifique tropical ouest, vers 400 mètres de profondeur. Allant chercher une mémoire plus en profondeur, l’océan est également source de variations lentes qui influencent le climat depuis l’échelle décennale (mémoire vers 1 000 mètres de profondeur) jusqu’à des milliers d’années (entre 2 000 et 4 000 mètres).

L’océan joue un rôle fondamental dans le changement climatique, à la fois parce qu’il permet d’en limiter l’intensité, en absorbant à peu près un quart des émissions de carbone que l’activité humaine envoie dans l’atmosphère (via la combustion des énergies fossiles).

L’océan est donc notre allié, puisqu’il permet de limiter les impacts du changement climatique, mais il en subit également les conséquences. Sous l’effet de l’augmentation de la température, l’eau se dilate, elle prend plus de place et le niveau de la mer monte. La moitié de l’augmentation du niveau marin global (4 mm/an et environ 20 cm depuis 1900) est due à cette dilatation thermique. L’autre vient de la fonte des glaciers continentaux (en montagne, mais aussi de la fonte des calottes polaires en Antarctique et au Groenland).


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Dans le couple océan-atmosphère, l’atmosphère c’est un peu le partenaire nerveux, qui va vite : une dépression, qui se crée par exemple au nord du Canada, traverse l’Atlantique, arrive en Europe et disparaît au-dessus de la Sibérie aura une durée de vie de quelques semaines. Les structures équivalentes dans l’océan sont des tourbillons plus petits mais plus lents qui peuvent rester cohérents pendant des années, voire des dizaines d’années.

Vous avez commencé à évoquer El Niño, qu’est-ce que c’est ?

É. G. : Ce sont les pêcheurs sud-américains qui ont donné le nom d’El Niño a un courant chaud qui est présent tous les ans au moment de Noël le long des côtes du Pérou et du Chili (d’où « l’Enfant Jésus », El Niño en espagnol). Le reste de l’année, et en « année normale », des eaux froides et riches en nutriments remontent des profondeurs, faisant de cette région une des plus poissonneuses de la planète.

Mais certaines années, le courant chaud reste toute l’année – cela devient une année El Niño et la pêche s’arrête, un signal que l’on retrouve dans les registres de pêche depuis des siècles.

Alors qu’est-ce qu’il se passe ? Dans le pacifique, les années « normales » (Fig. 1), des alizés soufflent d’est en ouest. Ces vents font remonter des eaux froides venant des profondeurs à la fois le long de l’équateur, dans l’est, mais aussi le long des côtes du Pérou et du Chili. L’eau chaude des tropiques s’accumule à l’ouest, autour de l’Indonésie et du nord de l’Australie.

Schéma de la différence entre une année normale et une année El Niño. La thermocline est la zone sous-marine de transition thermique rapide entre les eaux superficielles (chaudes) et les eaux profondes (froides).
Fourni par l’auteur

Certaines années, des anomalies peuvent perturber ce système. Cela peut venir d’une anomalie de température vers le centre du Pacifique, par exemple sous l’effet de coup de vent d’ouest, des vents qui vont contrer les alizés pendant un moment. Si on a moins de différence de température, on a moins d’alizés, donc moins de remontée d’eaux froides. De l’eau plus chaude va s’étendre dans l’est et amplifier l’anomalie initiale. Le système s’enraye, les alizés s’affaiblissent et des anomalies de température de plusieurs degrés Celsius apparaissent dans d’immenses régions du Pacifique central et du Pacifique Est. Ces perturbations vont durer un an et c’est ce que l’on appelle un événement El Niño.

Aujourd’hui, on comprend bien les mécanismes de base de ce phénomène, on sait prévoir les impacts pour le bassin pacifique ainsi que pour les nombreuses régions de la planète que El Niño influence. On sait que l’anomalie se produit à intervalles irréguliers (tous les trois à sept ans). Le dernier a eu lieu en 2023-2024.

On parle également de La Niña, qu’est-ce que c’est ?

É. G. : C’est la petite sœur d’El Niño, dont les impacts sont en miroir puisque l’on assiste à des anomalies froides dans le Pacifique central et Est, liées à des alizés plus forts, au lieu d’anomalies chaudes. On peut la décrire comme une année normale avec des alizés plus forts. Ce n’est pas un miroir parfait car El Niño a tendance à être plus fort et La Niña plus fréquent.

Depuis quand travaillez-vous sur ce sujet ?

É. G. : J’ai d’abord fait une thèse sur les échanges océan-atmosphère à partir du milieu des années 1990. À cette époque, il n’existait pas encore de modèle climatique global en France. On en avait un qui simulait l’atmosphère, et un autre, l’océan. Mon premier travail a donc consisté à « coupler » ces deux modèles. J’ai commencé à m’intéresser au phénomène El Niño lors d’un postdoctorat dans un laboratoire d’océanographie (le LODYC, ancêtre du LOCEAN). J’ai poursuivi mes recherches à l’université de Reading en Grande-Bretagne avec des spécialistes de l’atmosphère tropicale. En effet, pour comprendre El Niño, il faut s’intéresser à la fois à l’atmosphère et à l’océan. À cette époque, je développais des simulations informatiques et j’analysais comment ces simulations représentaient le phénomène El Niño.

On a vraiment assisté à de grandes avancées depuis les années 1990. Non seulement nous arrivons à représenter El Niño dans ces modèles, mais la prévision saisonnière opérationnelle permet aujourd’hui de prévoir El Niño six neuf mois à l’avance. C’est-à-dire qu’on a suffisamment bien compris les mécanismes et que nous disposons d’un réseau d’observation de qualité.

Une des découvertes à laquelle j’ai contribué, à la fois importante et étonnante, a été de démontrer le rôle prépondérant de l’atmosphère dans la définition des caractéristiques d’El Niño. Pendant longtemps, nous avons considéré qu’un phénomène qui arrive tous les 3 à 7 ans était principalement une question d’océan et d’océanographe, car liée à la mémoire lente de l’océan.

Grâce à des modèles toujours plus précis, nous nous sommes en fait rendu compte que l’atmosphère jouait un rôle dominant, en particulier à travers le rôle des vents, des flux de chaleur, de la convection atmosphérique et des nuages associés.

Pourquoi est-ce si important d’étudier ce phénomène en particulier ?

É. G. : El Niño est la principale anomalie interannuelle du climat à laquelle les sociétés et les écosystèmes doivent faire face. On a vu l’impact sur la pêche au Pérou ou au Chili. Aujourd’hui, la décision d’armer ou non les flottes de pêche de ces pays dépend des prévisions saisonnières d’El Niño, d’où leur importance.

Il y a d’autres impacts liés à ce que nous appelons des « téléconnections », c’est-à-dire des sortes de ponts atmosphériques qui connectent les anomalies du Pacifique tropical aux autres régions du globe, en particulier dans les tropiques. Par exemple, en Indonésie, une année El Niño particulièrement marquée peut diviser la récolte de riz par deux. Il y a aussi de nombreux impacts en l’Afrique, en particulier en Afrique de l’Est : des inondations pendant El Niño, des sécheresses pendant La Niña, avec des impacts humanitaires très sévères dans des pays déjà vulnérables. Les agences humanitaires utilisent aujourd’hui les prévisions saisonnières pour pouvoir anticiper ces événements extrêmes et leurs impacts. Il y a aussi des impacts en Californie, qui voit ses précipitations augmenter pendant El Niño et diminuer pendant La Niña, amplifiant les impacts de la sécheresse liée au changement climatique.

On lie souvent ces événements extrêmes au changement climatique, peut-on faire un lien direct entre El Niño et le changement climatique ?

É. G. : Il y a trois aspects à retenir sur les liens avec le changement climatique : l’un avéré, un autre qui est une question de recherche et enfin un aspect trompeur. Celui qui est avéré vient du fait qu’une atmosphère plus chaude contient plus d’humidité. Donc quand il pleut plus, il pleut encore plus du fait du réchauffement climatique. Pendant El Niño, il y a par exemple des précipitations intenses dans certaines régions qui étaient plutôt sèches, par exemple le Pacifique central ou les côtes du Pérou et du Chili. Il y en a d’autres en Afrique centrale et de l’est, comme nous l’avons vu aussi. Donc ces événements extrêmes vont être plus extrêmes du fait du réchauffement climatique. Ce premier aspect est bien documenté, en particulier dans les rapports du GIEC.

La seconde question qui se pose est de savoir si El Niño lui-même va changer. Est-ce que son intensité, sa fréquence, sa localisation vont évoluer ? Cela reste une question de recherche. Il y a une série d’études basées sur des résultats de modélisation qui suggère que la fréquence des événements les plus forts pourrait augmenter. Mais il faut rester prudent car ces simulations numériques, fiables à l’échelle saisonnière, ont encore des biais à plus long terme. Il reste de nombreuses questions dont la communauté scientifique s’empare avec énergie.

Enfin, l’aspect trompeur est de penser qu’El Niño accélère le changement climatique. C’est d’abord une confusion d’échelle de temps : El Niño modifie la température planétaire d’une année sur l’autre alors que le réchauffement la modifie dans le temps long (décennies). Ensuite, il est arithmétiquement compréhensible qu’El Niño modifie la température moyenne car le Pacifique tropical représente un quart de la surface de la planète. Mais cela ne veut pas dire que la température augmente de façon durable sur le reste du globe. La focalisation de la communication climatique sur la température moyenne annuelle et d’éventuels records une année particulière encourage cette confusion.

Comment prévoit-on El Niño ?

É. G. : Aujourd’hui les systèmes de prévisions opérationnels, par exemple à Météo-France ou au Centre européen de prévision à moyen terme en Europe ou à la NOAA aux USA, prévoient ce phénomène environ 6 à 9 mois à l’avance. Un réseau d’observation couvre le Pacifique tropical composé essentiellement de bouées fixes et dérivantes et de satellites. Ce réseau permet de mesurer la température, les courants et les autres paramètres qui vont permettre d’établir avec précision l’état actuel de l’océan qui est la base d’une prévision de qualité. On va ainsi pouvoir détecter l’accumulation de chaleur dans le Pacifique Ouest, qui se traduit par une anomalie de température de plusieurs degrés vers 300 mètres de profondeur, et qui est un précurseur d’El Niño.

Cette condition nécessaire n’est pas suffisante car il faut un déclencheur, en général une anomalie de vent d’Ouest en surface. Le fait que celle-ci soit plus difficile à prévoir explique la limite de prévisibilité à 6 à 9 mois.

Par exemple, en 2014, Le système était rechargé en chaleur en profondeur et les prévisions indiquaient une forte probabilité d’El Niño cette année-là… qui n’a pas eu lieu car l’atmosphère n’a pas déclenché l’événement. Il a fallu attendre 2015 pour avoir El Niño et évacuer cette chaleur accumulée vers les plus hautes latitudes.

Les enjeux de recherche actuels, issus des besoins de la société, sont de prévoir plus finement le type d’El Niño. Va-t-il être plutôt fort ou plutôt faible ? Sera-t-il localisé plutôt dans l’Est du Pacifique ou plutôt dans le centre ? Les enjeux de prévision sont importants puisque les impacts ne seront pas les mêmes.

On le voit, vos travaux ont un impact sur certaines grandes décisions politiques, vous avez fait partie des auteurs du cinquième rapport du GIEC, cela vous a également exposé au système médiatique, comment l’avez-vous vécu ?

É. G. : J’ai d’abord pensé qu’il était important de partager ce que nous scientifiques savons sur le changement climatique, donc j’y suis allé. Sans être forcément très préparé et cela a pu être un peu rock’n’roll au début ! Ensuite, grâce à des media training, j’ai mieux compris le monde des médias, qui a des codes et des temporalités très différents de ceux du monde de la recherche. Depuis, les sollicitations viennent en fait de toute part, elles ne sont pas que médiatiques. En ce qui me concerne, j’ai décidé de principalement m’investir dans l’éducation, à travers la présidence de l’Office for Climate Education, qui a pour mission d’accompagner les enseignants du primaire et du secondaire pour une éducation au climat de qualité et pour toutes et tous. C’est un engagement qui fait sens.

Je suis également engagé dans une réflexion sur le rôle du scientifique dans la société. Nous avons créé un groupe de réflexion éthique au sein de l’Institut Pierre-Simon Laplace pour échanger collectivement sur ces enjeux science-sociéte et les différentes postures possibles.

Cette réflexion était essentiellement individuelle ou faite entre deux portes dans les couloirs de nos laboratoires. Les enjeux sont tels que nous avons décidé de nous en emparer collectivement. Cela m’a amené å rejoindre le Comité d’éthique du CNRS pour lequel j’ai co-piloté un avis sur l’engagement public des chercheurs. « L’engagement public », c’est quand un chercheur s’exprime publiquement en tant que chercheur pour pousser à l’action (par exemple une biologiste qui dit « vaccinez-vous » ou un climatologue qui suggère de moins prendre l’avion). C’est donc différent de la médiation ou de la communication scientifique qui n’ont, en général, pas cet objectif « normatif ». L’engagement public ainsi défini ne fait pas partie de la fiche de poste des chercheurs, mais c’est important que des scientifiques puissent le faire. Car si ce n’est pas eux qui interviennent dans le débat public, ce sera peut-être des personnes avec moins d’expertise.

Mais n’est-ce pas un risque pour le chercheur de s’engager ainsi ?

É. G. : Si bien sûr ! Un risque pour sa réputation académique, pour l’image de son institution, voire même pour l’image de la recherche. Pour le faire de façon sûre et responsable, il faut donc avoir conscience des valeurs que porte un tel engagement et en faire état. Car l’expression publique, même d’un chercheur, n’est pas neutre. Les mots que l’on va choisir, le ton de sa voix, la façon de se présenter, portent un récit et donc des valeurs. Clarifier ces valeurs personnelles pour ne pas tromper son auditoire, le laissant croire à une prétendue neutralité, a aussi l’avantage de ne pas risquer d’être perçu comme militant.

C’est un travail d’acculturation nouveau pour notre communauté, que d’autres sciences pratiquent depuis plus longtemps, comme les sciences médicales. Nous devons collectivement mieux comprendre la société et ses ressorts pour n’être ni naïfs, ni instrumentalisés, et rester pertinents. Il faut par exemple être particulièrement vigilant avec des porteurs d’intérêts privés (entreprises, ONG, partis politiques) qui peuvent vouloir chercher une forme de légitimation de leur agenda auprès des chercheurs.

Qu’est-ce qui a changé dans votre pratique des médias après toutes ces réflexions ?

É. G. : Tout d’abord, j’interviens nettement moins dans les médias. Les journées n’ont que 24 heures et je me suis rendu compte que ma valeur ajoutée n’était pas très élevée, l’angle de l’interview étant la plupart du temps décidé à l’avance. De plus, la pression sur les journalistes rend l’expression d’une nuance très difficile. L’injonction à prendre parti entre deux positions extrêmes me semble stérile même si je comprends que cela puisse faire de l’audimat.

J’ai joué ce jeu pendant un temps, mais j’ai fini par me rendre compte que je participais à un récit essentiellement catastrophiste et que mes tentatives de nuances étaient vaines. Et je ne parle même pas des réseaux sociaux, avec leurs algorithmes conçus pour polariser, que je ne pratique donc pas. Ce type de récit d’alerte a sans doute eu son utilité mais je suis convaincu qu’il est aujourd’hui contre-productif. Je suis aussi de plus en plus gêné quand on me tend le micro pour me demander ce qu’il faudrait faire. On entend souvent le message : « on connaît les solutions mais on ne les met pas en œuvre parce que, soit l’on n’écoute pas assez les scientifiques, soit il y a des “méchantes” entreprises, soit il y a des politiques incompétents ». Mais je ne suis pas sûr qu’il y ait des solutions clairement identifiées. Pour moi, le défi environnemental (climat, biodiversité, pollution) est comme la démocratie ou les droits de l’Homme, il n’y pas de solutions mais une attention de tous les instants, une réflexion démocratique sur le monde que nous voulons, le niveau de risque acceptable, le niveau d’inégalités acceptable, etc. C’est une discussion essentiellement politique, au sens noble du terme, dans laquelle l’avis des scientifiques n’a pas plus de poids que celui de chaque citoyen. Trop donner la parole aux scientifiques (ce que vous faites dans cet interview !) c’est risquer de dépolitiser des enjeux essentiels et ouvrir la porte à un backlash des populations.

D’où l’importance de l’éducation, pour bien percevoir la complexité des enjeux, bien différencier les registres de connaissance (scientifique, croyances, valeurs…), comprendre les liens et l’articulation entre les différents défis, et éviter ainsi de tomber dans des visions étroites du monde ou de l’avenir, forcément angoissantes. Le sentiment simpliste qu’il y aurait des solutions peut aussi générer de la colère envers les dirigeants qui ne les mettraient, donc, pas en œuvre.

Que proposez-vous pour avancer ?

É. G. : Tout d’abord retrouver de la nuance, de la complexité, affirmer haut et fort qu’il n’y a pas que le climat et la température moyenne de la Terre dans la vie, apprendre à préparer l’avenir positivement. Il y a 17 objectifs du développement durable qui sont autant de sources de malheur humain. A mes yeux de citoyen, il n’y en a pas un qui serait plus important ou plus urgent que les autres. Les éventuelles priorités dépendent de la société que nous voulons, du niveau de risque acceptable et sont donc ancrées localement et culturellement. Regardez comment les différents pays ont fait des choix politiques très différents face au même virus pendant le Covid ! Placer le débat d’abord au niveau du monde que nous voulons, c’est faire un grand pas en avant, même si le chemin reste long.

On me traite souvent « d’optimiste » face à tous ces défis. Mais en fait, pour moi, la période que nous vivons est passionnante ! Nous sommes face à une transition majeure, rare dans l’histoire de l’humanité. Oui c’est vrai, et il ne faut pas se voiler la face, cette transition aura son lot de risques et de malheurs et il y a des intérêts du monde ancien qui résisteront longtemps et farouchement. Mais un nouveau monde de possibles s’ouvre à nous – c’est terriblement excitant, en particulier pour les jeunes !


Éric Guilyardi est coordinateur du projet METRO (Modulation d’ENSO par la variabilité intrasaisonnière dans le Pacifique tropical et impact du changement climatique) et dirige le projet ARCHANGE
(Changement climatique et Arctique et circulation océanique globale)
, tous deux soutenus par l’Agence nationale de la recherche (ANR). L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Éric Guilyardi est membre du Comité d’éthique du CNRS et du Conseil scientifique de l’Éducation nationale. Il est aussi président de l’Office for Climate Education et expert auprès de l’UNESCO et de l’OCDE.

ref. Science, éducation, médias : quels rôles pour les climatologues aujourd’hui ? Conversation avec Éric Guilyardi – https://theconversation.com/science-education-medias-quels-roles-pour-les-climatologues-aujourdhui-conversation-avec-eric-guilyardi-257585

Les mouvements d’une foule ne sont pas chaotiques mais prévisibles

Source: – By François Gu, Post-doctorant, Massachusetts Institute of Technology (MIT)

La Plaza Consistorial (Pampelune) pendant le « Chupinazo ». Fourni par l’auteur

La foule intimide voire terrifie certaines personnes. Ses mouvements peuvent conduire à des drames. C’est pourquoi mieux les comprendre est essentiel. Une nouvelle étude démontre que ces mouvements ne sont pas chaotiques comme on pourrait l’imaginer, mais, au contraire, quasi circulaires et périodiques.


Vous avez déjà vécu l’expérience d’être au milieu d’une foule compacte dans un espace confiné : sur les quais du métro bondés à l’heure de pointe, devant un magasin pour la sortie du dernier livre d’une autrice à succès, ou encore devant la scène lors d’un concert. Au-delà de l’inconfort suscité par les contacts physiques fréquents involontaires avec vos voisins, ces situations semblent incontrôlables et potentiellement dangereuses : on se sent comme contraint de bouger selon un mouvement dicté par l’impatience ou la pression exercée par les autres. Mais quelle est véritablement la nature des mouvements des individus au sein d’une foule dense ? Et peut-on en comprendre l’origine, notamment afin d’anticiper des drames ?

Si l’on se fie à notre intuition, ces mouvements semblent aléatoires et imprévisibles. Pourtant, notre étude, menée au sein de l’équipe de Denis Bartolo, professeur à l’ENS Lyon, et récemment publiée dans la revue Nature, révèle un phénomène contre-intuitif : au lieu d’un chaos désordonné, la foule bouge collectivement selon un mouvement régulier et spontané. Au-delà d’une densité critique de quatre personnes par mètre carré (imaginez-vous à quatre personnes dans une cabine de douche !), et sans consigne extérieure, la foule adopte spontanément un mouvement quasi circulaire et périodique.

Notre expérience : les fêtes de Pampelune et son « Chupinazo »

Notre premier défi, pour caractériser la dynamique des foules denses, était de taille : réaliser des expériences pour filmer, avec un bon angle de vue, la dynamique de centaines d’individus, tout en évitant les accidents. Il était donc évident qu’on ne pouvait pas faire cela dans notre laboratoire. L’opportunité idéale s’est présentée, quand Iker Zuriguel, professeur à l’Université de Navarre, nous a parlé des fêtes de San Fermín en Espagne. Chaque année, le 6 juillet, environ 5 000 personnes se rassemblent Plaza Consistorial, à Pampelune, pour la cérémonie du « Chupinazo », qui marque le début d’une semaine de fêtes. La densité atteint environ 6 personnes par mètre carré !

Cette place, qui mesure 50 mètres de long par 20 mètres de large, est délimitée par des immeubles de plusieurs étages, dont les balcons donnent une vue imprenable sur ce qui se passe sur la place. Nous avons filmé lors de quatre éditions avec huit caméras placées sur deux balcons les mouvements de la foule avec une très bonne résolution. Nous avons ainsi collecté un jeu de données unique au monde pour l’étude des foules denses.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


La foule oscille en synchronie

Grâce à une technique utilisée, par exemple en aérodynamique, nous avons pu cartographier les vitesses de déplacement dans la foule, comme on suit des courants d’air autour d’un avion. Nous en avons extrait que tous les individus dans un rayon d’environ 10 mètres se déplaçaient dans la même direction.

Lors du « Chupinazo », la densité de personnes est très importante, de l’ordre de six personnes par mètre carré : il faut donc imaginer environ 500 personnes entraînées ensemble de façon spontanée, ce qui représente une masse de plusieurs dizaines de tonnes en mouvement.

Nous avons également montré que la direction du mouvement de cette masse tournait progressivement, avant de revenir à son point de départ, toutes les 18 secondes. Autrement dit, les individus ne se déplacent pas de manière chaotique, mais suivent des trajectoires quasi circulaires et périodiques.

Ce mouvement lent s’explique par le fait que ce ne sont pas des individus isolés qui bougent, mais plusieurs centaines, entraînés les uns avec les autres.

Enfin, nous avons observé que les mouvements circulaires oscillants de la foule se font autant dans le sens des aiguilles d’une montre que dans le sens inverse, alors même que la majorité des êtres humains sont droitiers ou qu’ils ont tendance à s’éviter par la droite dans les pays occidentaux. Les facteurs cognitifs et biologiques ne sont donc plus pertinents pour expliquer le déplacement des masses d’individus dans les foules denses qui sont entraînées dans des mouvements à très grande échelle.

L’origine de l’oscillation spontanée des foules

Pour modéliser mathématiquement la dynamique d’une foule, constituée d’un ensemble de piétons, il apparaît naturel de considérer les individus comme des particules en interaction.

Prenez un piéton au sein de cette foule. Il subit des forces qui le mettent en mouvement. Ces forces peuvent avoir une origine physique – comme des forces de contact avec un mur ou un autre piéton – ou une origine cognitive – comme lorsqu’on cherche à éviter un autre piéton. Malheureusement, la modélisation mathématique de ces forces repose sur de nombreuses hypothèses invérifiables sur le comportement des individus, ce qui rend cette approche irréalisable.

Il n’est en réalité pas nécessaire de décrire la dynamique de chaque individu pour prédire la dynamique de la foule. Prenez l’écoulement de l’eau dans un tuyau : les lois de la physique permettent de prédire l’écoulement de l’eau, alors même que déterminer la force subie par une seule molécule d’eau dans cet écoulement s’avère impossible.

Nous avons donc déterminé l’équation qui décrirait le mouvement d’une masse d’individus entraînés tous ensemble, sans déterminer les lois qui régissent le mouvement d’un seul piéton. Notre démarche n’utilise que des principes fondamentaux de la physique (conservation de la masse, conservation de la quantité de mouvement) et ne fait aucune hypothèse comportementale sur le mouvement des individus. Elle nous a permis de construire un modèle mathématique dont la résolution a montré un excellent accord avec les observations expérimentales.

Une nouvelle méthode de prévention des accidents de foule ?

Nous avons également analysé des vidéos issues des caméras de surveillance de la Love Parade de 2010 à Duisbourg, en Allemagne. Bien que cette foule soit très différente de celle du « Chupinazo », nous y avons observé les mêmes oscillations collectives. Cela suggère que ce comportement de masse est universel, indépendamment du type d’événement ou du profil des participants.

Comme nous l’avons souligné précédemment, ces oscillations peuvent mettre en mouvement plusieurs dizaines de tonnes. Nous pensons qu’un tel déplacement non contrôlé de masse peut devenir dangereux. Lors du « Chupinazo », aucun accident n’a jamais été signalé, sans doute parce que l’événement est court (une à deux heures) et que les participants y viennent de leur plein gré, avec une certaine conscience des risques. Ce n’était pas le cas lors de la Love Parade de 2010, où un accident a causé des dizaines de morts et des centaines de blessés. Juste avant que l’accident ne se produise, nous avons détecté ces oscillations.

Cette détection peut se faire en temps réel, à partir d’une analyse directe et simple des caméras de vidéosurveillance. Et puisque cette dynamique est universelle, la même méthode pourrait être appliquée à d’autres foules. Ainsi, nos découvertes pourraient, dans le futur, inspirer le développement d’outils de détection et de prévention d’accidents de masse.

The Conversation

Ce travail a été soutenu par le Conseil européen de la recherche (ERC) dans le cadre du programme de recherche et d’innovation Horizon 2020 de l’Union européenne (convention de subvention numéro 101019141) (D.B.) et par la subvention numéro PID2020-114839GB-I00 soutenue par MCIN/AEI/10.13039/501100011033 (I.Z.).

Benjamin Guiselin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les mouvements d’une foule ne sont pas chaotiques mais prévisibles – https://theconversation.com/les-mouvements-dune-foule-ne-sont-pas-chaotiques-mais-previsibles-253459