L’intelligence, un concept aux multiples facettes

Source: The Conversation – in French – By Romuald Blanc, MCU-Psychologue clinicien, Université de Tours

Qu’est-ce que l’intelligence ? Comment la définir, et l’évaluer ? Il n’existe pas de réponse simple à ces questions, qui ont fait l’objet de nombreux travaux de recherche. Voici quelques pistes de réflexion.


L’intelligence est un concept complexe, qui englobe plusieurs sortes de capacités cognitives, comme la résolution de problèmes, la pensée abstraite, l’apprentissage et l’adaptation.

Elle ne se limite pas aux performances scolaires, mais inclut aussi des dimensions émotionnelles (l’ajustement émotionnel aux autres, la capacité à agir sur ses propres émotions ou « autorégulation émotionnelle »), sociales (l’adaptation sociale et prise en compte des règles et des conventions sociales qui régissent les relations humaines) et pratiques (l’adaptation au quotidien).

Pour cette raison, définir l’intelligence et l’évaluer est une tâche ardue. Les experts eux-mêmes peinent encore à s’accorder sur sa nature (unique ou multiple), son origine (innée ou acquise) ou ses mécanismes (concernant les processus cognitifs sous-jacents).

Si de nombreux modèles d’intelligence ont été proposés, jusqu’à présent, aucun consensus scientifique incontesté n’a émergé. Globalement, 3 grandes façons de définir l’intelligence se dessinent : les modèles factoriels, les approches dites « multiples » et les modèles neurocognitifs. Voici ce qu’il faut en retenir.

Les modèles factoriels

Parmi les modèles factoriels, citons le modèle mis au point par Charles Edward Spearman, psychologue britannique. Développé en 1904, il repose sur le calcul d’un facteur général d’intelligence (appelé « facteur g »). Celui-ci serait commun à toutes les tâches cognitives, tandis que pour chaque activité il existerait des facteurs spécifiques : un facteur verbal pour le langage, un facteur spatial, etc. Ces « facteurs mentaux » sont déterminés grâce à une méthode mathématique appelée analyse factorielle.

Le modèle de Spearman implique que toutes les performances intellectuelles sont corrélées. L’intelligence serait donc une capacité unique. Bien que critiqué pour son caractère réducteur, il reste une référence dans la psychométrie et la conception des tests de quotient intellectuel.

Dans les années 1930, Louis Leon Thurstone, un psychologue américain, conteste cette vision. Il affirme que l’intelligence n’est pas une capacité unique, mais un ensemble de compétences mentales primaires indépendantes. En se basant sur des analyses factorielles de tests d’intelligence qu’il a fait passer à des étudiants, il détermine qu’il existerait 7 aptitudes mentales primaires : la compréhension verbale, la fluidité verbale, les aptitudes numériques, la visualisation spatiale, la mémoire, la vitesse perceptive et le raisonnement inductif.

En 1963, dans la lignée de ces travaux, le psychologue anglo-américain Raymond Bernard Cattell défend l’idée que l’intelligence générale se divise en deux catégories principales : l’intelligence fluide, qui correspond à notre capacité à traiter de nouvelles informations, à apprendre et à résoudre des problèmes ; et l’intelligence cristallisée, qui s’apparente à nos connaissances stockées, accumulées au fil des ans.

Ce dernier modèle a influencé de nombreux tests d’intelligence modernes, comme les échelles d’intelligence de Wechsler. Il explique pourquoi certaines personnes âgées peuvent exceller dans des domaines nécessitant des connaissances établies, malgré une baisse de leurs capacités de raisonnement abstrait. Il est utilisé en psychologie cognitive et en neurosciences pour étudier le vieillissement cognitif.

Les approches multiples de l’intelligence

En se positionnant face aux modèles antérieurs, jugés réducteurs, le psychologue états-unien Howard Gardner a développé, au début des années 1980, un autre modèle de l’intelligence, intégrant les composantes sociales et culturelles. Son intérêt pour des populations atypiques telles que les enfants dits « prodiges », les « idiots-savants », ou encore les personnes avec autisme lui ont permis de prendre en considération des différentes facettes de l’activité cognitive, en respectant des différences de chacun selon ses forces, ses faiblesses et ses styles cognitifs.

Il définit ainsi huit grandes facettes de l’intelligence : linguistique, logico-mathématique, spatiale, kinesthésique, musicale, interpersonnelle, intrapersonnelle et naturaliste. Gardner propose que chacun peut développer ces intelligences à différents niveaux et qu’il existe de nombreuses façons d’être intelligent dans chacune de ces catégories.

Bien que novateur, ce modèle est critiqué pour son manque de fondement scientifique et la subjectivité de ses catégories. Certains chercheurs y voient plutôt des talents que de véritables formes d’intelligences, et son efficacité pédagogique reste à démontrer. Des critiques suggèrent que la théorie des intelligences multiples manque de fondements scientifiques solides et repose sur des catégories subjectives, souvent perçues davantage comme des talents ou des traits de personnalité que comme des formes distinctes d’intelligence.

En 1985, le psychologue américain Robert Sternberg propose un modèle triarchique de l’intelligence, intégrant des aspects cognitifs, créatifs et pratiques. Il distingue trois formes d’intelligence : analytique (résolution de problèmes logiques), créative (pensée originale et adaptation à la nouveauté) et pratique (adaptation au quotidien, intelligence sociale).

Contrairement à Spearman et Thurstone, qui envisagent l’intelligence comme un ensemble de capacités cognitives mesurables (facteur g ou aptitudes primaires), Sternberg la conçoit comme un processus adaptatif. Être intelligent, c’est savoir s’adapter à de nouvelles situations, choisir des environnements favorables et les modifier si nécessaire.

Réussir à s’intégrer dans un nouvel environnement culturel illustre par exemple cette intelligence pratique et contextuelle. Là où Spearman ou Thurstone y verraient l’expression d’aptitudes générales (raisonnement, compréhension), Sternberg y voit surtout la mise en œuvre de stratégies d’adaptation à un contexte changeant.

La théorie de Sternberg est plus étayée empiriquement que celle de Gardner, car ses composantes (analytique, créative, pratique) peuvent être testées et appliquées en éducation ou en milieu professionnel, pour mieux évaluer les compétences individuelles. La typologie proposée par Gardner, séduisante, est en revanche moins validée scientifiquement.

Si Sternberg reste plus opérationnel et crédible sur le plan scientifique, les deux approches complètent les modèles psychométriques, en mettant l’accent sur l’adaptation et le contexte.

Les modèles neurocognitifs de l’intelligence

Les modèles les plus récents d’intelligence s’appuient sur les connaissances acquises notamment grâce aux progrès effectués en neuro-imagerie (notamment grâce à l’IRM fonctionnelle, qui permet d’observer le fonctionnement cérébral lors de la réalisation d’une tâche donnée).

Ces modèles mettent en avant le rôle des réseaux cérébraux et des fonctions cognitives. Parmi les principaux, on peut citer :

  • la théorie de l’intégration fronto-pariétale : selon cette théorie, l’intelligence serait basée sur l’intégration, c’est-à-dire le traitement coordonné et harmonieux des informations entre différentes régions du cerveau, notamment entre le cortex pariétal (impliqué dans le raisonnement et le traitement spatial) et le cortex préfrontal (impliqué dans le contrôle exécutif, c’est-à-dire la régulation et la coordination des pensées, des actions et des émotions pour atteindre un but) ;

  • le modèle des fonctions exécutives : ce modèle souligne le rôle clé de la mémoire de travail (capacité à maintenir et manipuler temporairement des informations), de la flexibilité cognitive (capacité à changer de stratégie ou de point de vue) et de l’inhibition (capacité à résister à des automatismes ou distractions). Ces fonctions, essentielles pour la planification et l’adaptation, sont fortement associées au cortex préfrontal ;

  • les approches bayésiennes : elles mettent en avant l’idée que le cerveau agit comme un système prédictif, c’est-à-dire qu’il formule en permanence des hypothèses sur le monde à partir de ses expériences passées, puis les ajuste en fonction des nouvelles informations sensorielles (par exemple, lorsque nous marchons dans une rue et que nous entendons un bruit de moteur derrière nous, notre cerveau prévoit qu’une voiture approche. Si le bruit s’éloigne au lieu de se rapprocher, il met à jour son modèle interne pour ajuster sa prédiction) ;

  • le modèle des réseaux en petits mondes : ce modèle repose sur l’idée que l’intelligence dépend de l’efficacité des connexions neuronales et de la plasticité cérébrale. Le cerveau humain est organisé selon une architecture dite en petit monde, c’est-à-dire un réseau dans lequel les neurones (ou régions cérébrales) sont à la fois fortement connectés localement (favorisant la spécialisation) et efficacement reliés à distance (favorisant l’intégration globale de l’information).
    Cela signifie qu’il existe des différences interindividuelles : certaines personnes présentent des réseaux cérébraux plus efficaces, caractérisés par un équilibre optimal entre connectivité locale et connectivité globale, ce qui serait associé à de meilleures performances cognitives et à un quotient intellectuel plus élevé. Cependant, cette efficacité n’est pas figée : elle peut être modifiée par l’expérience, l’apprentissage, l’entraînement cognitif ou encore par des changements développementaux (enfance, adolescence) et neurobiologiques (plasticité synaptique, myélinisation). En d’autres termes, le cerveau peut réorganiser ses connexions pour améliorer la circulation de l’information.

Tous ces modèles postulent que l’intelligence est distribuée : elle reposerait sur l’interaction entre différentes régions du cerveau.

La théorie de l’intégration fronto-pariétale et le modèle des fonctions exécutives sont bien étayés empiriquement, grâce à des données de neuro-imagerie et des tâches expérimentales standardisées. Les approches bayésiennes offrent un cadre explicatif puissant, mais plus théorique et difficile à tester directement. Enfin, le modèle des réseaux en petits mondes est empiriquement mesurable, mais surtout corrélationnel.

Ces modèles ne s’opposent pas aux approches développementales classiques, ils les complètent en proposant une explication cérébrale et fonctionnelle des mécanismes qui sous-tendent le développement de l’intelligence

Une absence de consensus

À la fois universelle et plurielle, l’intelligence est un concept complexe, polymorphe et multidimensionnel. L’évaluer n’est pas chose aisée. Sa richesse ne peut être appréhendée à la seule aune de tests standardisés tels que le quotient intellectuel, car celui-ci ne prend pas en compte toutes les formes d’intelligence, ignorant notamment l’intelligence émotionnelle ou créative.

Une compréhension complète de l’intelligence exige de ce fait une approche globale et nuancée. À ce titre, les divers modèles de l’intelligence offrent une vision enrichissante de la complexité de ce concept, en proposant de reconnaître et de valoriser les différentes compétences et talents que chaque individu possède.

En nous incitant à adopter une perspective plus large sur l’intelligence, ils nous aident à mieux comprendre et à soutenir le développement des capacités des individus dans toute leur diversité.


Cet article est publié dans le cadre de la Fête de la science (qui a lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.

The Conversation

Romuald Blanc ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’intelligence, un concept aux multiples facettes – https://theconversation.com/lintelligence-un-concept-aux-multiples-facettes-255131

Les défis du réarmement de l’Europe : réveil stratégique ou chaos organisé ?

Source: The Conversation – in French – By Laurent Vilaine, Docteur en sciences de gestion, ancien officier, enseignant en géopolitique à ESDES Business School, ESDES – UCLy (Lyon Catholic University)

Après des décennies passées à cueillir les « dividendes de la paix », les Européens réarment à grande vitesse, mais de façon désorganisée, voire confuse. Or, la sécurité du continent dépend de la mise en œuvre d’une politique militaire pensée de façon collective et fondée sur une industrie de défense qui deviendrait nettement moins dépendante des États-Unis.


Face à la rhétorique agressive de la Russie, à ses provocations verbales et à ses opérations d’intimidation de plus en plus fréquentes, les États européens réarment. L’attitude illisible de l’administration Trump les incite encore davantage à prendre leur destin en main en matière de défense.

Mais les achats d’armements se font en ordre dispersé. Les Européens (membres de l’UE ou non) continuent de largement dépendre des États-Unis dans ce domaine ; et leur industrie de défense se développe avec une grande lenteur, malgré de progrès récents.

La fin d’une illusion

La guerre en Ukraine a été un révélateur pour les Européens. Après plus de trois décennies de désarmement prononcé pour toucher les fameux « dividendes de la paix » post-guerre froide, les budgets augmentent, accompagnés d’annonces sur des commandes de chars, d’avions de combat, de missiles.

La réactivation des réserves est mise en avant, tout comme la relance des industries d’armement. Ce mouvement, bien que tardif, illustre un gros progrès. L’Europe ne se considère plus comme un continent riche, trop heureux de confier sa protection (notamment nucléaire) aux États-Unis, sans avoir à livrer de véritables efforts propres. En cela, les critiques venues de Washington relatives au manque d’investissements des pays européens dans leur défense étaient parfaitement justifiées.

Mais ce réarmement, aussi nécessaire soit-il, se fait dans le désordre et dans la précipitation, car il est plus guidé par la peur ou par la prise de conscience que par la planification. L’UE, certes, dépense davantage, mais ne réussit pas à définir une vision d’ensemble pour bâtir une défense, sinon intégrée, tout au moins organisée.

Selon l’Institut international de recherche sur la paix de Stockholm (SIPRI), les dépenses militaires européennes ont augmenté de manière historique de 17 % en 2024, atteignant 693 milliards de dollars. La totalité des pays de l’UE, à l’exception de Malte, ont accru leurs budgets militaires. L’Allemagne, longtemps à la traîne en matière de dépenses militaires, a bondi de 28 %, à 88,5 milliards, devenant le quatrième investisseur militaire mondial, ce qui aurait été absolument inimaginable il y a seulement quelques années.

La Pologne est le pays qui consacre le plus gros pourcentage de son PIB à la défense : 4,2 % aujourd’hui contre 2 % en 2021, ce qui marque un effort colossal. L’objectif est d’atteindre 5 % en 2026. En moyenne, même si le chiffre paraît moins spectaculaire, les pays de l’UE ont progressé de 0,2 % en termes de pourcentage du PIB, passant à une moyenne de 1,3 % à 1,5 % en deux ans.

Les fameux dividendes de la paix sont désormais bien derrière nous. La sécurité extérieure redevient centrale, comme au temps de la guerre froide, mais dans un désordre qui fragilise notre souveraineté collective.

Un réarmement en ordre dispersé

Sur la carte du réarmement européen, on distingue autant de stratégies que d’États. L’Allemagne investit son Zeitenwende (changement d’ère) dans des achats auprès des États-Unis : avions F-35, missiles Patriot, hélicoptères CH-47 Chinook…

La France, avec une loi de programmation militaire 2024-2030 de 413 milliards d’euros, mise sur l’autonomie et la dissuasion nucléaire, et reste tournée vers son industrie nationale, particulièrement complète.

L’Italie et l’Espagne modernisent leur marine et leur aéronautique (programmes FREMM, Eurofighter), tout en demeurant très liées à l’Oraganisation du traité de l’Atlantique Nord (Otan). Les pays baltes et scandinaves se concentrent sur la défense territoriale (fortification des frontières) et les infrastructures d’accueil de troupes alliées.

L’Europe se réarme de manière anarchique : les Tchèques achètent des boucliers antimissiles, les Allemands lancent des satellites, la Lituanie achète des drones turcs ou israéliens, sans qu’un effort de coordination et de rationalisation des achats n’apparaisse.

Certes, cette diversité reflète des besoins réels et pressants, car les différents pays n’éprouvent pas le même sentiment d’urgence, du fait de la géographie mais également des menaces perçues comme directes ou plus lointaines, ou en raison des traditions militaires. Mais l’absence de coordination produit une fragmentation industrielle et opérationnelle. Les armées européennes utilisent aujourd’hui près de 180 systèmes d’armes différents, contre une trentaine aux États-Unis. Cette hétérogénéité augmente les coûts, complexifie la logistique – avec d’innombrables pièces détachées différentes et les compétences multiples qu’il est nécessaire d’entretenir – et, in fine, rend très délicate l’interopérabilité, c’est-à-dire la capacité des systèmes d’armes et donc des armées à travailler ensemble.

Achats d’équipements auprès d’acteurs extérieurs

La Pologne illustre les contradictions qu’engendrent les besoins immédiats de sécurité et l’incohérence stratégique. Ce grand pays, encore en avance sur l’Allemagne en matière de dépenses militaires, est devenu la locomotive militaire de l’Europe, au moins de l’Est, mais au prix d’une dépendance massive à des fournisseurs non européens.




À lire aussi :
Le réarmement massif de la Pologne : causes, conséquences et controverses


En août 2025, Varsovie a signé avec la Corée du Sud un contrat portant sur la livraison de 180 chars K2 Black Panther, pour environ 6,5 milliards de dollars, après un premier contrat d’également 180 chars en 2022 ; 61 chars seront assemblés localement sous licence. En parallèle, Varsovie achète à Séoul des obusiers K9 et des avions FA-50, mais n’oublie pas ses alliés américains en acquérant des chars Abrams.

La Pologne s’est donc tournée vers des fournisseurs capables de livrer rapidement des armes de qualité lui permettant une montée en puissance réelle. Ces avantages sont malheureusement accompagnés pour ce pays d’inconvénients réels. La Pologne dépend de la logistique étrangère, et la maintenance de matériels variés se complexifie tant en termes de pièces détachées que de compétences diverses sur des matériels différents.

Mais Varsovie n’est pas seule dans cette situation. Nous le savons déjà : via l’Otan, les États-Unis sont dominants dans la sécurité européenne. Leur parapluie nucléaire en est une forte illustration. De plus, les États-Unis sont, sur le plan industriel, le principal fournisseur des pays européens. Les avions F-35, expression de cette domination, sont désormais l’avion standard de plusieurs forces aériennes européennes. L’Allemagne a prévu 35 appareils, dont les premières livraisons interviendront en 2026, la Belgique en a commandé 34, la Pologne 32 et le Danemark 27, déjà en cours de réception. La Finlande a signé pour 64 exemplaires, livrés progressivement jusqu’en 2030, tandis que la Grèce prévoit jusqu’à 40 avions. La Norvège et les Pays-Bas ont chacun acquis 52 appareils, déjà pour la plupart opérationnels. L’Italie dispose d’environ 90 F-35, le Royaume-Uni en a prévu 138, dont une soixantaine déjà livrés. Enfin, la Suisse en a commandé 36 exemplaires, livrables à partir de 2027, et la République tchèque 24, dont les premières livraisons sont attendues vers 2031.

On le voit, de nombreux pays européens ont préféré privilégier la relation avec les États-Unis, quitte à acheter un système d’armes verrouillé. En effet, les F-35 lient leurs utilisateurs au réseau logistique américain en termes de maintenance, de formation et de mise à jour logicielle.

Cette dépendance technologique pose un problème stratégique majeur, a fortiori lorsque les États-Unis sont dirigés par une administration chaotique et imprévisible et dont l’engagement au sein de l’Otan semble plus que fragile : l’Europe ne contrôle ni ses codes sources, ni sa maintenance, ni ses calendriers d’évolution. En cas de crise transatlantique, cette vulnérabilité pourrait, en quelques semaines, dégrader très fortement les performances de sa flotte de F-35.

Ainsi, l’Europe, incapable de se détacher de la tutelle de Washington, achète sa sécurité en quelque sorte à crédit politique, sans garantie solide. Emmanuel Macron l’a souligné à la Sorbonne, en avril 2024 : « Le moment est venu pour l’Europe de devenir puissance. » Parole précieuse, mais sans grande portée tant que l’Europe se contente d’être une cliente, vulnérable aux intentions de Washington.

La dépendance vis-à-vis des États-Unis pourrait être pleinement justifiée si nous ne disposions pas de la base technique et industrielle pour posséder une véritable autonomie stratégique en matière de défense. La réalité est tout autre ; Airbus, Dassault, Thales, Leonardo, Safran, MBDA, Rheinmetall, Nexter sont autant de champions mondiaux. L’Europe dispose du savoir-faire en quantité, mais manque de coordination et de volonté politique.

Les programmes Scaf (Système de combat aérien du futur) et MGCS (char européen) symbolisent ces lenteurs. Le premier devait incarner l’avenir de la supériorité aérienne européenne. Pourtant, ce projet cumule retards et tensions entre industriels et États membres. Le second, censé succéder au Leopard 2 et au Leclerc, connaît également de grandes difficultés. L’incapacité des Européens à s’entendre profite de manière quasi automatique à leurs concurrents. Les prototypes de chars et de chasseurs des États-Unis et de la Corée du Sud pourraient être opérationnels autour des années 2030. Dans ce cadre, l’ironie est lourde : l’Europe risque de devenir acheteuse de technologies qu’elle aurait pu inventer.

L’UE tente de réagir en mettant sur pied le Fonds européen de défense (Fedef) et l’Agence européenne de défense (AED). Cependant, leurs moyens sont dérisoires (environ 8 milliards d’euros sur la période 2021-2027) et ils sont dénués de véritable gouvernance politique et budgétaire.

Nous le comprenons, la question n’est pas industrielle. L’Europe a la base technique et industrielle. Le problème est politique : les pays européens acceptent-ils de partager entre eux leur souveraineté ? Ils en sont capables, le passé l’a montré, mais la situation géopolitique actuelle nous empêche de tergiverser plus longtemps.

L’autre question essentielle est relative aux États-Unis : l’Europe peut-elle, tout en restant leur alliée, s’affranchir, au moins partiellement, de leur tutelle ? Aucun pays n’apporte de réponse identique à cette question centrale.

Les conditions de la souveraineté militaire

Plusieurs axes s’imposent pour construire une industrie de défense européenne qui entraînera un esprit de défense européen : harmoniser les normes ; mutualiser les achats ; conditionner les contrats étrangers ; créer un « Buy European Act » (équivalent du Buy American Act, une loi américaine de 1933), qui obligerait l’Europe à privilégier les entreprises et produits fabriqués en Europe dans ses marchés publics, et notamment dans la défense ; renforcer le Fedef et élaborer une doctrine commune.

Compte tenu des rapports très différents que les pays entretiennent avec Washington, il est important de montrer à toutes les parties prenantes que ces mesures ne visent pas à se découpler des États-Unis, mais seulement à rééquilibrer la relation transatlantique. Une alliance forte repose sur des partenaires autonomes et libres.

Réarmer est nécessaire. Il ne s’agit pas seulement d’aider l’Ukraine, même si cette dimension demeure. Il s’agit de tenir à distance la Russie, dont on peut parier de la permanence de l’agressivité pendant des décennies.

Réarmer ne couvre pas tout le champ de la défense. Cette dernière engage aussi la diplomatie, la technologie, l’énergie, la résilience des sociétés. Or, malgré les appels et le début de certaines réalisations, l’Europe reste très dépendante en matière d’énergie (gaz américain), de semi-conducteurs (Taïwan et Corée du Sud), du numérique (Gafam)… Une entité politique sans souveraineté ne peut être une puissance. Une souveraineté militaire – ce qui constitue déjà un véritable défi – sans souveraineté industrielle, énergétique et numérique est une illusion.

Pour autant, le réarmement européen met fin à la naïveté stratégique née des années 1990 et, probablement, à l’opportunisme économique dégagé des contraintes de défense. Mais il ne sera durable que s’il s’accompagne d’un sursaut collectif. Un sursaut collectif qui impose de penser l’Europe non plus seulement comme un marché, mais également comme une source de puissance.

L’Europe est une puissance économique avec des moyens et des cerveaux. Elle peut acquérir une souveraineté en matière de défense tout en continuant de coopérer avec les États-Unis, à considérer désormais non plus comme des amis mais comme des alliés. Les États-Unis demeurent un partenaire essentiel, mais n’ont pas à mettre l’Europe sous tutelle. L’Europe-puissance que nous appelons de nos vœux aura pour conséquence de ne plus accepter ce type de relations.

L’Europe est riche et capable. Mais il lui manque la cohésion, la volonté d’agir et la compréhension de la notion de puissance. Elle réarme. Cette évolution est satisfaisante. Mais elle doit réarmer ensemble dans le cadre d’un projet, au risque, sinon, de demeurer un géant économique, sous parapluie américain, parapluie de plus en plus troué d’ailleurs.

The Conversation

Laurent Vilaine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les défis du réarmement de l’Europe : réveil stratégique ou chaos organisé ? – https://theconversation.com/les-defis-du-rearmement-de-leurope-reveil-strategique-ou-chaos-organise-266762

Décoloniser les pratiques scientifiques : le cas du désert d’Atacama au Chili

Source: The Conversation – in French – By Adrien Tavernier, Scientist in environmental sciences, Universidad de Atacama

Est-il moral, éthique, voire tout simplement acceptable, que des projets de recherche soient menés dans des pays du « Sud global » sans qu’aucun scientifique local soit impliqué ? Une étude vient apporter une quantification de cette problématique dans la zone de la Puna sèche et du désert d’Atacama, en Amérique latine.


Tout travail de recherche scientifique implique, initialement, une revue bibliographique. Le but de ce travail préliminaire est de parcourir la littérature afin de compiler les informations susceptibles d’étayer la question principale à laquelle une équipe scientifique souhaite répondre.

C’est au cours de cette recherche bibliographique que notre équipe, travaillant sur la caractérisation environnementale de la Puna sèche et du désert d’Atacama, en Amérique du Sud, a eu l’impression que la plupart des travaux publiés jusqu’alors avaient été réalisés par des équipes étrangères, sans aucune implication de chercheurs appartenant à une institution locale.

Pour ramener la situation à la France, serait-il possible et acceptable que les Puys d’Auvergne ou la Mer de Glace soient étudiés exclusivement par des équipes issues d’organismes de recherche argentins, chiliens, péruviens ou boliviens sans participation de chercheurs appartenant à des institutions françaises ?

Localisation géographique de la Puna sèche (rouge) et du désert d’Atacama (jaune).
Fourni par l’auteur

La Puna sèche et le désert d’Atacama sont des régions du globe à cheval sur quatre pays (Argentine, Bolivie, Chili et Pérou). Ces zones géographiques particulières ont pour caractéristique principale une aridité extrême qui façonne des paysages que beaucoup qualifierait spontanément de « lunaires » ou de « martiens ». Ces deux régions correspondent en effet à ce que l’on appelle, dans le jargon scientifique, des analogues planétaires : des lieux géographiques présents sur Terre mais qui peuvent s’apparenter à des environnements extraterrestres.

La Puna sèche et le désert d’Atacama sont ainsi considérés comme de bons analogues terrestres de Mars et pourraient présenter, à l’heure actuelle, des conditions physico-chimiques proches de ce que la planète rouge aurait pu connaître au cours de son histoire géologique. Ce sont donc de formidables laboratoires naturels pour les domaines des sciences planétaires et de l’astrobiologie. Leur rareté suscite également l’intérêt des scientifiques du monde entier.

Comparaison entre un paysage terrestre dans le désert d’Atacama lors d’une campagne de recherche de météorites et un paysage martien capturé par le rover Curiosity.
Partie supérieure : Luigi Folco/Partie inférieure : NASA/JPL-Caltech/MSSS, CC BY

Comment passer d’une vague impression à une certitude de la prépondérance de travaux étrangers sur la zone géographique concernée ? Notre équipe francochilienne composée de géologues, de géophysiciens, d’astrophysiciens et de biologistes a mis en place une méthode systématique de comparaison des articles basés, d’une manière ou d’une autre, sur les caractéristiques exceptionnelles de la Puna sèche et du désert d’Atacama, dans les domaines des sciences planétaires et de l’astrobiologie.

Les résultats de cette étude ont été publiés en 2023 dans la revue Meteoritics and Planetary Science et notre impression a été confirmée : plus de 60 % des articles l’ont été sans impliquer un chercheur appartenant à une institution nationale d’un des pays abritant la Puna sèche et/ou le désert d’Atacama (5 369 articles analysés sur la sélection générale en sciences de la Terre, 161 pour les sciences planétaires et l’astrobiologie). Le déséquilibre mis en évidence est similaire à d’autres disciplines scientifiques et ne se limite pas à cette région.

La valorisation scientifique du patrimoine naturel de certains pays, sans contribution majeure des chercheurs locaux, suscite de plus en plus d’inquiétudes dans une partie de la communauté scientifique. Au cours de ce travail, nous avons découvert les termes relativement récents (depuis les années 2000) de sciences hélicoptères, sciences parachutes, sciences safari ou sciences néocoloniales (terme privilégié dans la suite de cet article) qui permettent de mettre des noms sur ces pratiques caractérisées par la mise en œuvre de projets de recherches scientifiques menées par des équipes de pays développés (Nord global) dans des pays en développement ou sous-développés (Sud global) sans aucune implication des chercheurs locaux.

Ces pratiques tendent à être considérées comme contraires à l’éthique et le sujet devient un thème de discussions et de publications au sein des sciences dures : le plus souvent sous forme de diagnostic général, mais aussi en termes de quantification.

Certaines revues scientifiques, dont Geoderma (référence du domaine en science du sol) a été l’un des pionniers à partir de 2020, ont pris l’initiative d’un positionnement sans équivoque contre les pratiques de sciences néocoloniales ouvrant la voie à la modification des lignes éditoriales afin de prendre en compte la nécessité d’impliquer les chercheurs locaux dans les publications scientifiques.

C’est le cas par exemple de l’ensemble des journaux PLOS qui exigent, depuis 2021, le remplissage d’un questionnaire d’inclusion de chercheurs locaux pour une recherche menée dans un pays tiers, exigence qui a depuis fait des émules au sein du monde de l’édition scientifique.

L’exigence éthique vis-à-vis des recherches menées dans des pays étrangers devient donc un standard éditorial important mais pas encore majeur. D’autres leviers pourraient cependant être activés comme des cadres législatifs nationaux ou internationaux restrictifs imposant la participation de chercheurs locaux dans des travaux de terrain menés par des scientifiques étrangers.

En France par exemple, la mise en place de programmes de recherche dans des territoires exceptionnels comme les îles Kerguelen (territoire subantarctique français de l’océan Indien) ou la terre Adélie en Antarctique nécessite que le projet soit porté par un scientifique, agent titulaire d’un organisme de recherche public français. Des modèles permettant d’éviter cette problématique d’appropriation culturelle d’un patrimoine naturel scientifique par des chercheurs appartenant à des institutions étrangères existent donc déjà et constituent autant de ressources sur lesquelles se fonder afin de limiter ces pratiques de sciences néocoloniales. Il nous semblerait cependant nécessaire que la communauté scientifique procède à une introspection de ces pratiques.

C’est tout l’enjeu de l’étude que nous avons menée et des travaux similaires qui se généralisent depuis quelques années : rendre ces pratiques de sciences néocoloniales visibles, notamment en quantifiant le phénomène, afin que cette problématique soit débattue au sein de la communauté. Cela a notamment permis à notre équipe de se poser des questions fondamentales sur ses pratiques scientifiques et de (re)découvrir les apports conséquents menés, depuis plus de 60 ans, par les sociologues et les épistémologues sur les racines profondes et historiques pouvant lier colonialisme, impérialisme et science et plus généralement des relations entre centre et périphérie (par exemple les déséquilibres, au sein d’un même pays, entre institutions métropolitaines ou centrales vis-à-vis des institutions régionales).

L’exemple des analogues terrestres de la Puna sèche et du désert d’Atacama illustre ainsi les écarts économique, scientifique et technologique creusés progressivement entre le Nord et le Sud global. Les sciences planétaires et l’astrobiologie, ont été historiquement liées au développement technologique de programmes spatiaux ambitieux et extrêmement coûteux dont souvent les principales ambitions n’étaient pas scientifiques. Les pays du Sud global n’ont ainsi pas eu l’opportunité de profiter de la conquête spatiale de la seconde moitié du XXe siècle pour développer une communauté scientifique locale en sciences planétaires et en astrobiologie.

Des efforts sont actuellement menés au sein du continent sud-américain afin de pallier cette situation et ainsi faciliter l’identification d’interlocuteurs scientifiques locaux par des chercheurs d’institutions étrangères souhaitant mener des recherches en sciences planétaires ou en astrobiologie en Amérique du Sud. Des démarches vertueuses entre certains chercheurs sud-américains et leurs homologues du Nord global ont aussi été menées afin de développer ex nihilo des initiatives de recherche locales dans des domaines spécifiques des sciences planétaires et de l’astrobiologie (par exemple, vis-à-vis d’un cas que notre équipe connaît bien, la recherche sur les météorites au Chili).

Dans le domaine de l’astronomie, à la marge donc des sciences planétaires et de l’astrobiologie, la mise en place des grands observatoires internationaux sur le sol chilien a permis la structuration d’une communauté locale d’astronomes et représente ainsi un bon exemple de début de coopération fructueuse entre le Nord et le Sud global. N’oublions pas de citer aussi le développement remarquable et exemplaire de l’astrobiologie au Mexique, dans les pas des scientifiques mexicains Antonio Lazcano et Rafael Navarro-González, qui démontre qu’une structuration locale indépendante reste possible et peut induire une dynamique positive pour l’ensemble du continent sud-américain.

Toutes ces initiatives restent cependant trop rares ou encore trop déséquilibrées au profit d’un leadership du Nord global et ne peuvent, selon nous, se substituer à une introspection profonde des pratiques de recherche scientifique. Dans un contexte où la légitimité des sciences est contestée, cet effort d’autocritique émanant de la communauté scientifique ne nous semblerait pas superflu.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Décoloniser les pratiques scientifiques : le cas du désert d’Atacama au Chili – https://theconversation.com/decoloniser-les-pratiques-scientifiques-le-cas-du-desert-datacama-au-chili-241954

De Byzance à nos tables : l’étonnante histoire de la fourchette, entre moqueries, scandales et châtiment divin

Source: The Conversation – in French – By Darius von Guttner Sporzynski, Historian, Australian Catholic University

Banquet du duc de Lancaster Jean de Gand (1340-1399), prétendant au trône de Castille, (à gauche) et du roi de Portugal et de l’Algarve Jean&nbsp;I<sup>er</sup> (1385-1433) (au centre), lors des négociations qui aboutiront au traité de Windsor (_Chronique d’Angleterre_, vol. 3, fin du XIVᵉ siècle). Wikimedia Commons

Née dans l’Empire byzantin, adoptée en Italie puis diffusée en Europe grâce à des mariages royaux et à l’influence de grandes reines, comme Bonne Sforza (1494-1557) ou Catherine de Médicis (1519-1589), la fourchette est devenue au fil des siècles un symbole de propreté, de civilité et de raffinement.


Aujourd’hui, on prend à peine conscience de saisir une fourchette. Elle fait partie d’un service de couverts standard, aussi indispensable que l’assiette elle-même. Mais il n’y a pas si longtemps, cet ustensile désormais bien banal était accueilli avec méfiance et moquerie, allant jusqu’à causer un scandale.

Il a fallu des siècles, des mariages royaux et une pointe de rébellion culturelle pour que la fourchette passe des cuisines de Constantinople (l’actuelle Istanbul) aux tables d’Europe.

Un ustensile scandaleux

Les premières versions de la fourchette ont été retrouvées dans la Chine de l’âge du bronze et dans l’Égypte antique, bien qu’elles aient probablement servi surtout à la cuisson et au service des aliments. Les Romains disposaient de fourchettes élégantes en bronze et en argent, mais là encore principalement pour la préparation des repas.

Une fourchette verte à deux dents
Fourchette de service en bronze de la Rome antique, vers le IIᵉ et le IIIᵉ siècle de notre ère.
Metropolitan Museum of Art

Manger avec une fourchette – surtout une petite fourchette personnelle – restait rare. Au Xe siècle, les élites byzantines l’utilisaient librement, choquant leurs invités venus d’Europe occidentale. Et vers le XIe siècle, la fourchette de table commença à faire son apparition lors des repas à travers l’Empire byzantin.

Fourchettes en bronze fabriquées en Perse (VIIIᵉ-IXᵉ siècles).
Wikimedia

En 1004, Maria Argyropoulina (985–1007), sœur de l’empereur Romanos III Argyros, épousa le fils du Doge de Venise et provoqua un scandale en refusant de manger avec ses doigts. Elle se servait d’une fourchette en or. Plus tard, le théologien Pierre Damien (1007–1072) déclara que la vanité de Maria, qui utilisait des « fourchettes en métal artificiel » au lieu des doigts donnés par Dieu, avait provoqué le châtiment divin de sa mort prématurée, survenue dans sa vingtaine.

Pourtant, au XIVe siècle, la fourchette était devenue courante en Italie, en partie grâce à l’essor des pâtes. Il était beaucoup plus facile de manger des filaments glissants avec un instrument à dents qu’avec une cuillère ou un couteau. L’étiquette italienne adopta rapidement la fourchette, surtout parmi les riches marchands. Et c’est par cette classe aisée que la fourchette fut introduite dans le reste de l’Europe au XVIe siècle, grâce à deux femmes.

Le rôle de Bonne Sforza

Née dans les puissantes familles Sforza de Milan et d’Aragon de Naples, Bonne Sforza (1494–1557) grandit dans un monde où les fourchettes étaient utilisées et, mieux encore, à la mode. Sa famille était rompue aux raffinements de l’Italie de la Renaissance : l’étiquette de cour, le mécénat artistique, l’habillement ostentatoire pour hommes et femmes, et les repas élégants.

Lorsqu’elle épousa Sigismond Iᵉʳ, roi de Pologne et grand-duc de Lituanie en 1518, devenant reine, elle arriva dans une région où les usages à table étaient différents. L’usage des fourchettes y était largement inconnu.

Fourchettes, cuillères et bols fabriqués à Venise, au XVIᵉ siècle.
The Trustees of the British Museum, CC BY-NC-SA

Dans les cours de Lituanie et de Pologne, l’usage des couverts restait limité. Cuillères et couteaux servaient pour les soupes, les ragoûts et la découpe de la viande, mais la plupart des aliments étaient consommés avec les mains, aidés de pain ou de « tranchoirs » – de grosses tranches de pain rassis servant à absorber les jus des plats.

Cette méthode, à la fois économique et profondément ancrée dans les traditions culinaires de la noblesse, reflétait une étiquette sociale où les plats communs et le repas partagé étaient la norme. La cour de Bonne introduisit les manières italiennes dans la région, apportant davantage de légumes, du vin italien et, surtout, la fourchette de table.

Si son usage était probablement limité au départ aux occasions formelles ou aux cérémonies de cour, il fit forte impression. Au fil du temps, et surtout à partir du XVIIe siècle, la fourchette se généralisa parmi la noblesse de Lituanie et de Pologne.

Catherine de Medicis et la France

Catherine de Médicis (1519–1589) naquit au sein de la puissante famille florentine des Médicis, nièce du pape Clément VII. En 1533, à l’âge de 14 ans, elle épousa le futur Henri II de France dans le cadre d’une alliance politique entre la France et la papauté, quittant ainsi l’Italie pour rejoindre la cour de France.

Catherine de Médicis introduisit les fourchettes en argent et les usages culinaires italiens à la cour.

Comme pour Bonne Sforza, ces nouveautés faisaient partie de son trousseau. Elle arriva d’Italie avec des cuisiniers, des pâtissiers, des parfumeurs, mais aussi des artichauts, des truffes et une vaisselle raffinée. Son sens culinaire contribua à transformer les repas de cour en véritables spectacles.

Si la légende a sans doute amplifié son influence, de nombreux plats aujourd’hui considérés comme emblématiques de la cuisine française trouvent en réalité leur origine dans sa table italienne : la soupe à l’oignon, le canard à l’orange ou encore le sorbet.

Une fourchette italienne du XVᵉ siècle.
The Met

La « bonne façon » de manger

Voyageur insatiable, Thomas Coryate (1577–1617) rapporta au début du XVIIe siècle des récits d’Italiens utilisant des fourchettes, une pratique qui paraissait encore ridiculement affectée dans son pays.

En Angleterre, l’usage de la fourchette au début du XVIIe siècle passait pour un signe de prétention. Même au XVIIIe siècle, on considérait qu’il était plus viril et plus honnête de manger avec un couteau et les doigts.

Mais à travers l’Europe, le changement était en marche. La fourchette commença à être perçue non seulement comme un ustensile pratique, mais aussi comme un symbole de propreté et de raffinement.

En France, elle devint un reflet de la civilité de cour. En Allemagne, les fourchettes spécialisées se multiplièrent aux XVIIIe et XIXe siècles : pour le pain, les cornichons, la glace ou le poisson.

En Angleterre, son usage finit par devenir un marqueur social : la « bonne façon » de la tenir distinguait les gens polis des malappris.

Vieil homme assis sur un tabouret avec une poêle et une fourchette (1888), du peintre belge Jos Ratinckx (1860-1937).
Rijksmuseum

Avec l’essor de la production de masse au XIXe siècle, l’acier rendit les couverts abordables et la fourchette devint omniprésente. À cette époque, le débat ne portait plus sur la question d’en utiliser une, mais sur la manière correcte de s’en servir. Les manuels de savoir-vivre dictaient désormais les règles : pas question de ramasser les aliments comme avec une cuillère, ni de les piquer sauvagement, et toujours tenir la fourchette dents vers le bas.

Il fallut des scandales, des toquades royales et des siècles de résistance pour que la fourchette s’impose à table. Aujourd’hui, il est presque impossible d’imaginer manger sans elle.

The Conversation

Darius von Guttner Sporzynski ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. De Byzance à nos tables : l’étonnante histoire de la fourchette, entre moqueries, scandales et châtiment divin – https://theconversation.com/de-byzance-a-nos-tables-letonnante-histoire-de-la-fourchette-entre-moqueries-scandales-et-chatiment-divin-266608

Népal : La génération Z prend la rue et réinvente la contestation

Source: The Conversation – in French – By Elodie Gentina, Professeur à IESEG School of Management, Univ. Lille, CNRS, UMR 9221 – LEM – Lille, IÉSEG School of Management

À l’automne 2025, face à la censure numérique imposée par un régime népotique, des milliers de jeunes manifestants ont investi les rues de Katmandou, capitale du Népal. La répression a été brutale : au moins 72 morts, des dizaines de blessés. Porté par les réseaux sociaux, ce soulèvement s’inscrit dans une vague mondiale où les jeunesses connectées – du Maroc à Madagascar – réinventent la démocratie hors des cadres traditionnels et exigent d’être entendues.


Au Népal, l’histoire politique pourrait bien prendre un nouveau tournant. Dans ce pays de quelque 30 millions d’habitants accroché aux flancs de l’Himalaya, encore marqué par les cicatrices d’une guerre civile (1996-2006) qui a abouti à la mise en place d’une démocratie imparfaite et instable, une génération née après les combats s’affirme aujourd’hui.

Elle ne se range sous aucune bannière partisane, n’attend l’aval d’aucun chef et refuse les mots d’ordre venus d’en haut. Elle trace sa propre voie, connectée, autonome, soudée autour de ses codes et de ses écrans. Et cet automne 2025, cette jeunesse – la fameuse génération Z (personnes nées entre la fin des années 1990 et le début des années 2010) – a investi les rues, prenant tout le monde de court, à commencer par les dirigeants.

D’un royaume meurtri à une démocratie fragile

Pour mesurer ce qui se joue aujourd’hui, il faut d’abord se tourner vers le passé. Entre 1996 et 2006, le Népal a traversé une décennie de guerre civile d’une rare intensité, opposant les insurgés maoïstes au pouvoir monarchique. Ce conflit, qui a coûté la vie à plus de 13 000 personnes, s’est soldé par l’effondrement de la royauté et la naissance d’une République en 2008. Beaucoup y ont vu l’aube d’un nouvel avenir, fondé sur la justice, la stabilité et le développement.

Mais la réalité fut bien plus chaotique. En quinze ans, le pays a connu une succession de gouvernements sans lendemain, des institutions toujours fragiles et un pouvoir resté entre les mains des mêmes familles. La corruption, le favoritisme et l’absence d’horizons économiques ont peu à peu creusé un profond sentiment de désillusion. Jusque-là, la contestation prenait des formes attendues : syndicats, mouvements étudiants affiliés aux partis, mobilisations rurales ou actions maoïstes. Rien ne laissait imaginer l’irruption d’un soulèvement d’un tout autre visage.

Gen Z contre les « nepo kids » : la révolte d’une génération contre l’héritage du pouvoir

Environ 500 000 jeunes rejoignent chaque année la population active, bien plus que le nombre d’emplois disponibles. Le chômage des jeunes âgés de 15 à 24 ans au Népal est évalué à 20,8 %. Dans ces conditions, les opportunités sont rares, et des centaines de milliers de Népalais sont contraints de s’expatrier pour trouver du travail en Inde ou dans les pays du Moyen-Orient. L’idée d’un avenir meilleur dans leur propre pays leur semble de plus en plus inaccessible.




À lire aussi :
Ce que la migration au Qatar signifie pour les travailleurs népalais


Quelques jours avant que les rues ne s’embrasent, un flot d’images a envahi les réseaux sociaux népalais : on y voyait les enfants de responsables politiques exhiber voitures de luxe, séjours à l’étranger et train de vie fastueux. Ces publications, largement partagées sous les hashtags #NepoKid ou #NepoBaby, ont fait l’effet d’une étincelle dans un pays déjà traversé par une profonde frustration. Elles mettaient crûment en lumière le fossé qui sépare les élites de la population, révélant un système où privilèges et passe-droits semblent se transmettre de génération en génération.

Dans un contexte de chômage massif et d’exil forcé pour une grande partie de la jeunesse, ces images sont vite devenues le symbole d’un pouvoir déconnecté et d’une injustice profondément enracinée. Le mouvement né sur les écrans s’est alors transformé en colère dans les rues, accélérant l’éclatement d’un soulèvement populaire. Le mouvement au Népal a souvent été présenté comme une révolte de la Gen Z contre les « nepo-babies » qui s’est intensifiée à la suite de l’interdiction des réseaux sociaux et d’une répression sanglante.

La vague de vidéos dénonçant les « nepo-kids » a exprimé une colère populaire face à des décennies de népotisme enraciné au Népal. Héritage de la dynastie autoritaire des Rana (1846-1951), ce système s’est perpétué malgré la démocratisation amorcée en 1990 : les partis n’ont pas su instaurer des institutions équitables ni représentatives. Le pouvoir reste ainsi concentré entre quelques familles influentes et alliances claniques (la famille Koirala, la dynastie Rala et les dynasties « claniques »), qui continuent de contrôler partis, ressources et postes clés.

Les jeunes citoyens exigent la fin de la corruption, une gouvernance plus juste et une véritable équité économique. Fait inédit dans l’histoire politique du pays : le 9 septembre 2025, le premier ministre Khadga Prasad Sharma Oli a présenté sa démission, avant d’être remplacé par Sushila Karki, ancienne présidente de la Cour suprême, à l’issue d’un vote… organisé sur la plateforme Discord. Elle est à la tête d’une équipe transitoire chargée de préparer les élections prévues pour mars 2026.

Le manga « One Piece », emblème de révolte de la génération Z

Cette révolte est horizontale, spontanée, mouvante, en l’absence de leaders reconnus ou autoproclamés. Les messages circulent en ligne, les décisions se construisent collectivement, presque en temps réel. La culture de cette génération imprègne aussi le mouvement. Sur les pancartes, on voit des mèmes, des clins d’œil à des séries ou à des mangas. Le drapeau des Straw Hat Pirates de One Piece, symbole de liberté et de résistance, flotte parmi les manifestants. La colère s’exprime avec humour, ironie et inventivité. Loin des discours idéologiques d’antan, cette jeunesse parle un langage qui lui ressemble.

Ce symbole One Piece n’a rien d’anodin : dans l’univers du célèbre manga, Luffy incarne la lutte contre l’oppression et le rêve d’un monde plus juste. Hors des pages de fiction, ce drapeau est devenu un véritable marqueur générationnel à travers toute l’Asie. Il suffit d’y inscrire quelques mots d’ordre pour qu’il se transforme en cri de ralliement. « La génération Z ne se taira pas » ou encore « Votre luxe, notre misère », pouvaient ainsi se lire sur les banderoles brandies par des milliers de jeunes Népalais début septembre 2025, après la suspension de plates-formes comme Facebook, X ou YouTube.

Mais les revendications de la génération Z au Népal vont bien au-delà de la seule question de la censure. Elles s’attaquent à un système politique verrouillé, gangrené par les privilèges héréditaires et incapable d’offrir un avenir. Elles réclament des emplois, de la transparence, une démocratie réelle et vivante. Elles exigent surtout une chose : que leur voix compte enfin.

Une rupture générationnelle qui dépasse le Népal

La jeunesse népalaise a provoqué un séisme politique. Et cela, sans chef, sans parti, sans programme détaillé.

Reste à savoir ce que ce soulèvement va devenir. Au Népal, le gouvernement en place a même été contraint de céder, remplacé par une équipe transitoire chargée de préparer les élections prévues pour mars 2026. L’histoire montre que les mouvements sans organisation claire peuvent vite s’essouffler ou être récupérés. Reste à savoir si la jeunesse mobilisée choisira d’entrer dans l’arène électorale en présentant ses propres candidats – une perspective qui pourrait marquer un tournant majeur dans la vie politique du pays.

La nouvelle génération a pris conscience de sa force collective. Elle sait désormais qu’elle peut se mobiliser rapidement, en dehors des cadres traditionnels, et obliger le pouvoir à réagir. Elle a aussi redéfini le vocabulaire de la contestation : culture numérique, humour, pop culture, créativité… autant d’armes nouvelles pour faire passer des messages politiques.

Ce qui se joue au Népal n’est d’ailleurs pas un cas isolé. De l’Indonésie au Chili, de l’Iran aux États-Unis, ces jeunes « digital natives », nés pendant l’ère d’Internet, contestent les structures établies avec les mêmes outils et les mêmes réflexes. Le Népal s’inscrit dans ce vaste mouvement mondial d’une génération qui ne veut plus attendre et qui contribue à réinventer la démocratie à l’ère du numérique. La politique telle que nous la connaissions – organisée autour de partis, de leaders et de structures hiérarchiques – est de moins en moins adaptée aux formes d’engagement des nouvelles générations. Pour elles, la politique est une pratique fluide, horizontale, souvent ludique, toujours connectée.

The Conversation

Elodie Gentina ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Népal : La génération Z prend la rue et réinvente la contestation – https://theconversation.com/nepal-la-generation-z-prend-la-rue-et-reinvente-la-contestation-266944

Le marketing viral du chocolat de Dubaï

Source: The Conversation – France (in French) – By Anne Parizot, Professeur des universités en sciences de l’information et de la communication émérite, Université Bourgogne Europe

Le chocolat de Dubaï illustre les dilemmes contemporains&nbsp;: entre innovation culinaire et marketing viral, entre authenticité et imitation, entre inspiration et contrefaçon. KatMoys/Shutterstock

Une tablette de chocolat artisanal, née à Dubaï et popularisée sur TikTok, est devenue en quelques mois un phénomène mondial. Entre marketing viral, copies industrielles, le « chocolat de Dubaï » illustre les tensions contemporaines entre authenticité, imitation et contrefaçon dans l’alimentation mondialisée. Plus encore qu’un produit, c’est un nom qui fait vendre.


Chocolat de Dubaï ? Si vous n’en n’avez jamais entendu parler, peut-être n’êtes-vous ni gourmand ni accro aux réseaux sociaux. Pourtant, il fait le buzz depuis 2024.

Le « Dubai chocolate », créé par l’entrepreneuse anglo-égyptienne Sarah Hamouda, associe chocolat au lait, crème pistache-tahini et cheveux d’ange (kadayif). Ce qui frappe : son goût, sa texture onctueuse et croustillante, mais surtout la rapidité avec laquelle il s’est imposé comme un symbole culinaire de Dubaï. Baptisé « Can’t get knafeh of It » signifiant « On ne peut plus s’en passer », il a explosé en popularité après une vidéo TikTok devenue virale, de Maria Vehera (2023).

Sur les réseaux sociaux, le chocolat de Dubaï est conçu comme un spectacle visuel relevant du « food porn ». Gros plans, ralentis et zooms exaltent textures, couleurs et gestes rituels : ouverture de l’emballage, cassure de la tablette, coulants et craquants. L’esthétisation extrême transforme la dégustation en scène sensuelle, associée à l’exotisme d’une expérience rare, presque interdite.

Du luxe artisanal à la copie industrielle

Face à l’engouement de ce produit à l’origine artisanal, les marques se sont emparées du concept : en France, Lindt, la célèbre marque de chocolat suisse, Lidl propose sa propre version à prix bas, relayée sur TikTok ou Jeff de Bruges développe des déclinaisons de la tablette classique.

Une trajectoire typique : un produit culinaire innovant, viral et artisanal bascule vers une industrialisation massive, avec ses imitations et risques de contrefaçon. Si certains s’attachent à ces saveurs, d’autres ont senti un autre goût. « Ça a le goût de l’argent », a plaisanté le présentateur Al Roker dans l’émission « Today » après l’avoir goûté en direct. Plaisantait-il vraiment ?

Buzz ou tromperie ?

L’importance des mots du chocolat a été soulignée par les chercheurs Laurent Gautier, Angelica Leticia Cahuana Velasteguí et Olivier Méric, et ici c’est le nom de ce chocolat qui suscite le débat. « Chocolat de Dubaï » peut laisser croire que les tablettes sont produites aux Émirats. Or, beaucoup viennent en réalité de Turquie ou d’Europe et peuvent donc induire le consommateur en erreur.

La justice allemande a rendu deux jugements contradictoires. À Cologne, l’appellation « Dubai Chocolate » sur des tablettes turques a été jugée trompeuse. À Francfort, au contraire, les juges ont estimé qu’il renvoyait à une recette culinaire plus qu’à une origine géographique. En France, le Code de la consommation est clair : une pratique commerciale trompeuse est interdite si l’emballage suggère une origine fausse ou ambiguë. Pour éviter ce risque, certaines marques comme Lindt utilisent la formule prudente « Dubaï Style ».

Le buzz a engendré une économie parallèle avec des versions contrefaites ; les douanes autrichiennes saisissent plus de 2 500 tablettes lors de contrôles frontaliers. Ces copies exposent les consommateurs à des risques sanitaires que souligne la revue UFC-Que choisir. Le succès du produit repose plus sur le marketing viral des réseaux sociaux que sur ses qualités gustatives.

Quand le nom fait vendre

Au-delà des saveurs, c’est le nom qui alimente le succès – et parfois la confusion. « Dubaï » agit comme une marque imaginaire, synonyme de luxe, de prestige et d’exotisme. Le produit original mise sur un storytelling sophistiqué : mélange gourmand, raffiné, savoir-faire, texture fondante, masse de cacao… Chocolat Dubaï c’est partager un peu de la magie de Dubaï, une saveur nouvelle, expérience gustative.

Trois formulations circulent aujourd’hui, porteuses d’un sens implicite différent. Le jeu sur les prépositions et sur les adjectifs est au cœur du storytelling culinaire. Comme l’a montré le sémiologue Roland Barthes, la nourriture est aussi un discours.

« Dubaï » fonctionne comme une marque imaginaire :

  • « Chocolat de Dubaï » : la préposition « de » suggère une origine géographique et une authenticité. Comme pour « vin de Bordeaux », le consommateur attend un produit provenant effectivement des Émirats. Cette formulation pose des problèmes juridiques lorsque le chocolat est fabriqué ailleurs. Les marques doivent donc être déposées pour être protégées et l’indication géographique (IG) est essentielle.

  • « Chocolat Dubaï » (sans préposition) fonctionne comme un raccourci puissant associant un toponyme immédiatement reconnaissable à une catégorie universelle – chocolat. Le nom n’est pas une marque déposée, mais un surnom collectif, facile à retenir et à partager. On est dans l’onomastique – ou étude des noms propres – marketing, où la référence territoriale glisse vers l’imaginaire. La juxtaposition franco-anglaise – « Dubai chocolate » ↔ « Chocolat Dubaï » – crée un effet de résonance interlinguistique qui facilite la viralité.

  • « Chocolat Dubaï Style » insiste sur l’inspiration culinaire sans revendiquer l’origine. D’un point de vue linguistique, l’ajout de « style » signale l’inspiration culinaire et protège le fabricant du risque de tromperie, en signalant une imitation assumée. Mais le consommateur en est-il toujours conscient ?

Ces variations linguistiques révèlent un glissement métonymique : de la référence au lieu réel à un imaginaire global du luxe et de l’excès.

Le nom propre comme storytelling

L’onomastique alimentaire, ou étude des noms propres devient un instrument de storytelling, mais aussi un champ de bataille juridique et économique. Une entreprise joue clairement sur le nom sur un registre humoristique : la marque française Klaus et son « Doubs by Chocolate » détourne l’imaginaire du Golfe pour l’ancrer dans le terroir du Haut-Doubs.

L’entreprise franc-comtoise a bien compris le rôle essentiel de l’onomastique. Ce « Doubs by Chocolate » surfe sur la vague, mais le nom identifie clairement le chocolat comme un produit régional. L’origine signalée ne crée pas de risque juridique, tout en conservant une homophonie parfaite avec le fameux « Dubai chocolate ». En référence directe à Dubaï et à l’imaginaire idyllique de luxe et de volupté, avec toutes les précautions prises pour qu’il n’y ait pas mégarde, l’entreprise Klaus met en place un marketing déroutant évoquant le décalage.

Publicité pour la tablette Doubs By Chocolate de l’entreprise française Klaus.
Klaus, FAL

Du viral au patrimonial ?

Traditionnellement, les produits alimentaires deviennent patrimoine à travers le temps, consolidés par des générations d’usage, protégés par des labels (AOP, IGP). Le Dubai chocolate inverse la logique. Son patrimoine n’est pas hérité, mais produit par la viralité. Les millions de vues et de partages jouent le rôle de validation. Ce n’est pas l’État ni l’Unesco qui consacrent le produit, mais l’algorithme et les réseaux sociaux. Ce phénomène illustre une tendance nouvelle : la patrimonialisation accélérée.

Autre singularité : le Dubai chocolate n’est pas lié à un terroir rural, comme le vin de Bordeaux. Il est rattaché à une « ville-monde ». Il devient l’équivalent culinaire d’un gratte-ciel ou d’un centre commercial : un symbole urbain. Cette urbanisation du patrimoine alimentaire montre que les métropoles ne sont plus seulement consommatrices de traditions, mais aussi créatrices d’icônes gastronomiques.

Confrérie culinaire mondiale

Mais peut-on parler de patrimoine pour un produit si récent ?

Oui, si l’on considère le patrimoine comme un ensemble de signes partagés et valorisés par une communauté. Dans ce cas, TikTok joue le rôle de confrérie culinaire mondiale. Mais ce patrimoine est fragile. Ce qui est consacré par la viralité peut être supplanté demain par une nouvelle mode.

Le chocolat de Dubaï illustre parfaitement les dilemmes contemporains : entre innovation culinaire et marketing viral, entre authenticité et imitation, entre inspiration et contrefaçon.

The Conversation

Anne Parizot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le marketing viral du chocolat de Dubaï – https://theconversation.com/le-marketing-viral-du-chocolat-de-duba-264641

Pénuries, marges en berne, diversification difficile… Pourquoi les pharmacies françaises vacillent

Source: The Conversation – France (in French) – By Frédéric Jallat, Professor of Marketing and Academic Director of MSc. in Biopharmaceutical Management, ESCP Business School

Les pharmacies françaises se trouvent aujourd’hui au cœur d’un paradoxe : dernier maillon de proximité d’un système de santé sous tension, elles subissent de plein fouet les choix budgétaires et politiques liés au prix des médicaments. Entre fermetures accélérées, marges érodées, pénuries répétées, leur fragilité dit beaucoup des difficultés que traverse la politique de santé au plan national.


Au cœur de l’hiver 2024, de nombreux patients ont eu la désagréable surprise de se voir refuser à l’officine un antibiotique pourtant banal, l’amoxicilline. « Rupture de stock », expliquaient alors les pharmaciens, contraints de trouver des alternatives ou de renvoyer les malades vers leur médecin. Ces incidents, fréquemment répétés au niveau national, illustrent une réalité mal connue : les pharmacies, maillon de proximité du système de santé, se trouvent aujourd’hui aux prises avec un mouvement combinant politiques de prix, stratégies industrielles et arbitrages budgétaires dont elles ne maîtrisent pas les évolutions.

Derrière le comptoir, c’est un acteur économique et social qui subit directement les choix de l’État, les complexités de l’Assurance-maladie et certaines des contraintes auxquelles les laboratoires pharmaceutiques sont désormais confrontés. La pharmacie n’est pas seulement un commerce : elle est devenue le miroir des tensions qui traversent la politique du médicament en France.

Un système très régulé : le prix du médicament, une décision politique

Contrairement à d’autres produits, le prix des médicaments en France ne relève pas du marché, mais d’un arbitrage centralisé. C’est en effet le Comité économique des produits de santé (Ceps) qui fixe les tarifs, à l’issue de négociations complexes avec les laboratoires pharmaceutiques.

Cette régulation poursuit, en réalité, plusieurs objectifs contradictoires :

  • garantir l’accès aux traitements des patients par un remboursement de l’Assurance-maladie ;

  • maîtriser les dépenses publiques de santé, dans un contexte de déficit chronique de la Sécurité sociale ;

  • soutenir l’innovation des laboratoires, grâce au développement de thérapies coûteuses issues de la biotechnologie notamment.

L’équilibre est difficile à tenir. Favoriser l’innovation implique d’accepter des prix élevés pour certains médicaments, tout en imposant des baisses régulières sur les molécules plus anciennes ou les génériques. Ce mécanisme place les officines dans une position de dépendance totale : leur rentabilité est directement conditionnée par ces décisions politiques qu’elles ne contrôlent aucunement.




À lire aussi :
Médicaments innovants : la France face à la guerre des prix lancée par Trump


Un jeu d’acteurs sous tension

La politique du médicament ne se joue donc pas seulement dans les antichambres du ministère de la santé ou dans les couloirs du Parlement, mais au cœur d’un rapport de forces permanent et plus ample entre acteurs :

  • l’État cherche à contenir le coût du médicament, en incitant la substitution des produits princeps par les génériques, notamment ;

  • les laboratoires mènent un lobbying intense pour préserver leurs marges, tout en menaçant parfois de délocaliser ou de réduire la production sur le territoire – plus encore dans un climat international délétère où le président Trump utilise les droits de douane comme une arme de déstabilisation massive des politiques de développement régional des laboratoires au profit des États-Unis ;

  • l’Assurance-maladie pousse à rationaliser la consommation, à réduire les volumes et à encadrer les prescriptions ;

  • les syndicats de pharmaciens défendent la survie du réseau officinal, dénonçant l’érosion continue des marges de la profession ;

  • les patients-citoyens, enfin, se retrouvent au centre de ce jeu d’influence : leurs perceptions des prix, du reste à charge et des génériques est régulièrement mobilisée comme argument par les uns et par les autres.

Chaque décision de baisse de prix ou de modification des taux de remboursement devient ainsi l’objet de conflits où se croisent intérêts économiques, enjeux budgétaires et considérations politiques que les pharmaciens ne maîtrisent nullement.

Les officines, révélateurs des contradictions du système

Dans ce contexte complexe et perturbé, les pharmacies apparaissent donc comme des victimes collatérales de la politique du médicament, et ce, d’un triple point de vue.

1. Des marges sous pression

Leur modèle économique est extrêmement encadré. Les marges sur les médicaments remboursables sont fixées par décision politique, non par une libre concurrence. Les baisses décidées par le Ceps se répercutent immédiatement sur la trésorerie des pharmaciens.

2. Une difficile gestion des pénuries

À cette contrainte financière s’ajoute la multiplication des ruptures de stock. Les pénuries ont été multipliées par 30 en dix ans, au point de devenir un phénomène structurel, selon la feuille de route ministérielle 2024–2027.

En 2023, l’Agence nationale de sécurité du médicament et des produits de santé (ANSM) recensait près de 5 000 ruptures de stock ou risques de rupture, soit un tiers de plus qu’en 2022 et six fois plus qu’en 2018.

À chaque fois, les pharmaciens sont contraints d’expliquer aux patients pourquoi certains produits sont indisponibles, et doivent improviser dans l’urgence en ayant parfois à gérer des situations psychologiquement difficiles. Une mission chronophage, source de frustration voire d’agressivité de la part de leurs patients-clients.

3. Une diversification insuffisante

Pour compenser ce manque à gagner, les pharmacies ont développé de nouvelles activités : vaccination, tests, conseils en prévention, vente de parapharmacie. Mais ces relais de croissance ne suffisent pas à stabiliser un modèle économique fragilisé par la régulation.

En France, en effet, le réseau officinal se délite d’année en année : au 1ᵉʳ janvier 2025, on comptait 20 242 pharmacies, soit 260 de moins qu’en 2024 et 1 349 de moins qu’en 2015. En une décennie, plus de 6 % des officines ont disparu…

Les territoires ruraux, déjà fragilisés par un ample phénomène de désertification médicale, sont les plus touchés. Faute de repreneur, de nombreuses officines ferment, accentuant les inégalités d’accès aux soins. Dans certains villages, la pharmacie peut souvent représenter le dernier service de santé disponible. Comme le bureau de poste ou l’épicerie locale, la fermeture d’une pharmacie est aussi un lieu de vie sociale qui disparaît.

Une dimension sociale, politique et symbolique

La pharmacie n’est pas un commerce comme les autres. Elle incarne un service de santé de proximité, accessible (car encore sans rendez-vous) présent dans de nombreux quartiers. Et c’est précisément cette valeur symbolique et sociale qui rend le débat explosif.

Chaque ajustement tarifaire est scruté par les syndicats, repris par les médias et discuté au Parlement. La récente décision du gouvernement de réduire le taux de remboursement des médicaments courants de 65 % à 60 % a suscité une vive inquiétude. Derrière ces chiffres, ce sont à la fois les patients (qui voient leur reste à charge augmenter) et les officines (qui anticipent une nouvelle pression sur leurs marges) qui sont concernés.

En 2024, la marge brute moyenne est passée sous les 30 % du chiffre d’affaires, un seuil historiquement bas, alors même qu’elle se situait encore à 32 % quelques années plus tôt. Si le chiffre d’affaires moyen des officines s’est élevé à plus de 2,5 millions d’euros, en hausse de 5 % par rapport à 2023, cette progression a surtout été portée par des médicaments coûteux à faible marge, représentant déjà 42 % des ventes remboursables. Dans le même temps, les charges ont bondi de près de 12 %.

Une enquête syndicale affirme que 75 % des pharmacies ont vu leurs disponibilités baisser en 2024, et qu’une sur cinq fonctionne désormais en déficit de trésorerie. Selon Philippe Besset, président de la Fédération des syndicats pharmaceutiques de France (FSPF), « les officines ne peuvent pas survivre si les pouvoirs publics continuent de rogner [les] marges [de celles-ci] tout en [leur] confiant de nouvelles missions ».

La colère des pharmaciens : un signal politique

En mai 2024, les pharmaciens ont décidé de faire entendre leur voix. Près de 90 % des pharmacies (de France hexagonale et ultramarine, ndlr) ont baissé le rideau le temps d’une journée, dans une mobilisation massive et inédite destinée à alerter les pouvoirs publics sur la dégradation de leurs conditions économiques.

Leur message était clair : dénoncer des marges insuffisantes, une explosion des charges et une gestion des pénuries devenue insupportable. Au-delà, s’exprimait aussi la peur d’une dérégulation accrue – via la vente en ligne ou l’arrivée de nouveaux acteurs de la distribution.

Plusieurs collectifs de pharmaciens ont exprimé l’idée de ne pas être relégués au rang de simples intermédiaires, mais bien d’être reconnus comme des acteurs de santé publique indispensables et spécifiques. Plusieurs actions ont été menées l’été dernier qui ont fait suite à la première mobilisation professionnelle inédite de 2024. À l’initiative de l’appel de l’Union des syndicats de pharmaciens d’officine (USPO) du 23 juin 2025, trois actions majeures ont été entreprises :

Grâce à cette mobilisation professionnelle sans précédent, les pharmaciens ont remporté une victoire symbolique importante. Le premier ministre d’alors, François Bayrou, a choisi de les écouter et a suspendu, pour un minimum de trois mois, l’arrêté sur le plafond des remises génériques, malgré l’opposition de Bercy.

Les officines françaises incarnent à elles seules le dilemme du système de santé national : concilier innovation pharmaceutique, maîtrise des dépenses publiques et équité d’accès aux soins. Elles sont à la fois le dernier commerce de proximité dans bien des territoires et le révélateur des contradictions d’une politique du médicament soumise à de multiples pressions, parfois contradictoires.

Leur fragilité croissante – marges érodées, fermetures multipliées en zone rurale, gestion quotidienne des pénuries – n’est pas une question marginale, mais un enjeu politique et social majeur. Comme l’a montré la mobilisation historique de mai 2024 et de l’été 2025, les pharmaciens refusent d’être réduits à de simples distributeurs. Leur avenir dépend désormais de la capacité des pouvoirs publics à inventer un compromis durable entre logiques économiques et exigences de santé publique.

On peut donc, à bon escient, se poser la question de savoir si la survie des officines n’est pas devenue le véritable baromètre de la santé démocratique de notre système de soins.

The Conversation

Frédéric Jallat ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Pénuries, marges en berne, diversification difficile… Pourquoi les pharmacies françaises vacillent – https://theconversation.com/penuries-marges-en-berne-diversification-difficile-pourquoi-les-pharmacies-francaises-vacillent-266258

Acétaminophène et autisme : désinformation, confusion et biais épidémiologique

Source: The Conversation – in French – By Mathieu Nadeau-Vallée, Médecin résident en anesthésie, Université de Montréal

Le 22 septembre, Donald Trump a suscité la controverse en affirmant, parmi d’autres propos infondés, que les femmes enceintes devraient éviter de prendre de l’acétaminophène (ou paracétamol, vendu sous le nom de Tylenol) durant la grossesse, évoquant un lien supposé avec le trouble du spectre de l’autisme (TSA).

Ces déclarations sans nuances, anxiogènes pour les femmes enceintes et leurs familles, nuisent au traitement de la douleur et de la fièvre en grossesse, incitent à recourir à des solutions moins sûres et minent la confiance envers les institutions. Il convient donc d’explorer d’où provient cette théorie et de rétablir les faits.

Titulaire d’un doctorat de l’Université de Montréal en pharmacologie et médecin résident en anesthésiologie, j’ai animé une page TikTok durant la Covid-19, alors que beaucoup de désinformation circulait, en particulier sur la vaccination, pour communiquer des faits médicaux fiables au grand public.




À lire aussi :
Covid-19 : la désinformation est mortelle, surtout celle véhiculée par les professionnels de la santé


D’où vient l’idée d’une causalité acétaminophène-autisme ?

Il est vrai qu’un bon nombre d’études observationnelles publiées dans les dernières décennies ont mis en lumière un lien entre la prise d’acétaminophène durant la grossesse et l’augmentation, quoique petite, de nombre de diagnostics de TSA et d’autres troubles neurodéveloppementaux chez les enfants.

Ces résultats ne prouvent pas la causalité. En épidémiologie, une corrélation ne signifie pas qu’un facteur en cause un autre : par exemple, il existe une corrélation entre le nombre de parapluies et la pluie, mais les parapluies ne causent pas la pluie.

Un exemple qui s’ancre mieux en médecine et dans notre réalité est la corrélation entre le café et le cancer du poumon. Certaines études observationnelles anciennes montraient que les grands buveurs de café avaient un risque plus élevé de cancer du poumon. Cela a fait croire, à tort, à un effet cancérogène du café. Les gros buveurs de café, dans les cohortes étudiées, étaient aussi plus souvent de gros fumeurs. Comme le tabac est la principale cause du cancer du poumon, il était donc difficile de distinguer si c’était le café ou la cigarette qui expliquait l’augmentation du risque.

C’est un exemple classique de biais épidémiologique, plus précisément d’un facteur de confusion. Le café était ici associé à la fois à l’exposition (tabac) et à l’issue (cancer du poumon), créant une association trompeuse. On retrouve le même mécanisme derrière d’autres mythes médicaux, comme celui selon lequel un verre de vin par jour améliorerait la santé globale, une idée désormais démentie.

Dans la situation de la corrélation entre l’acétaminophène maternel et l’autisme, plusieurs biais peuvent être mis en cause :

1 — La confusion par indication : les femmes enceintes qui prennent de l’acétaminophène le font la plupart du temps pour traiter une fièvre, une infection ou maux de tête. Mais la fièvre maternelle en elle-même, qui parfois est le premier signe d’une infection, a déjà été associée à des risques pour le développement neurologique du fœtus. Il est donc difficile de savoir si c’est la fièvre, l’infection ou la pilule qui est à blâmer.

2 — Les biais de rappel : dans certaines études, les parents sont interrogés plusieurs années après la grossesse pour se souvenir des médicaments pris. Les mères d’enfants ayant un TSA peuvent, intentionnellement ou non, signaler plus souvent l’acétaminophène, ce qui crée une distorsion des données.

3 — La diversité des facteurs de complexité de l’autisme : nous savons maintenant que les TSA sont dus à un mélangé de facteurs génétiques et environnementaux. Isoler l’effet d’un seul médicament reste très compliqué.

Mais comment faire pour se sortir de ce type de biais ?

En méthodologie, il existe des méthodes pour tenir compte des facteurs qui peuvent fausser les résultats, comme comparer des groupes similaires ou analyser séparément certains sous-groupes.

D’ailleurs, une grande étude suédoise publiée dans le journal JAMA en 2024 a étudié une population de plus de 1,5 million de naissances, dont 185 000 ont été exposés à l’acétaminophène durant la grossesse. Chaque grossesse a été comparée à celles de frères et sœurs non exposés, ce qui permet de réduire l’influence de l’environnement familial. L’étude n’a trouvé aucun lien entre l’acétaminophène et l’autisme ou d’autres troubles neurodéveloppementaux.

Ainsi, les données actuelles ne permettent pas de conclure que l’acétaminophène provoque l’autisme.

Pourquoi la croyance perdure-t-elle ?

Même en l’absence de preuves concrètes, l’idée d’un lien entre l’acétaminophène et l’autisme reste bien ancrée dans l’imaginaire collectif, notamment sur les réseaux sociaux. Plusieurs mécanismes expliquent cette persistance. Par exemple, face à des troubles multifactoriels comme l’autisme, dont l’étiologie demeure incertaine, il est psychologiquement rassurant de pouvoir désigner une cause précise. De plus, des publications sur les réseaux sociaux qui jouent sur les émotions — qu’elles proviennent d’influenceurs ou de vidéos générées par l’intelligence artificielle — suscitent souvent plus d’engagements qu’une déclaration équilibrée sur les limites méthodologiques d’une recherche.

Ensuite, nous avons une tendance à mieux retenir en mémoire les informations qui concordent avec nos appréhensions ou nos intuitions, même si elles ne sont pas vérifiées ou valides. Finalement, comme la confiance envers les autorités médicales et pharmaceutiques est parfois fragilisée, certaines personnes accordent davantage d’importance aux témoignages personnels ou aux discours alternatifs.

Les conséquences pour les familles et pour la santé publique

Le danger, avec ce type de déclaration infondée, est d’éloigner les femmes enceintes d’un traitement sûr et efficace, surtout lorsque les alternatives peuvent être dangereuses. Les anti-inflammatoires non stéroïdiens (AINS) comme l’ibuprofène, par exemple, comportent des risques en grossesse.

Au premier trimestre, ils sont associés à un risque augmenté de fausses couches. Santé Canada recommande aussi d’éviter leur utilisation à partir de 20 semaines de grossesse, sauf avis médical, car cela pourrait occasionner une atteinte rénale fœtale entraînant une diminution du liquide amniotique et un retard de la maturation des poumons. Au 3e trimestre, ils sont carrément contre-indiqués à cause du risque fœtal. D’autres évitent de traiter une fièvre haute, ce qui pourrait être plus nocif pour le fœtus que le médicament lui-même.

Cette incertitude engendre également une charge émotionnelle importante. Plusieurs mères ont exprimé des sentiments de culpabilité, se demandant si la prise de quelques comprimés d’acétaminophène était une raison du diagnostic de leur enfant. À un niveau collectif, ces préoccupations peuvent faire du tort à la confiance dans les messages de santé publique. Lorsqu’une information est mal perçue ou mal relayée, il y a le risque que le public généralise son hostilité aux autres recommandations médicales, par exemple envers la vaccination.

Malgré les inquiétudes soulevées, les organismes de santé tels que Santé Canada, la Food and Drug Administration des États-Unis et l’Organisation mondiale de la Santé recommandent toujours l’acétaminophène en cas de besoin, avec une attention particulière au respect de la posologie prescrite.

Comment faire les choses mieux ?

Afin d’anticiper la désinformation et d’apaiser l’anxiété inutile, il est essentiel de maintenir une communication scientifique vulgarisée :

  • Définir nettement la différence entre association et causalité.

  • Présenter les risques réels de ne pas traiter la fièvre ou la douleur, afin que les familles comprennent que l’absence de traitement peut parfois être plus dangereuse.

  • Soutenir les femmes enceintes sans les culpabiliser : leur rappeler que prendre soin de leur santé fait aussi partie de la santé de leur bébé.

  • Offrir des sources de qualité et accessibles permet aux parents de vérifier les faits plutôt que de dépendre entièrement des réseaux sociaux.

  • Informer sans alarmer, rassurer sans banaliser : voilà la meilleure stratégie pour protéger à la fois la santé des mères et celle de leurs enfants.

Entre désinformation et anxiété, la science a un rôle clair : éclairer, pas effrayer.

La Conversation Canada

Mathieu Nadeau-Vallée ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Acétaminophène et autisme : désinformation, confusion et biais épidémiologique – https://theconversation.com/acetaminophene-et-autisme-desinformation-confusion-et-biais-epidemiologique-266534

Écrire à la main et faire des pauses aide à mémoriser

Source: The Conversation – France (in French) – By María del Valle Varo García, Research assistant professor, Universidad de Deusto

Entre l’encre, le silence et le sommeil, le cerveau grave nos souvenirs. Farknot Architect/Shutterstock

Le cerveau a ses propres règles, tout comme notre façon d’apprendre et de mémoriser. Les réseaux neuronaux sont plus actifs quand on écrit à la main que quand on tape au clavier, et les pauses réelles aident à consolider les connaissances.


Arrêtons-nous un instant et observons le doux flux de ces mots sous nos yeux, ce va-et-vient silencieux et la voix qui les lit dans notre tête. Combien d’entre eux resteront gravés dans votre mémoire dans cinq minutes ? Et combien resteront, sans effort, dans notre mémoire demain ? La question n’est pas anodine. Nous vivons à une époque où la vitesse domine notre façon d’apprendre et, paradoxalement, aussi d’oublier.

Tous les mots ne sont pas traités au même rythme. Vous avez peut-être entendu dire qu’une personne peut lire entre 200 et 300 mots par minute, en écouter environ 150 ou en lire encore moins au toucher en braille. Mais cette vitesse n’est pas synonyme de compréhension : en fait, au-delà de 500 mots par minute, l’assimilation chute de manière drastique. Et ce qui est absorbé est-il vraiment conservé ? Pas nécessairement. Dévorer avidement des mots n’est pas la même chose que s’imprégner de leur essence.

Différents souvenirs en un seul

Pour que les mots prennent tout leur sens et se transforment en idées ou en concepts durables, ils doivent d’abord traverser l’espace fragile et éphémère de la mémoire opérationnelle, également appelée mémoire à court terme, chargée de maintenir l’information active pendant que le cerveau la traite. Mais cela ne suffit pas.

Pour que ce qui est retenu se stabilise, l’information doit être stockée dans un type de mémoire sémantique, affective, spatiale ou temporelle. Se souvenir de vacances implique une mémoire épisodique, teintée d’émotion et de lieu ; en revanche, savoir que la capitale de l’Italie est Rome renvoie à une mémoire sémantique, dépourvue de contexte personnel.

À la main ou au clavier ?

Il est difficile aujourd’hui de trouver un espace où le clavier n’a pas presque entièrement remplacé l’encre ou le graphite. Cependant, il convient de rappeler que l’écriture manuscrite reste un outil puissant pour le développement cognitif : écrire à la main active un réseau plus large de régions cérébrales (motrices, sensorielles, affectives et cognitives) que la dactylographie. Cette dernière, plus efficace en termes de vitesse, exige moins de ressources neuronales et favorise une participation passive de la mémoire de travail.

En revanche, l’utilisation active de la mémoire à court terme (à l’aide d’outils non numériques) s’avère plus bénéfique tant en classe que dans les contextes cliniques liés à la détérioration cognitive.

Les pauses sont sacrées

Le rythme et les pauses sont également déterminants dans ce passage de la mémoire de travail à la mémoire à long terme. Les pauses actives, ces brefs moments où nous interrompons notre étude pour nous étirer, marcher ou contempler quelque chose sans but immédiat, permettent au cerveau de réorganiser ce qui a été appris et de le consolider plus solidement.

Cependant, aujourd’hui, ces pauses sont souvent associées à des activités impliquant l’utilisation d’écrans : téléphones portables, télévision, tablettes. Si l’on pouvait faire une comparaison avec l’exercice physique, on pourrait s’imaginer dans une salle de sport où l’on court à 12 km/h pendant les pauses entre les séries. Il se passe quelque chose de très similaire lorsque nous utilisons nos pauses pour regarder des vidéos rapides, lire des titres ou naviguer sans but sur les réseaux sociaux : l’esprit ne se repose pas, ne se consolide pas, et l’attention se fragmente.

Le travail pendant le sommeil

Les neurosciences soulignent également le rôle crucial du sommeil dans la consolidation de la mémoire. Pendant le sommeil à ondes lentes, le cerveau entre dans un état de synchronisation neuronale caractérisé par la prédominance des ondes delta (0,5-4 Hz), qui favorisent la réactivation des traces mnésiques – traces qui restent dans l’esprit après une expérience et qui servent de base à la mémoire et à la possibilité de se souvenir.

Ces oscillations lentes créent un environnement à faible interférence sensorielle qui facilite le dialogue entre l’hippocampe et le néocortex. On a notamment observé que les ondes thêta (4-8 Hz), plus fréquentes pendant la phase REM (Rapid Eye Movement) et également présentes dans les phases NREM (Non-Rapid Eye Movement) légères, interviennent dans ce transfert. Plus précisément, elles permettent le passage des souvenirs de leur stockage temporaire dans l’hippocampe vers les régions corticales de stockage à long terme.

Sommeil à ondes lentes sur un électroencéphalogramme.
Wikimedia, CC BY

De même, les fuseaux du sommeil, brefs schémas d’activité cérébrale qui se produisent pendant le sommeil léger, générés principalement par le thalamus, sont associés au renforcement des connexions neuronales pertinentes.

Diverses études utilisant la polysomnographie et la neuro-imagerie ont montré des corrélations entre la densité de ces fuseaux de sommeil et les performances dans les tâches de mémoire épisodique.

Il a été suggéré que ces oscillations agissent comme une sorte de « marqueur de pertinence » qui sélectionne les informations méritant d’être consolidées.

Ainsi, pendant notre sommeil, le cerveau exécute automatiquement un processus de réorganisation et de renforcement de la mémoire. Il donne la priorité à ce qui est significatif et élimine ce qui est non pertinent. Ce n’est pas un hasard si, au réveil, une mélodie ou une phrase apparemment insignifiante nous revient sans effort à l’esprit : ce sont les échos de ce travail nocturne minutieux qui écrit la mémoire.

Reprendre de bonnes habitudes

Comprendre comment nous apprenons nous révèle également comment nous devrions vivre. Il ne s’agit pas seulement de réduire l’utilisation des écrans, mais aussi de retrouver un rythme plus humain. Écrire à la main aide à activer les réseaux neuronaux en profondeur ; pensons, par exemple, aux notes prises en classe et à la façon dont, en les relisant, les idées resurgissent plus clairement.

D’autre part, il est recommandé de reprendre l’habitude de faire de véritables pauses, loin des appareils : observer le vol d’un oiseau, sentir sa respiration, étirer son corps.

Il est également utile de renforcer ce que l’on a appris par de brefs exercices de récupération active.

De plus, il ne faut pas sous-estimer le rôle du sommeil profond : c’est là que la mémoire mûrit et fixe ce qui a été appris. Ce n’est que lorsque nous lui accordons le temps nécessaire pour se reposer et assimiler que la connaissance s’enracine véritablement. Ainsi, les mots qu’il lit aujourd’hui pourront devenir des souvenirs vivants, capables de l’accompagner au-delà des cinq prochaines minutes, peut-être même toute sa vie.

The Conversation

María del Valle Varo García ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Écrire à la main et faire des pauses aide à mémoriser – https://theconversation.com/ecrire-a-la-main-et-faire-des-pauses-aide-a-memoriser-266686

Un félin au bord l’extinction : comment sauver les derniers guépards du Nord-Ouest africain

Source: The Conversation – in French – By Marine Drouilly, Researcher, conservation and wildlife ecology , University of Cape Town

Sous-espèce rare et gravement menacée, le guépard du Nord-Ouest africain (Acinonyx jubatus hecki) joue un rôle essentiel dans les écosystèmes sahéliens et désertiques. Prédateur au sommet de la chaîne alimentaire, il contribue à maintenir l’équilibre naturel entre végétation et proies. Sa présence est aussi un indicateur clé de la santé de son habitat : un écosystème capable de soutenir un grand prédateur est un écosystème vivant et résilient. Protéger le guépard du Nord-Ouest africain, c’est préserver toute une chaîne de vie fragile mais vitale.

Les guépards (Acinonyx jubatus), comme de nombreux grands carnivores africains, ont vu leur répartition se réduire drastiquement. Aujourd’hui, ils ne subsistent plus que dans 9 % de leur aire de distribution historique. Entre Sahara et Sahel, une sous-espèce extrêmement rare survit à faible densité : le guépard du Nord-Ouest africain, également connu sous le nom de guépard du Sahara.

En tant que chercheures spécialisées dans le suivi écologique des populations de carnivores, nous avons récemment publié la première étude à long terme avec des données récoltées entre 2017 et 2021, de cette espèce insaisissable. Nous avons ainsi pu estimer la densité de population des guépards du Nord-Ouest sur une zone de 4 839 km² dans la partie béninoise du Complexe W-Arly-Pendjari, également appelé « Complexe WAP ».

Un félin au bord de l’extinction

Inscrits en danger critique d’extinction sur la Liste rouge de l’UICN, les guépards d’Afrique de l’Ouest sont au bord de la disparition. On estime qu’environ 260 individus matures subsisteraient encore. Ils sont répartis entre le Complexe WAP (W-Arly-Pendjari — Bénin, Burkina Faso, Niger), le sud algérien et le Grand Écosystème Fonctionnel de Zakouma au Tchad.

Toutefois, ces chiffres restent approximatifs, car le suivi de ces populations demeure contraint par leur faible effectif. Celui-ci est principalement basé sur des estimations de densité, combinés aux informations fournies par des experts des aires de résidence des guépards. Par exemple, en Algérie, un suivi par pièges photographiques sur une zone de 2 400 km2 a estimé une densité de 0,25 guépard adulte pour 1 000 km2. Cette densité a été utilisée dans l’ensemble de l’aire de répartition de l’espèce au Sahara pour évaluer la taille totale de la population.

Les résultats de notre étude sont frappants : la densité des guépards y est extrêmement faible, avec seulement 2,6 individus pour 1000 km². Cependant, au sein du Parc national de la Pendjari, où la protection est plus rigoureuse, cette densité s’élève à 5,1 individus pour 1000 km², suggérant que ce parc constitue un réservoir vital pour l’ensemble des aires protégées du WAP.

Le suivi d’un félin aussi rare dans une région où la sécurité représente un défi majeur exigeait une approche adaptée. Nous avons mis en place un protocole de piégeage photographique innovant, ciblant spécifiquement les points d’observation privilégiés par les guépards pour surveiller leur environnement et repérer leurs proies comme des termitières, des troncs d’arbres couchés ou des tas de gravats. En complément, des caméras ont également été placées de manière plus classique le long des pistes et sentiers empruntés par la faune.

Cette méthode a permis de collecter des données précieuses et inédites tout en minimisant les risques pour les équipes de terrain. Les caméras automatiques fonctionnent en effet 24h/24, 7j/7 sans avoir besoin de la présence humaine, ce qui limite l’exposition des équipes aux risques, la zone étant sujette à des actes d’extrémisme violents.

Par ailleurs, l’utilisation de ces petits appareils automatiques relativement bon marché et non-invasifs par rapport à des suivis qui nécessiteraient des moyens plus importants, comme par exemple la capture, l’anesthésie et la pose de colliers GPS sur des guépards.

Malgré ce suivi spécifique, nos résultats suggèrent un nombre de guépards très faible. Cela appelle une réponse urgente et coordonnée pour sécuriser cette population en danger critique. Les guépards sont en effet impactés par la perte et la fragmentation de leur habitat car ils ont besoin d’immenses territoires pour survivre. Le commerce illégal de produits comme leurs peaux, utilisées dans diverses cérémonies à travers l’Afrique, la diminution de leurs proies due au braconnage et aux troupeaux domestiques qui entrent souvent dans les aires protégées et détruisent l’habitat par sur-pâturage sont d’autres menaces importantes.

Aujourd’hui, le guépard du Nord-Ouest est particulièrement menacé par l’insécurité dans son aire de distribution sahélo-saharienne. Le commerce illégal de sa peau est un réel risque pour sa survie.

Le guépard étant un grand carnivore se nourrissant d’ongulés de taille moyenne, il participe à la régulation de ces populations avec les autres carnivores partageant son écosystème. La perte de ce prédateur induirait celle d’un régulateur écologique clé, mais aussi d’un symbole culturel majeur pour l’Afrique sahélo-saharienne. Chaque grand prédateur apporte également des connaissances uniques sur l’évolution, l’adaptation et l’écologie des êtres vivants. La disparition de cette sous-espèce serait une perte irréversible pour la science.

Un autre impact, plutôt économique cette fois, concerne le tourisme. Même si le tourisme sahélien est limité aujourd’hui, la disparition du guépard supprime toute perspective future de valorisation durable de cette faune emblématique.

Enfin, l’extinction locale du guépard serait un signal fort du déclin de la biodiversité dans les zones arides, rappelant que les crises écologiques touchent aussi ces milieux qui attirent pourtant moins l’attention que les forêts tropicales.

Quels leviers pour sauver le guépard saharien ?

Face aux menaces alarmantes qui pèsent sur le guépard saharien, il devient urgent d’agir pour éviter sa disparition complète. Préserver cette sous-espèce nécessite une approche coordonnée durable et adaptée aux réalités du terrain. C’est dans cette perspective que plusieurs pistes d’actions peuvent être envisagées.

Tout d’abord, poursuivre le suivi régulier au Bénin tous les deux ans, en s’appuyant sur la méthode développée dans cette étude. Ce suivi doit être pérennisé et, si possible, élargi à d’autres zones, afin de mesurer l’impact des actions de conservation et de réagir rapidement à l’apparition de nouvelles menaces.

Dans un second temps, il s’agit d’appliquer cette méthode aux quatre dernières populations de guépards du Nord-Ouest africain, pour développer des programmes de suivi robustes à l’échelle régionale.

Il faut également initier de nouveaux suivis, afin d’améliorer les connaissances sur les guépards dans les régions où leur présence et leur statut restent incertains ou insuffisamment connus, comme en Algérie. Mettre en œuvre une réponse coordonnée à l’échelle internationale, incluant un engagement fort des bailleurs de fonds est également crucial. L’insécurité et l’instabilité politique jouent un rôle catalyseur dans la diminution des populations de guépards.

La sauvegarde du guépard doit être intégrée à des stratégies plus larges de restauration écologique et de consolidation de la paix, notamment dans les régions fragiles et touchées par les conflits.

Enfin, soutenir les communautés locales vivant dans l’aire de répartition du guépard, pour qu’elles soient actrices de sa conservation et bénéficient directement des efforts déployés est un enjeu fort.

Le sort du guépard du Nord-Ouest africain dépendra de notre capacité collective à allier science, technologie, financements locaux et internationaux, et inclusion des populations locales dans une stratégie commune et durable.

The Conversation

Marine Drouilly works for Panthera.

The study was funded by the Howard G. Buffett Foundation through the Africa Range Wide Society of London, supported by ZSL, Panthera, a Swiss foundation through the IUCN SSC Cat Specialist Group, and African Parks/Pendjari National Park.

ref. Un félin au bord l’extinction : comment sauver les derniers guépards du Nord-Ouest africain – https://theconversation.com/un-felin-au-bord-lextinction-comment-sauver-les-derniers-guepards-du-nord-ouest-africain-255944