Entretien avec Simon Sakaguchi, prix Nobel de médecine

Source: The Conversation – France in French (3) – By Gemma Ware, Host, The Conversation Weekly Podcast, The Conversation

Dans les années 1980, Shimon Sakaguchi, alors jeune chercheur en immunologie, peinait à obtenir des financements pour ses recherches. Aujourd’hui, ses travaux pionniers, qui ont permis de lever le voile sur la façon dont notre système immunitaire détermine à quoi s’attaquer (et à quel moment), viennent d’être récompensés par le prix Nobel de physiologie ou médecine. Dans cet entretien, il revient sur cette découverte majeure et ses implications médicales.


Le 6 octobre 2025, le Japonais Shimon Sakaguchi et les Américains Mary Brunkow et Fred Ramsdell se sont vus décerner le prix Nobel de physiologie ou médecine pour leurs travaux sur les lymphocytes T régulateurs (aussi appelés lymphocytes Treg), une classe particulière de cellules immunitaires qui empêchent notre système immunitaire de s’en prendre à notre propre corps.

Dans cet épisode du podcast The Conversation Weekly, Shimon Sakaguchi nous raconte comment il est parvenu à cette découverte, ainsi que son intérêt médical.

La transcription en francais de ce podcast est disponible en bas de cette page.


L’histoire commence par une intuition, née à la suite d’expérimentations réalisées par des collègues de Shimon Sakaguchi, au sein de l’Institut de recherche sur le cancer d’Aichi, à Nagoya. Ces derniers avaient procédé à l’ablation du thymus des souris nouvellement nées, trois jours après leur naissance. On savait déjà à cette époque que ce petit organe, situé derrière le haut du sternum chez l’être humain, jouait un rôle important dans le développement de l’autotolérance immunitaire. C’est en effet dans le thymus que les lymphocytes T qui risqueraient de s’attaquer à l’organisme sont isolés et détruits.

Si l’on retire le thymus d’une souris normale pendant la période néonatale, il semblait logique de s’attendre à ce qu’elle présente une déficience immunitaire, car ses lymphocytes auraient dû avoir disparu. Mais c’est exactement le contraire qui s’est produit chez les souris dont on avait ôté le thymus : elles ont développé des maladies auto-immunes, autrement dit des maladies au cours desquelles le système immunitaire s’en prend au corps qu’il est censé protéger. Ces maladies se sont avérées très similaires à celles observées chez l’être humain.

Ce résultat a intrigué Shimon Sakaguchi. En effet, contrairement aux souris opérées par ses collègues, les patients victimes de maladies auto-immunes possèdent toujours leur thymus. Le chercheur a alors émis l’hypothèse de l’existence d’un mécanisme commun entre les deux situations, qui expliquerait à la fois la survenue de maladies auto-immunes spontanées chez l’être humain, et le fait que des souris auxquelles on a enlevé le thymus développent néanmoins des maladies auto-immunes.

Via une nouvelle expérience, Shimon Sakaguchi a tenté d’empêcher l’emballement du système immunitaire de souris dépourvues de thymus. Pour cela, il a prélevé des lymphocytes T sur des souris génétiquement identiques aux souris opérées, et les a réinjectées à ces dernières. Ainsi traitées, les souris sans thymus ne développaient plus de maladie auto-immune. Conclusion du chercheur : « Cela suggérait qu’il devait exister une population de lymphocytes T capable d’empêcher le développement de ces maladies ».

Mais dans les années 1980, obtenir des fonds pour mener de telles recherches n’était pas chose aisée, car « la communauté des spécialistes en immunologie était très sceptique quant à l’existence de telles cellules », explique Shimon Sakaguchi. Parti pour plusieurs années aux États-Unis, le chercheur reconnaît avoir eu « beaucoup de chance » lorsqu’une fondation privée a accepté de soutenir ses travaux.

Dix ans de recherche supplémentaires ont été nécessaires avant qu’il puisse publier, en 1995, un article scientifique relatant sa découverte des lymphocytes T régulateurs. On sait aujourd’hui que ceux-ci sont en quelque sorte les agents de sécurité de l’organisme. Ils contrôlent les réactions indésirables et maintiennent l’équilibre du système immunitaire via un processus appelé tolérance périphérique. Leur dysfonctionnement peut être à l’origine de maladies auto-immunes. Les travaux ultérieurs de Shimon Sakaguchi et de ses co-récipiendaires du prix Nobel, Mary Brankow et Fred Ramsdell, ont permis de découvrir le gène Foxp3, qui contrôle spécifiquement les lymphocytes Treg.

Des maladies auto-immunes aux cancers, un fort potentiel

Au début de sa carrière,Shimon Sakaguchi s’intéressait aux maladies auto-immunes et à leurs origines. « Mais au fil de mes recherches, nous avons progressivement compris que les lymphocytes Treg constituaient un sujet plus important », souligne-t-il. On sait désormais que ces cellules sont impliquées dans la manière dont se développent les cancers, ainsi que dans la tolérance du greffon, en cas de transplantation d’organe.

Shimon Sakaguchi et ses collaborateurs travaillent également sur de nouvelles façons d’exploiter les lymphocytes Treg à des fins thérapeutiques, ainsi que sur la mise au point de protocoles permettant de convertir les lymphocytes T « auto-agressifs » en lymphocytes Treg, ce qui permettait espèrent de cibler spécifiquement les maladies auto-immunes dont ils sont responsables.

Son espoir est que, parmi les nombreux essais cliniques actuellement en cours dans le domaine de l’immunothérapie anticancéreuse en lien avec ces travaux, certains aboutissent à des solutions concrètes pour améliorer la prise en charge des patients. Il est également fasciné par de récents résultats de recherche qui suggèrent que les lymphocytes Treg seraient aussi impliqués dans les maladies liées à l’inflammation. Pour influer sur le potentiel de réparation des tissus endommagés, il pourrait être intéressant d’agir sur eux : « Les maladies neurodégénératives telles que la maladie d’Alzheimer ou la maladie de Parkinson sont associées à une inflammation. En ciblant uniquement ce type d’inflammation, nous pourrions peut-être [parvenir à] arrêter la progression de la maladie ou la retarder. Nous espérons que cette piste s’avérera réelle », conclut-il.


Cet épisode de The Conversation Weekly a été produit par Mend Mariwany et Katie Flood et est animé par Gemma Ware. Le mixage et la conception sonore ont été réalisés par Michelle Macklem et la musique du générique par Neeta Sarl.


Traduction française :


TC : Notre système immunitaire est une merveilleuse mécanique. Il est composé de nombreuses composantes qui interagissent, en particulier les anticorps et les lymphocytes T (des cellules immunitaires de type « globules blancs » qui interviennent à la fois dans la destruction des cellules infectées, la coordination de la réponse immunitaire et la mémorisation des infections). Ils nous protègent lorsque nous contractons une infection virale comme le Covid-19 ou la grippe, ou lorsque la consommation d’un curry douteux déclenche une intoxication alimentaire.

Mais chez certaines personnes, le système immunitaire dysfonctionne et s’emballe. Au lieu de cibler les bactéries ou les virus qui les menacent, il s’attaque à leur organisme, s’en prenant à leurs propres cellules. Quand cela arrive, des maladies auto-immunes peuvent se développer, telles que la polyarthrite rhumatoïde ou le diabète de type 1.

Comment notre système immunitaire sait-il contre quoi se battre, et à quel moment le faire ? Dans les années 1980, les scientifiques pensaient avoir trouvé la réponse. Ils avaient découvert que, lorsque de nouveaux lymphocytes T sont créés dans notre thymus (un petit organe situé à l’arrière de la partie supérieure du sternum), ceux qui risquent d’attaquer nos propres tissus sont éliminés. Les lymphocytes T survivants sont ensuite relâchés dans notre corps, où ils n’attaquent que les intrus. Ce concept est appelé la « tolérance au soi ».

Mais un jeune scientifique japonais, Shimon Sakaguchi, ne s’est pas satisfait de cette explication. Il a décidé de creuser davantage. Il soupçonnait que des lymphocytes T « auto-agressifs » pouvaient parvenir à s’échapper du thymus et se répandre dans l’organisme. Selon lui, un autre mécanisme existait pour faire face à ce cas de figure et contrôler lesdits lymphocytes T. Ce mécanisme fondamental aurait aussi expliqué la survenue de maladies auto-immunes spontanées chez l’être humain.

Il s’avère que Sakaguchi avait raison. En début de semaine, il a été l’un des trois scientifiques récompensés par le prix Nobel de médecine ou physiologie 2025 pour leur découverte des lymphocytes T régulateurs, appelés Treglymphocytes Treg.

Ces cellules immunitaires d’un type particulier sont en quelque sorte des gardes du corps de l’organisme ; leur rôle est d’aider à maintenir le système immunitaire en équilibre. Désormais, ces recherches alimentent des essais cliniques destinés à mettre au point des traitements pour lutter contre le cancer, le diabète, ou pour prévenir le rejet de greffes d’organes.

Je suis Gemma Ware, de The Conversation, un site d’actualité et d’analyse indépendant qui associe journalistes et universitaires. Bienvenue dans The Conversation Weekly, le podcast où des experts vous expliquent comment nous en sommes arrivés là.

TC : Shimon Sakaguchi, vous êtes professeur émérite à l’Immunology Frontier Research Centre de l’université d’Osaka au Japon et corécipiendaire du prix Nobel de physiologie ou médecine de cette année. Félicitations et bienvenue à The Conversation.

SS : Merci beaucoup.

TC : Je crois comprendre que vous étiez dans votre laboratoire lorsque vous avez reçu l’appel vous annonçant que vous aviez remporté le prix. Comment se sont passés les jours qui ont suivi ?

SK : C’était une merveilleuse surprise. J’ai ensuite reçu énormément de messages de félicitations du monde entier. C’est vraiment incroyable, et enthousiasmant.

TC : Revenons au début des années 1980. Vous travailliez alors à l’Institut de recherche sur le cancer d’Aichi, à Nagoya, au Japon. Comment en êtes-vous venu à vous intéresser au fonctionnement du système immunitaire ?
SS : J’étais très intéressé par la tolérance immunologique. Le système immunitaire nous protège des microbes qui tentent de nous envahir. Mais d’un autre côté, parfois, il se retourne contre nous et provoque des maladies auto-immunes. Donc le système immunitaire est à la fois bon et mauvais. Le fait qu’il ne s’en prenne pas à nous, c’est ce que l’on appelle la tolérance au soi. Comprendre comment cette tolérance immunitaire est établie et maintenue, constitue un des thèmes clés de la recherche en immunologie.

TC : Vous vous intéressiez à une expérience menée auparavant par certains de vos collègues sur des souris nouveau-nées. Ils avaient retiré le thymus de ces souris trois jours après leur naissance. Comme le thymus est essentiel au développement de la tolérance immunitaire (c’est d’ailleurs de là que vient le nom des « lymphocytes T », le T étant pour « thymus »), ils pensaient qu’elles auraient un système immunitaire affaibli. Mais en réalité, ce qui s’est produit, c’est que leur système immunitaire s’est emballé et que les souris ont développé des maladies auto-immunes. Qu’est-ce qui vous intriguait tant dans cette expérience ?

SS : L’expérimentation qu’ils ont menée était très intéressante. En effet, si vous enlevez le thymus de souris normales pendant la période néonatale, vous vous attendriez à ce qu’elles présentent une déficience immunitaire puisqu’elles n’ont alors plus de lymphocytes. Mais il s’est passé tout le contraire : elles ont développé des maladies auto-immunes. Des maladies très similaires à celles que l’on observe chez l’être humain. Il se passait donc là quelque chose d’intéressant. Évidemment, chez les patients humains [qui développent des maladies auto-immunes], le thymus n’a pas été retiré. Il devait donc exister un mécanisme commun capable d’expliquer [le résultat observé chez les souris ayant subi une ablation du thymus] et les maladies auto-immunes spontanées chez l’humain.

TC : Vous avez alors décidé d’une autre approche, pour voir si vous pouviez empêcher le système immunitaire des souris sans thymus de s’emballer. Vous avez prélevé des lymphocytes T sur des souris génétiquement identiques et les avez introduits dans l’organisme de celles auxquelles on avait enlevé le thymus. Qu’avez-vous découvert ?

**SS : **C’est tout à fait cela, et de cette façon, la survenue de maladies a pu être prévenue. Cela suggérait donc qu’il devait exister une population de lymphocytes T capable d’empêcher le développement des maladies [auto-immunes]. Une sorte de population « suppressive ».

TC : Racontez-nous ce moment où vous avez réalisé que les souris allaient bien et que vous aviez réussi à les protéger des maladies auto-immunes. Qu’avez-vous ressenti ?

SS : De l’excitation, et le sentiment qu’il s’agissait de quelque chose d’important. Puis que si nous analysions plus en profondeur ce phénomène, il pourrait peut-être nous apprendre un principe immunologique fondamental à propos de la tolérance. Je me disais que si je pouvais découvrir cela, disons, dans les dix ans, ce serait formidable. C’est là tout ce que j’espérais à cette époque.

TC : Aviez-vous conscience à ce moment-là d’avoir fait une grande découverte ?

SS : Une grande découverte ? Disons que dans le domaine de l’immunologie, c’était certainement quelque chose, car c’était essentiel pour comprendre les maladies immunologiques. Quant à savoir si c’était une « grande découverte » ou non… Cela allait dépendre de notre capacité à démontrer que nous pouvions guérir de telles maladies ou en empêcher le développement. À cette époque, il restait encore à savoir comment nous allions pouvoir généraliser ce que nous avions trouvé.

TC : Avez-vous rencontré des difficultés, dans les années 1980, pour poursuivre ces travaux de recherche ?

SS : Il n’a pas été facile d’obtenir des financements, car la communauté des spécialistes en immunologie était très sceptique quant à l’existence de tels lymphocytes. Mais à cette période, j’ai passé près de dix ans aux États-Unis, où j’ai eu beaucoup de chance, car une fondation privée, la Lucille P. Markey Foundation, a soutenu mes recherches pendant huit ans. Le soutien de jeunes chercheurs par des fondations privées était bien plus courant aux États-Unis qu’au Japon. J’espère que ce type de pratique ou de système se poursuivra, non seulement aux États-Unis, mais aussi au Japon.

TC : Vous aviez donc mené cette expérience sur des souris et réalisé qu’il existait un type particulier de lymphocyte T. Mais comprendre plus précisément de quoi il retournait vous a pris environ une décennie. Une fois que vous y êtes parvenu, vous avez baptisé ces lymphocytes T des lymphocytes T régulateurs, ou lymphocytes Treg. Il s’agit donc d’un type particulier de lymphocytes T, qui empêchent notre système immunitaire de surréagir et d’attaquer notre corps. Vous avez publié votre article sur les lymphocytes T régulateurs en 1995. Comment a-t-il été reçu à l’époque ?

SS : Avant cette date, les gens considéraient qu’il s’agissait d’un phénomène intéressant. Mais ce n’est que lorsque nous sommes parvenus à définir cette population grâce à un marqueur spécifique que tout le monde a pu observer les mêmes cellules que nous. Avant cela, les autres chercheurs ne pouvaient pas vérifier que ce que nous affirmions était vrai. Nous avons démontré que ces lymphocytes étaient exprimés fortement, et de façon constitutive. Chacun a ensuite pu reproduire nos expériences et le confirmer.

TC : En gros, ces lymphocytes T régulateurs que vous aviez identifiés circulent et empêchent tout lymphocyte T agressif qui se serait échappé du thymus d’attaquer notre corps. Si nous n’en possédons pas, nous risquons de développer une maladie auto-immune. Mais aujourd’hui, nous savons aussi que le rôle joué par les lymphocytes Treg est beaucoup plus large que cela. Pourquoi est-ce si important ?

SS : J’avais un intérêt pour les maladies auto-immunes, et leurs origines. C’était ce qui motivait mes recherches, ce qui en constituait la force directrice. Mais au fil de mes travaux, j’ai compris que les lymphocytes Treg étaient importants non seulement en matière de maladies auto-immunes, mais aussi pour l’immunité tumorale, la tolérance vis-à-vis des greffons, et plus récemment, la réparation des tissus. Ils ont donc de multiples fonctions. Tout ça est aujourd’hui très enthousiasmant.

TC : Revenons à l’époque où vous identifiiez ces lymphocytes T régulateurs. Vos collègues et corécipiendaires du Nobel, Mary Bruncko et Fred Ramsdell, travaillaient aux États-Unis à comprendre les gènes derrière une maladie auto-immune rare et invalidante. Dans le cadre de ces travaux, ils ont découvert le gène qui contrôle le fonctionnement des lymphocytes T régulateurs. Vous souvenez-vous de la publication de leur article en 2001 ? Quelle a été votre réaction ?

SS : Nous avions remarqué cet article. Un gène avait été identifié et une anomalie ou mutation de ce gène provoquait non seulement des maladies auto-immunes, mais aussi des allergies et des maladies inflammatoires chroniques de l’intestin. Donc un seul gène était responsable de multiples pathologies immunologiques. Ledit gène avait été découvert, mais les auteurs n’avaient pas montré comment cette anomalie génétique entraînait ces maladies immunologiques.

Nous avons immédiatement commencé nos recherches sur ce gène, appelé FoxP3. Nous avons postulé que ce gène devait être lié à la fonction ou au développement des Treg. Nous avons donc commencé diverses expérimentations, et publié nos résultats deux ans plus tard : nous avons démontré que ce gène était spécifique des lymphocytes T régulateurs.

TC : Les connaissiez-vous personnellement ? Étiez-vous en contact avec eux, scientifiquement parlant ?

SS : Non, je ne les connaissais pas à l’époque. Mais bien sûr, nous nous sommes rencontrés lors de congrès scientifiques, en particulier Fred Ramsdell. Ils avaient publié leurs découvertes et les présentaient également dans des colloques.

TC : Nous commençons seulement à comprendre ce que vos découvertes pourraient apporter en matière d’amélioration de la santé. Quelles sont, selon vous, les pistes de recherche les plus prometteuses et sur quoi travaillez-vous actuellement ?

SS : Les Treg sont spécialisées dans la suppression immunitaire. Cela signifie qu’en les renforçant ou en les multipliant, elles pourraient être utilisées pour traiter des maladies immunologiques, notamment les maladies auto-immunes, les allergies ou le syndrome de l’intestin irritable.

Ce qui est enthousiasmant, c’est que plus de 200 essais cliniques sont en cours : on prélève chez les patients des Treg naturellement présents dans leur organisme, on les multiplie puis et on les leur réinjecte.

Mais nous menons aussi des projets plus ambitieux : nous essayons de convertir des lymphocytes T effecteurs ou mémoires spécifiques d’une maladie — donc des « mauvais » lymphocytes — en Treg. Nous espérons de cette façon aboutir à une suppression spécifique d’un antigène ou d’une maladie (le terme « antigène » désigne tout élément étranger à l’organisme capable de déclencher une réponse immunitaire, ndlr).

TC : Ces « mauvais » lymphocytes T qui attaquent l’organisme, vous voulez les transformer en Treg pour qu’ils deviennent des gardes du corps ?
SS : Exactement. C’est ce que nous poursuivons actuellement.

TC : Quelles maladies ciblez-vous ?

SS : Diverses maladies auto-immunes, par exemple des maladies auto-immunes du foie, dont l’hépatite auto-immune, pour laquelle le seul traitement actuellement disponible est la corticothérapie (traitement par corticostéroïdes).

TC : D’autres équipes s’intéressent aussi au cancer. Pouvez-vous expliquer comment cela fonctionnerait ?

SS : C’est un autre espoir en matière de recherche sur les lymphocytes Treg. Ces derniers sont abondants et très fortement activés dans les tissus cancéreux. La réponse immunitaire dirigée contre les cellules cancéreuses est de ce fait inhibée.

L’idée est de trouver une façon de réduire la quantité de Treg et ainsi améliorer la réponse immunitaire antitumorale. Nous espérons à terme parvenir à développer une petite molécule administrable par voie orale qui serait capable de renforcer ladite réponse en faisant diminuer le nombre de lymphocytes Treg présents dans les tissus tumoraux. Nous sommes encore loin de l’objectif, mais ce type de recherche nous intéresse au plus haut point.

TC : En lisant vos travaux, on se rend compte à quel point ils s’appuient sur les recherches de ceux qui vous ont précédé, non seulement au sein de votre propre laboratoire, mais aussi ceux qui ont œuvré durant les décennies précédentes, et qui pour certains ont aussi obtenu un prix Nobel. Qu’aimeriez-vous que l’on fasse de vos découvertes à l’avenir ?

SS : Eh bien, mon espoir immédiat est que les Treg deviennent un outil efficace pour traiter diverses maladies immunologiques, ou que l’on parvienne à les cibler dans le cadre d’immunothérapies anticancéreuses. J’espère que cela deviendra très prochainement une réalité clinique. Dans le même temps, des recherches récentes ont montré que ces lymphocytes ont aussi d’autres fonctions, en plus de leur rôle immunosuppresseur.

Concrètement, cela signifie qu’ils pourraient présenter un intérêt au-delà des maladies immunologiques, notamment dans le traitement de maladies neurodégénératives telles que les maladies d’Alzheimer ou de Parkinson, dans lesquelles l’inflammation joue un rôle. En ciblant cette inflammation, nous pourrions peut-être ralentir leur progression.

C’est une piste très intéressante, nous espérons qu’elle se confirmera, et que cette approche pourra fonctionner pour ce type de pathologies.

The Conversation

Shimon Sakaguchi est le fondateur scientifique et directeur de RegCell, une start-up japonaise qui travaille sur des traitements basés sur les lymphocytes T régulateurs. Il est également conseiller scientifique pour la société de biotechnologie Coya Therapeutics. Il a reçu des financements de l’Agence japonaise pour la recherche et le développement médicaux, de la Société japonaise pour la promotion de la science et pour des recherches collaboratives avec CHUGAI PHARMACEUTICAL, Otsuka Pharmaceutical et RegCell.

ref. Entretien avec Simon Sakaguchi, prix Nobel de médecine – https://theconversation.com/entretien-avec-simon-sakaguchi-prix-nobel-de-medecine-267233

Mobilisation de recettes vs inclusion financière : le dilemme de la taxation du mobile money au Sénégal

Source: The Conversation – in French – By Awa Diouf, chercheure, Institute of Development Studies, Institute of Development Studies

En Afrique, le mobile money – défini comme “un service transactionnel axé sur les téléphones mobiles qui peut être transmis par voie électronique en utilisant les réseaux mobiles” – a contribué à réduire la pauvreté, renforcer la résilience des ménages aux chocs et soutenir l’activité économique. Un succès qui attire l’attention des gouvernements. Une quinzaine de pays, la plupart en période de fortes contraintes budgétaires, ont introduit des taxes spécifiques sur les Services financiers numériques (SFN). Leur rendement, en moyenne de 1 à 3 % des recettes fiscales totales, reste modeste mais non négligeable pour des budgets fragiles.

En septembre 2025, le Sénégal a lui-même adopté une taxe de 0,5 % sur les paiements, les transferts et les retraits (voir tableau).

J’ai étudié la taxation des SFN en Afrique. Cette mesure ciblant trois des quatre opérations principales, soulève des questions sur les effets potentiels pour l’inclusion financière, les ménages vulnérables et l’équilibre entre transferts formels et informels.

Effets sur l’inclusion financière et les ménages à faibles revenus

Le caractère abordable du mobile money constitue un facteur central d’adoption des services. Ainsi, l’introduction de taxes spécifiques renchérit ces services et peut affecter l’inclusion financière, notamment des ménages pauvres. Ces derniers supportent un fardeau fiscal proportionnellement plus lourd, ce qui peut conduire à un retour au cash ou à l’informel.

Les expériences africaines montrent que ces taxes ont souvent un effet régressif. Au Kenya, l’instauration d’un droit d’accise en 2013 a ralenti la croissance des usages taxés, notamment les envois entre ménages, avec un impact marqué sur les foyers pauvres et nombreux.

En Ouganda, la taxe de 2018 sur la valeur des transactions a provoqué une baisse de plus de 50 % des transferts de personne à personne dès les premiers mois, avant d’être révisée pour ne viser que les retraits. Au Ghana la taxe a entraîné un recul immédiat des transactions et un rejet populaire massif. Malgré une réduction du taux et un recouvrement progressif du taux d’utilisation, la perception négative est restée dominante et la taxe a finalement été supprimée en Avril 2025, après le changement de régime.

Les opérateurs subissent également des pertes. Au Ghana, ils estiment que les baisses initiales de chiffre d’affaires restent irrécupérables, même après un redressement partiel de l’activité. Au Cameroun, la taxe a diminué la rentabilité de l’activité des agents de mobile money.

Les risques de basculement vers l’informel

Les SFN jouent un rôle clé dans la formalisation économique. L’administration publique peut ainsi avoir une meilleure visibilité sur les flux financiers, élargir l’assiette fiscale et renforcer le contrôle des transactions.

Au Sénégal, la taxe de 0,5 % s’applique aux paiements, transferts et retraits, avec une exonération des dépôts en numéraires et un plafond pour les transferts et retraits. Cette configuration crée une incitation forte à contourner le système. En taxant trop largement les transactions formelles, l’État risque d’encourager le retour aux circuits parallèles et au cash. Ces pratiques pourraient ainsi réduire la traçabilité et affaiblissent les efforts de formalisation.

L’expérience du Ghana avec l’E-Levy illustre ce phénomène : près de la moitié des usagers interrogés déclaraient avoir adopté le cash comme principale stratégie d’adaptation à la taxe. En Ouganda, les opérateurs ont plaidé pour concentrer la taxation sur les retraits plutôt que sur les paiements afin de préserver l’usage numérique.

Le Sénégal, en choisissant de taxer à la fois les retraits et les paiements, neutralise cet effet. En dessous du seuil de 20 000 francs CFA (31 dollars US), il est devenu plus abordable de faire un retrait (gratuit) et de payer en espèces (gratuit). Quand la taxe dépasse 2000 francs CFA (3 dollars US), il est également plus abordable de faire un retrait (payer 2000 francs CFA) et payer en espèces (gratuit) plutôt que de faire un paiement électronique pour lequel la taxe n’est pas plafonnée à 2000 francs CFA.

Que retenir ?

Il faut élargir l’assiette fiscale sans compromettre l’inclusion financière.

La nouveauté des taxes sur les SFN rend leur forme adéquate encore incertaine, mais l’expérience des autres pays africains fournit des enseignements utiles.

Les exonérations rendent les taxes sur les SFN moins régressives afin de mieux protéger les populations défavorisées. Or, la réforme sénégalaise ne prévoit aucun seuil d’exonération pour les paiements et transferts, alors même que les virements bancaires en sont exclus.

L’incitation à la formalisation passe pourtant par une orientation de la taxe vers les retraits et une exonération des paiements. C’était l’esprit de la réforme ghanéenne, où l’exonération des paiements marchands visait à inciter usagers et commerçants à rester dans les circuits formels.

Par ailleurs, taxer modestement les commissions des opérateurs semble mieux toléré par les utilisateurs, même si cette forme peut être plus régressive en raison de l’importance relative des commissions pour les plus faibles transactions. Au Sénégal, les opérateurs prônent une approche semblable au modèle ivoirien en proposant une taxe sur leur chiffre d’affaires. Ils suggèrent une contribution de 2,5 % pendant trois ans au lieu de taxer les utilisateurs.

L’expérience de l’Ouganda, où un processus inefficace et non inclusif a provoqué une période d’adaptation inutile et des révisions fréquentes de la législation, montre l’importance de la concertation avec les acteurs du secteur. Les États doivent accompagner toute réforme d’études rigoureuses, de prévisions réalistes et d’un suivi attentif. Au Ghana, des projections trop optimistes ont conduit à n’atteindre que 12 % des recettes prévues.

Ces expériences démontrent qu’il n’existe pas de modèle unique. Comme en Tanzanie, en Ouganda ou au Ghana, les pays doivent rester ouverts aux ajustements en fonction des réactions et des conséquences. Les perceptions et sentiments des parties prenantes sont essentiels pour guider l’adhésion, et une communication claire peut faire la différence.

The Conversation

Awa Diouf does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Mobilisation de recettes vs inclusion financière : le dilemme de la taxation du mobile money au Sénégal – https://theconversation.com/mobilisation-de-recettes-vs-inclusion-financiere-le-dilemme-de-la-taxation-du-mobile-money-au-senegal-266811

La Fête de la science 2025 met toutes les intelligences à l’honneur

Source: The Conversation – in French – By Laurent Bainier, Directeur de la rédaction The Conversation France, The Conversation

Il est entre parenthèses mais il donne tout son sens au thème. En ajoutant un « s » au thème de son édition 2025, la Fête de la science (dont The Conversation est cette année encore partenaire) nous propose d’explorer toutes les formes d’intelligence.

Dans notre dossier spécial, vous trouverez donc aussi bien des articles sur l’IA, sur l’intelligence culturelle ou celle des animaux.

Mais en vidéo, cette année, nous avons voulu mettre l’accent sur deux formes bien spécifiques d’intelligence.

Tout d’abord celle qui permet de lutter contre la bêtise humaine. En poussant les portes d’Inria, nous avons découvert les travaux de Célia Nouri, doctorante en intelligence artificielle, à la croisée du traitement automatique du langage et des sciences sociales. Elle développe des modèles de détection prenant en compte le contexte social et communautaire des propos haineux, modèle qui servent à mieux lutter contre le harcèlement en ligne.

Le Cnes nous a également ouvert ses portes et avec elles, l’horizon de nos préoccupations. Jacques Arnould, théologien et spécialiste en éthique du centre national d’études spatiales, il nous encourage à réfléchir aux intelligences extraterrestres. Si demain nous devions en rencontrer, comment arriverions-nous à leur faire reconnaître notre intelligence ? Des pistes de réponse dans cette vidéo.

Jacques Arnould, expert du Cnes en matière d’éthique.

The Conversation

ref. La Fête de la science 2025 met toutes les intelligences à l’honneur – https://theconversation.com/la-fete-de-la-science-2025-met-toutes-les-intelligences-a-lhonneur-267147

Un robot m’a pris mon stage : l’impact de l’IA sur l’entrée des jeunes dans le monde du travail

Source: The Conversation – in French – By Melise Panetta, Lecturer of Marketing in the Lazaridis School of Business and Economics, Wilfrid Laurier University

Pendant longtemps, l’expression « le robot m’a pris mon emploi » évoquait des machines dans les usines. Aujourd’hui, la génération Z fait face à un nouveau défi : l’IA s’invite dans les stages et les postes d’entrée.

Les stages et les emplois débutants ont toujours constitué un tremplin prévisible vers le monde du travail, en offrant aux nouveaux employés l’expérience et les compétences nécessaires à leur développement professionnel à long terme.

Mais à mesure que l’intelligence artificielle (IA) se répand dans tous les coins du monde du travail moderne, ces postes sont susceptibles d’être remplacés par l’automatisation.


25-35 ans : vos enjeux, est une série produite par La Conversation/The Conversation.

Chacun vit sa vingtaine et sa trentaine à sa façon. Certains économisent pour contracter un prêt hypothécaire quand d’autres se démènent pour payer leur loyer. Certains passent tout leur temps sur les applications de rencontres quand d’autres essaient de comprendre comment élever un enfant. Notre série sur les 25-35 ans aborde vos défis et enjeux de tous les jours.

Les postes d’entrée impliquent généralement des tâches peu complexes et fréquentes, telles que la saisie de données, la planification ou la rédaction de rapports, tâches que l’IA générative peut accomplir à un coût nettement inférieur et plus rapidement qu’un être humain. Cela signifie presque certainement une diminution du nombre d’échelons traditionnels au bas de l’échelle professionnelle.

Nous en constatons déjà les effets : les emplois de premier échelon se font plus rares, les candidats étant confrontés à une augmentation de 14 % du nombre de candidatures par poste, selon LinkedIn.

L’IA transforme le monde du travail

L’intégration de l’IA dans tous les secteurs est en train de remodeler fondamentalement le marché du travail.

Près de la moitié des professionnels craignent que l’IA ne remplace leur emploi. Et ils ont de bonnes raisons de s’inquiéter : d’ici 2030, on estime que près de 30 % des tâches pourraient être automatisées par l’IA générative.

Par ailleurs, près des deux tiers des cadres se disent prêts à utiliser des outils d’IA pour augmenter la productivité, au risque de réduire les effectifs. À l’inverse, seul un cadre sur trois est prêt à conserver son personnel au détriment d’une productivité attendue plus élevée.

On prévoit également que la diminution des postes traditionnels de niveau débutant ou junior dans des secteurs tels que la restauration, le service à la clientèle, la vente et le soutien administratif pourrait représenter près de 84 % des changements professionnels attendus d’ici 2030.

Pénurie de talents et de postes d’entrée à l’avenir

Les données sur l’IA et l’avenir du travail soulignent également un autre problème potentiel : la pénurie de talents pour certaines compétences. Un rapport publié en 2024 par Microsoft et LinkedIn révèle que les dirigeants s’inquiètent de la pénurie dans des domaines tels que la cybersécurité, l’ingénierie et la conception créative.

Bien que ces données puissent sembler contradictoires, elles indiquent qu’outre la diminution du nombre de postes de débutants disponibles, des changements dans les rôles et les compétences sont également à prévoir.

En conséquence, la concurrence pour les postes de débutants devrait s’intensifier, et les candidats capables d’utiliser des outils d’IA pour améliorer leur productivité et leur efficacité seront davantage valorisés.

Au lieu de simplement supprimer des postes, de nombreux emplois se transforment pour exiger de nouvelles compétences. Il existe également une demande croissante de talents spécialisés dans les domaines où l’IA ne peut pas encore augmenter pleinement les capacités humaines.

La maîtrise de l’IA est la nouvelle condition d’entrée

À mesure que l’IA se généralise dans le monde du travail, les postes « débutants » ne consistent plus seulement à accomplir des tâches de base, mais aussi à savoir travailler efficacement avec les nouvelles technologies, y compris l’IA.

Les employeurs commencent à accorder une grande importance à la maîtrise de l’IA. Deux tiers des cadres affirment qu’ils n’embaucheraient pas une personne sans compétences en IA et 71 % déclarent qu’ils préféreraient un candidat moins expérimenté, mais possédant des compétences en IA à un candidat plus expérimenté, mais qui n’en possède pas.

Avec moins de postes de débutants disponibles, les jeunes travailleurs devront trouver comment se démarquer sur un marché du travail concurrentiel. Mais malgré ces défis, la génération Z est peut-être la mieux placée pour s’adapter à ces changements.

En tant que natifs du numérique, de nombreux membres de la génération Z intègrent déjà des outils d’IA dans leur travail. Un rapport de LinkedIn et Microsoft a révélé que 85 % d’entre eux utilisent des outils d’IA tels que ChatGPT ou Copilot sur leur lieu de travail, ce qui indique qu’ils sont à la fois à l’aise et désireux d’utiliser cette technologie.

Cette tendance reflète des tendances plus générales au sein de la population active. Un rapport a révélé que 76 % des professionnels estiment avoir besoin de compétences liées à l’IA pour rester compétitifs. Ce même rapport de Microsoft et LinkedIn a révélé une augmentation de 160 % des cours de formation à l’IA.

Cette importance croissante accordée aux compétences en IA s’inscrit dans une tendance plus large vers le « renforcement des compétences », c’est-à-dire le processus qui consiste à améliorer ses compétences pour s’adapter à l’évolution du marché du travail. Aujourd’hui, l’amélioration des compétences consiste à apprendre à utiliser l’IA pour améliorer, accélérer et renforcer ses performances sur le lieu de travail.

Un nouveau type d’emploi de premier échelon

Étant donné que la maîtrise de l’IA devient une compétence professionnelle essentielle, il est important de pouvoir se présenter comme un candidat possédant des compétences en IA pour se démarquer sur un marché de l’emploi de premier échelon très concurrentiel. Cela implique de savoir utiliser les outils d’IA, d’évaluer leurs résultats de manière critique et de les appliquer dans un contexte professionnel. Cela signifie également apprendre à présenter ses compétences en IA sur un CV et lors d’entretiens.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous aujourd’hui à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Les employeurs ont également un rôle à jouer dans tout cela. S’ils veulent attirer et retenir des employés, ils doivent repenser les postes d’entrée. Au lieu de les supprimer, ils devraient se recentrer sur des activités à plus forte valeur ajoutée qui nécessitent un esprit critique ou de la créativité. Ce sont là les domaines dans lesquels les humains surpassent les machines et où l’IA peut servir de soutien plutôt que de remplacement.

Mais pour que cela fonctionne, les employeurs doivent réévaluer leurs pratiques d’embauche afin de privilégier la maîtrise de l’IA et le savoir-faire transférable plutôt que des exigences d’expérience dépassées.

L’avenir du travail ne réside pas dans le remplacement des humains par les robots, mais dans l’apprentissage de la technologie pour renforcer les compétences et ouvrir de nouvelles voies vers l’emploi.

La Conversation Canada

Melise Panetta ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Un robot m’a pris mon stage : l’impact de l’IA sur l’entrée des jeunes dans le monde du travail – https://theconversation.com/un-robot-ma-pris-mon-stage-limpact-de-lia-sur-lentree-des-jeunes-dans-le-monde-du-travail-266134

Le genre sous algorithmes : pourquoi tant de sexisme sur TikTok et sur les plateformes ?

Source: The Conversation – in French – By Hélène Bourdeloie, Sociologue, maîtresse de conférences en sciences de l’information et de la communication, Université Sorbonne Paris Nord; Centre national de la recherche scientifique (CNRS)

Le rapport de la commission parlementaire sur les effets psychologiques de TikTok sur les mineurs montre notamment que la plateforme laisse proliférer des contenus aggravant les stéréotypes de genre.

Au-delà de ses effets délétères sur la santé mentale des jeunes, le récent rapport de la commission parlementaire sur TikTok montre que la plateforme laisse proliférer des contenus sexistes, valorisant le masculin et dénigrant le féminin. Une occasion de s’interroger sur les mécanismes qui, au cœur des plateformes numériques, amplifient les stéréotypes de genre, bien loin des promesses émancipatrices portées par l’essor de l’Internet grand public des années 1990.


Alex Hitchens est un influenceur masculiniste, coach en séduction, actuellement fort de 719 000 abonnés sur TikTok. Son effarant succès est emblématique du rôle des algorithmes de recommandation dans l’amplification des discours réactionnaires. La récente commission d’enquête parlementaire sur les effets psychologiques de TikTok a donc logiquement convoqué l’influenceur star – parmi plusieurs autres aux discours tout aussi douteux – pour l’entendre en audition. Et le 11 septembre 2025, elle a rendu son rapport. Celui-ci met clairement en cause la responsabilité des algorithmes des plateformes dans la diffusion de contenus problématiques aggravant les stéréotypes de genre




À lire aussi :
TikTok et les jeunes : rentabilité et fabrique du mal-être


Cette réalité s’inscrit dans un contexte plus large renvoyant à l’état du sexisme et des inégalités entre les hommes et les femmes dans toutes les sphères de la société. Ainsi, le Baromètre sexisme 2023 du Haut conseil à l’égalité (HCE) signale la présence d’une nouvelle vague d’antiféminisme. On y apprend que 33 % des hommes considèrent que le féminisme menace leur place et rôle dans la société, et 29 % d’entre eux estiment être en train de perdre leur pouvoir.

L’Internet émancipateur, une promesse déçue

De telles données ne sont pas sans interroger la promesse émancipatrice des débuts de l’Internet. Loin d’être un espace neutre, à l’intersection du technique et du social, l’Internet est en effet sans cesse modelé par des décisions humaines, des choix politiques et des logiques économiques. Celles-ci influencent nos usages et nos comportements, qu’il s’agisse de nos manières de construire notre identité de genre (selfies, filtres, mise en scène de la féminité/masculinité), de nos pratiques relationnelles et amoureuses (applications de rencontre, codes de séduction numérique), ou encore de notre rapport au corps et à l’intimité.

Alors qu’il était censé nous libérer de normes contraignantes, l’Internet semble finalement renforcer l’ordre patriarcal en laissant proliférer des stéréotypes qui valorisent le masculin et dénigrent le féminin. En favorisant la circulation de discours qui présentent des caractéristiques prétendument féminines comme biologiques, l’Internet peut contribuer à confondre sexe et genre, à naturaliser les différences de genre, et par conséquent à essentialiser les femmes et à les inférioriser.

Les chiffres du rapport du HCE sur l’invisibilité des femmes dans le numérique sont à ce titre plus qu’éloquents. A partir de l’analyse des 100 contenus les plus vus sur YouTube, TikTok et Instagram, il établit que sur Instagram, plus des deux tiers de ces contenus (68 %) véhiculent des stéréotypes de genre, tandis qu’un quart (27 %) comprend des propos à caractère sexuel et près d’un cinquième (22 %) des propos sexistes. TikTok n’échappe pas à cette tendance avec 61 % de vidéos exposant des comportements masculins stéréotypés et 42,5 % des contenus humoristiques et de divertissement proposant des représentations dégradantes des femmes.

Fin de l’utopie cyberféministe

Aux débuts de l’Internet grand public des années 1990, héritier de l’utopie technoculturelle des années 1960-1970, on pouvait penser que cette technologie redistribuerait les cartes en matière de genre, classe ou race. Le numérique promettait plus d’horizontalité, de fluidité, d’anonymat et d’émancipation.

Dans une perspective cyberféministe, ces espaces numériques étaient vus comme des moyens de dépasser les normes établies et d’expérimenter des identités plus libres, l’anonymat permettant de se dissocier du sexe assigné à la naissance.

Si plusieurs travaux ont confirmé cette vision émancipatrice de l’Internet – visibilité des minorités, expression des paroles dominées, levier de mobilisation – une autre face de l’Internet est venue ternir sa promesse rédemptrice.

Dans les années 2000, avec la montée en puissance des logiques marchandes, les Big Tech de la Silicon Valley – et en particulier les Gafam (Google, Apple, Facebook/Meta, Amazon, Microsoft) – ont pris le contrôle du réseau et cet espace décentralisé, ouvert et commun, est devenu la propriété économique de quelques entreprises. L’Internet a pris une autre forme : oligopolistique, verticale et néolibérale.

Banalisation des discours sexistes

Aujourd’hui, les plateformes numériques, à commencer par les réseaux sociaux, cherchent à capter et retenir l’attention des internautes pour la convertir en revenus publicitaires ciblés. Cette logique est notamment poussée par des plateformes, comme TikTok, qui, en personnalisant les fils d’actualité des utilisateurs, tendent à valoriser les contenus sensationnalistes ou viraux, qui suscitent un temps de visionnage accru, à l’exemple des contenus hypersexualisés.

Dès lors, si le sexisme n’est pas né avec le numérique, les algorithmes des plateformes offrent néanmoins un terreau favorable à sa prolifération.

Les plateformes (avec leurs filtres, formats courts, mécanismes de partage, systèmes de recommandation… – à l’exemple du filtre « Bold Glamour » de TikTok, censé embellir les visages sur la base de standards irréalistes et genrés) contribuent à perpétuer et amplifier les biais de genre et sexistes, voire à favoriser la haine et la misogynie chez les jeunes.

Une étude universitaire de 2024 illustre bien la manière dont les utilisateurs de TikTok sont surexposés aux contenus sexistes. Pour observer cela, des chercheuses et chercheurs ont créé des profils fictifs de garçons adolescents. Après seulement cinq jours, ils ont constaté que le niveau de contenus misogynes présentés sur les fils « Pour toi » de ces profils avait été multiplié par quatre, révélant un biais structurel dans le système de recommandation de TikTok.

La plateforme n’est dès lors pas seulement le miroir de clivages de sexe, mais aussi le symptôme du pullulement et de la banalisation des discours sexistes. Cette idéologie, enracinée dans les sous-cultures numériques phallocrates rassemblée sous le nom de « manosphère » et passant désormais des écrans aux cours de récréation, n’a pas de frontière.




À lire aussi :
« Manosphère » : ce que les parents doivent savoir pour en parler avec leurs enfants


TikTok et les attentes genrées

Concernant TikTok, le rapport de 2023 du HCE sur l’invisibilité des femmes dans le numérique est on ne peut plus clair. Il montre que la plateforme privilégie structurellement les contenus correspondant aux attentes genrées les plus convenues. Les corps féminins normés, les performances de genre ou représentations stéréotypées, comme celle de la femme réservée, hystérique ou séductrice, y sont ainsi surreprésentées. En fait, les grandes plateformes les représentent sous un angle qui les disqualifie. Cantonnées à l’espace domestique ou intime, elles incarnent des rôles stéréotypés et passifs liés à la maternité ou l’apparence. Leurs contenus sont perçus comme superficiels face à ceux des hommes jugés plus légitimes, établissant une hiérarchie qui reproduit celle des sexes.

On se souvient ainsi du compte TikTok « @abregefrere ». Sous couvert de dénoncer le temps perdu sur les réseaux sociaux, ce compte s’amusait à résumer en une phrase le propos de créateurs et créatrices de contenus, le plus souvent issus de femmes. Créant la polémique, son succès a entraîné une vague de cyberharcèlement sexiste, révélateur d’une certaine emprise du masculinisme.




À lire aussi :
#SkinnyTok, la tendance TikTok qui fait l’apologie de la maigreur et menace la santé des adolescentes


De telles représentations exacerbent les divisions genrées et les clivages entre communautés en ligne. Sur TikTok, est ainsi né Tanaland, un espace virtuel exclusivement féminin, pensé comme un renversement du stigmate associé à l’insulte misogyne « tana » (contraction de l’espagnol « putana »), et destiné à se protéger du cybersexisme. En miroir, a été créé Charoland, pays virtuel peuplé de femmes nues destinées à satisfaire le désir masculin ; une polarisation qui opère non seulement au détriment des femmes, mais aussi des hommes qui contestent le patriarcat.

Des effets délétères en termes d’inégalités et d’image de soi

Comme en témoigne le rapport 2025 du HCE, ce contexte peut conduire à polariser les enjeux d’égalité de genre et, ce faisant, à renforcer les inégalités et violences.

Ce sont ainsi les femmes et les minorités qui restent les plus exposées à la cyberviolence et au cyberharcèlement. Selon l’ONU, 73 % des femmes dans le monde ont déjà été confrontées à des formes de violence en ligne. Et selon l’enquête « Cyberviolence et cyberharcèlement », de 2022, en cours de renouvellement, les cyberviolences visent surtout les personnes les plus vulnérables comme les jeunes (87 % des 18-24 ans en ont ainsi subi), les personnes LGBTQI+ (85 %), les personnes racisées (71 %) et les femmes de moins de 35 ans (65 %).

Ces violences affectent particulièrement la santé mentale et l’image de soi des jeunes filles, soumises à une pression permanente à la performance esthétique et constamment enjointes à réfléchir à leur exposition en ligne. De fait, leurs corps et leurs sexualités sont plus strictement régulés par un ordre moral – contrairement aux hommes souvent perçus comme naturellement prédatoires. En conséquence, elles subissent davantage le body-shaming (« humiliation du corps »), le slut-shaming ou le revenge porn, stigmatisations fondées sur des comportements sexuels prétendus déviants.




À lire aussi :
Que fait l’Europe face aux géants du numérique ?


Reflet de la société, le numérique n’a certes pas créé la misogynie mais il en constitue une caisse de résonance. Pharmakon, le numérique est donc remède et poison. Remède car il a ouvert la voie à l’expression de paroles minoritaires et contestatrices, et poison car il favorise l’exclusion et fortifie les mécanismes de domination, en particulier lorsqu’il est sous le joug de logiques capitalistes.


Un grand merci à Charline Zeitoun pour les précieux commentaires apportés à ce texte.

The Conversation

Hélène Bourdeloie ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le genre sous algorithmes : pourquoi tant de sexisme sur TikTok et sur les plateformes ? – https://theconversation.com/le-genre-sous-algorithmes-pourquoi-tant-de-sexisme-sur-tiktok-et-sur-les-plateformes-262897

L’intelligence, un concept aux multiples facettes

Source: The Conversation – in French – By Romuald Blanc, MCU-Psychologue clinicien, Université de Tours

Qu’est-ce que l’intelligence ? Comment la définir, et l’évaluer ? Il n’existe pas de réponse simple à ces questions, qui ont fait l’objet de nombreux travaux de recherche. Voici quelques pistes de réflexion.


L’intelligence est un concept complexe, qui englobe plusieurs sortes de capacités cognitives, comme la résolution de problèmes, la pensée abstraite, l’apprentissage et l’adaptation.

Elle ne se limite pas aux performances scolaires, mais inclut aussi des dimensions émotionnelles (l’ajustement émotionnel aux autres, la capacité à agir sur ses propres émotions ou « autorégulation émotionnelle »), sociales (l’adaptation sociale et prise en compte des règles et des conventions sociales qui régissent les relations humaines) et pratiques (l’adaptation au quotidien).

Pour cette raison, définir l’intelligence et l’évaluer est une tâche ardue. Les experts eux-mêmes peinent encore à s’accorder sur sa nature (unique ou multiple), son origine (innée ou acquise) ou ses mécanismes (concernant les processus cognitifs sous-jacents).

Si de nombreux modèles d’intelligence ont été proposés, jusqu’à présent, aucun consensus scientifique incontesté n’a émergé. Globalement, 3 grandes façons de définir l’intelligence se dessinent : les modèles factoriels, les approches dites « multiples » et les modèles neurocognitifs. Voici ce qu’il faut en retenir.

Les modèles factoriels

Parmi les modèles factoriels, citons le modèle mis au point par Charles Edward Spearman, psychologue britannique. Développé en 1904, il repose sur le calcul d’un facteur général d’intelligence (appelé « facteur g »). Celui-ci serait commun à toutes les tâches cognitives, tandis que pour chaque activité il existerait des facteurs spécifiques : un facteur verbal pour le langage, un facteur spatial, etc. Ces « facteurs mentaux » sont déterminés grâce à une méthode mathématique appelée analyse factorielle.

Le modèle de Spearman implique que toutes les performances intellectuelles sont corrélées. L’intelligence serait donc une capacité unique. Bien que critiqué pour son caractère réducteur, il reste une référence dans la psychométrie et la conception des tests de quotient intellectuel.

Dans les années 1930, Louis Leon Thurstone, un psychologue américain, conteste cette vision. Il affirme que l’intelligence n’est pas une capacité unique, mais un ensemble de compétences mentales primaires indépendantes. En se basant sur des analyses factorielles de tests d’intelligence qu’il a fait passer à des étudiants, il détermine qu’il existerait 7 aptitudes mentales primaires : la compréhension verbale, la fluidité verbale, les aptitudes numériques, la visualisation spatiale, la mémoire, la vitesse perceptive et le raisonnement inductif.

En 1963, dans la lignée de ces travaux, le psychologue anglo-américain Raymond Bernard Cattell défend l’idée que l’intelligence générale se divise en deux catégories principales : l’intelligence fluide, qui correspond à notre capacité à traiter de nouvelles informations, à apprendre et à résoudre des problèmes ; et l’intelligence cristallisée, qui s’apparente à nos connaissances stockées, accumulées au fil des ans.

Ce dernier modèle a influencé de nombreux tests d’intelligence modernes, comme les échelles d’intelligence de Wechsler. Il explique pourquoi certaines personnes âgées peuvent exceller dans des domaines nécessitant des connaissances établies, malgré une baisse de leurs capacités de raisonnement abstrait. Il est utilisé en psychologie cognitive et en neurosciences pour étudier le vieillissement cognitif.

Les approches multiples de l’intelligence

En se positionnant face aux modèles antérieurs, jugés réducteurs, le psychologue états-unien Howard Gardner a développé, au début des années 1980, un autre modèle de l’intelligence, intégrant les composantes sociales et culturelles. Son intérêt pour des populations atypiques telles que les enfants dits « prodiges », les « idiots-savants », ou encore les personnes avec autisme lui ont permis de prendre en considération des différentes facettes de l’activité cognitive, en respectant des différences de chacun selon ses forces, ses faiblesses et ses styles cognitifs.

Il définit ainsi huit grandes facettes de l’intelligence : linguistique, logico-mathématique, spatiale, kinesthésique, musicale, interpersonnelle, intrapersonnelle et naturaliste. Gardner propose que chacun peut développer ces intelligences à différents niveaux et qu’il existe de nombreuses façons d’être intelligent dans chacune de ces catégories.

Bien que novateur, ce modèle est critiqué pour son manque de fondement scientifique et la subjectivité de ses catégories. Certains chercheurs y voient plutôt des talents que de véritables formes d’intelligences, et son efficacité pédagogique reste à démontrer. Des critiques suggèrent que la théorie des intelligences multiples manque de fondements scientifiques solides et repose sur des catégories subjectives, souvent perçues davantage comme des talents ou des traits de personnalité que comme des formes distinctes d’intelligence.

En 1985, le psychologue américain Robert Sternberg propose un modèle triarchique de l’intelligence, intégrant des aspects cognitifs, créatifs et pratiques. Il distingue trois formes d’intelligence : analytique (résolution de problèmes logiques), créative (pensée originale et adaptation à la nouveauté) et pratique (adaptation au quotidien, intelligence sociale).

Contrairement à Spearman et Thurstone, qui envisagent l’intelligence comme un ensemble de capacités cognitives mesurables (facteur g ou aptitudes primaires), Sternberg la conçoit comme un processus adaptatif. Être intelligent, c’est savoir s’adapter à de nouvelles situations, choisir des environnements favorables et les modifier si nécessaire.

Réussir à s’intégrer dans un nouvel environnement culturel illustre par exemple cette intelligence pratique et contextuelle. Là où Spearman ou Thurstone y verraient l’expression d’aptitudes générales (raisonnement, compréhension), Sternberg y voit surtout la mise en œuvre de stratégies d’adaptation à un contexte changeant.

La théorie de Sternberg est plus étayée empiriquement que celle de Gardner, car ses composantes (analytique, créative, pratique) peuvent être testées et appliquées en éducation ou en milieu professionnel, pour mieux évaluer les compétences individuelles. La typologie proposée par Gardner, séduisante, est en revanche moins validée scientifiquement.

Si Sternberg reste plus opérationnel et crédible sur le plan scientifique, les deux approches complètent les modèles psychométriques, en mettant l’accent sur l’adaptation et le contexte.

Les modèles neurocognitifs de l’intelligence

Les modèles les plus récents d’intelligence s’appuient sur les connaissances acquises notamment grâce aux progrès effectués en neuro-imagerie (notamment grâce à l’IRM fonctionnelle, qui permet d’observer le fonctionnement cérébral lors de la réalisation d’une tâche donnée).

Ces modèles mettent en avant le rôle des réseaux cérébraux et des fonctions cognitives. Parmi les principaux, on peut citer :

  • la théorie de l’intégration fronto-pariétale : selon cette théorie, l’intelligence serait basée sur l’intégration, c’est-à-dire le traitement coordonné et harmonieux des informations entre différentes régions du cerveau, notamment entre le cortex pariétal (impliqué dans le raisonnement et le traitement spatial) et le cortex préfrontal (impliqué dans le contrôle exécutif, c’est-à-dire la régulation et la coordination des pensées, des actions et des émotions pour atteindre un but) ;

  • le modèle des fonctions exécutives : ce modèle souligne le rôle clé de la mémoire de travail (capacité à maintenir et manipuler temporairement des informations), de la flexibilité cognitive (capacité à changer de stratégie ou de point de vue) et de l’inhibition (capacité à résister à des automatismes ou distractions). Ces fonctions, essentielles pour la planification et l’adaptation, sont fortement associées au cortex préfrontal ;

  • les approches bayésiennes : elles mettent en avant l’idée que le cerveau agit comme un système prédictif, c’est-à-dire qu’il formule en permanence des hypothèses sur le monde à partir de ses expériences passées, puis les ajuste en fonction des nouvelles informations sensorielles (par exemple, lorsque nous marchons dans une rue et que nous entendons un bruit de moteur derrière nous, notre cerveau prévoit qu’une voiture approche. Si le bruit s’éloigne au lieu de se rapprocher, il met à jour son modèle interne pour ajuster sa prédiction) ;

  • le modèle des réseaux en petits mondes : ce modèle repose sur l’idée que l’intelligence dépend de l’efficacité des connexions neuronales et de la plasticité cérébrale. Le cerveau humain est organisé selon une architecture dite en petit monde, c’est-à-dire un réseau dans lequel les neurones (ou régions cérébrales) sont à la fois fortement connectés localement (favorisant la spécialisation) et efficacement reliés à distance (favorisant l’intégration globale de l’information).
    Cela signifie qu’il existe des différences interindividuelles : certaines personnes présentent des réseaux cérébraux plus efficaces, caractérisés par un équilibre optimal entre connectivité locale et connectivité globale, ce qui serait associé à de meilleures performances cognitives et à un quotient intellectuel plus élevé. Cependant, cette efficacité n’est pas figée : elle peut être modifiée par l’expérience, l’apprentissage, l’entraînement cognitif ou encore par des changements développementaux (enfance, adolescence) et neurobiologiques (plasticité synaptique, myélinisation). En d’autres termes, le cerveau peut réorganiser ses connexions pour améliorer la circulation de l’information.

Tous ces modèles postulent que l’intelligence est distribuée : elle reposerait sur l’interaction entre différentes régions du cerveau.

La théorie de l’intégration fronto-pariétale et le modèle des fonctions exécutives sont bien étayés empiriquement, grâce à des données de neuro-imagerie et des tâches expérimentales standardisées. Les approches bayésiennes offrent un cadre explicatif puissant, mais plus théorique et difficile à tester directement. Enfin, le modèle des réseaux en petits mondes est empiriquement mesurable, mais surtout corrélationnel.

Ces modèles ne s’opposent pas aux approches développementales classiques, ils les complètent en proposant une explication cérébrale et fonctionnelle des mécanismes qui sous-tendent le développement de l’intelligence

Une absence de consensus

À la fois universelle et plurielle, l’intelligence est un concept complexe, polymorphe et multidimensionnel. L’évaluer n’est pas chose aisée. Sa richesse ne peut être appréhendée à la seule aune de tests standardisés tels que le quotient intellectuel, car celui-ci ne prend pas en compte toutes les formes d’intelligence, ignorant notamment l’intelligence émotionnelle ou créative.

Une compréhension complète de l’intelligence exige de ce fait une approche globale et nuancée. À ce titre, les divers modèles de l’intelligence offrent une vision enrichissante de la complexité de ce concept, en proposant de reconnaître et de valoriser les différentes compétences et talents que chaque individu possède.

En nous incitant à adopter une perspective plus large sur l’intelligence, ils nous aident à mieux comprendre et à soutenir le développement des capacités des individus dans toute leur diversité.


Cet article est publié dans le cadre de la Fête de la science (qui a lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.

The Conversation

Romuald Blanc ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’intelligence, un concept aux multiples facettes – https://theconversation.com/lintelligence-un-concept-aux-multiples-facettes-255131

Les défis du réarmement de l’Europe : réveil stratégique ou chaos organisé ?

Source: The Conversation – in French – By Laurent Vilaine, Docteur en sciences de gestion, ancien officier, enseignant en géopolitique à ESDES Business School, ESDES – UCLy (Lyon Catholic University)

Après des décennies passées à cueillir les « dividendes de la paix », les Européens réarment à grande vitesse, mais de façon désorganisée, voire confuse. Or, la sécurité du continent dépend de la mise en œuvre d’une politique militaire pensée de façon collective et fondée sur une industrie de défense qui deviendrait nettement moins dépendante des États-Unis.


Face à la rhétorique agressive de la Russie, à ses provocations verbales et à ses opérations d’intimidation de plus en plus fréquentes, les États européens réarment. L’attitude illisible de l’administration Trump les incite encore davantage à prendre leur destin en main en matière de défense.

Mais les achats d’armements se font en ordre dispersé. Les Européens (membres de l’UE ou non) continuent de largement dépendre des États-Unis dans ce domaine ; et leur industrie de défense se développe avec une grande lenteur, malgré de progrès récents.

La fin d’une illusion

La guerre en Ukraine a été un révélateur pour les Européens. Après plus de trois décennies de désarmement prononcé pour toucher les fameux « dividendes de la paix » post-guerre froide, les budgets augmentent, accompagnés d’annonces sur des commandes de chars, d’avions de combat, de missiles.

La réactivation des réserves est mise en avant, tout comme la relance des industries d’armement. Ce mouvement, bien que tardif, illustre un gros progrès. L’Europe ne se considère plus comme un continent riche, trop heureux de confier sa protection (notamment nucléaire) aux États-Unis, sans avoir à livrer de véritables efforts propres. En cela, les critiques venues de Washington relatives au manque d’investissements des pays européens dans leur défense étaient parfaitement justifiées.

Mais ce réarmement, aussi nécessaire soit-il, se fait dans le désordre et dans la précipitation, car il est plus guidé par la peur ou par la prise de conscience que par la planification. L’UE, certes, dépense davantage, mais ne réussit pas à définir une vision d’ensemble pour bâtir une défense, sinon intégrée, tout au moins organisée.

Selon l’Institut international de recherche sur la paix de Stockholm (SIPRI), les dépenses militaires européennes ont augmenté de manière historique de 17 % en 2024, atteignant 693 milliards de dollars. La totalité des pays de l’UE, à l’exception de Malte, ont accru leurs budgets militaires. L’Allemagne, longtemps à la traîne en matière de dépenses militaires, a bondi de 28 %, à 88,5 milliards, devenant le quatrième investisseur militaire mondial, ce qui aurait été absolument inimaginable il y a seulement quelques années.

La Pologne est le pays qui consacre le plus gros pourcentage de son PIB à la défense : 4,2 % aujourd’hui contre 2 % en 2021, ce qui marque un effort colossal. L’objectif est d’atteindre 5 % en 2026. En moyenne, même si le chiffre paraît moins spectaculaire, les pays de l’UE ont progressé de 0,2 % en termes de pourcentage du PIB, passant à une moyenne de 1,3 % à 1,5 % en deux ans.

Les fameux dividendes de la paix sont désormais bien derrière nous. La sécurité extérieure redevient centrale, comme au temps de la guerre froide, mais dans un désordre qui fragilise notre souveraineté collective.

Un réarmement en ordre dispersé

Sur la carte du réarmement européen, on distingue autant de stratégies que d’États. L’Allemagne investit son Zeitenwende (changement d’ère) dans des achats auprès des États-Unis : avions F-35, missiles Patriot, hélicoptères CH-47 Chinook…

La France, avec une loi de programmation militaire 2024-2030 de 413 milliards d’euros, mise sur l’autonomie et la dissuasion nucléaire, et reste tournée vers son industrie nationale, particulièrement complète.

L’Italie et l’Espagne modernisent leur marine et leur aéronautique (programmes FREMM, Eurofighter), tout en demeurant très liées à l’Oraganisation du traité de l’Atlantique Nord (Otan). Les pays baltes et scandinaves se concentrent sur la défense territoriale (fortification des frontières) et les infrastructures d’accueil de troupes alliées.

L’Europe se réarme de manière anarchique : les Tchèques achètent des boucliers antimissiles, les Allemands lancent des satellites, la Lituanie achète des drones turcs ou israéliens, sans qu’un effort de coordination et de rationalisation des achats n’apparaisse.

Certes, cette diversité reflète des besoins réels et pressants, car les différents pays n’éprouvent pas le même sentiment d’urgence, du fait de la géographie mais également des menaces perçues comme directes ou plus lointaines, ou en raison des traditions militaires. Mais l’absence de coordination produit une fragmentation industrielle et opérationnelle. Les armées européennes utilisent aujourd’hui près de 180 systèmes d’armes différents, contre une trentaine aux États-Unis. Cette hétérogénéité augmente les coûts, complexifie la logistique – avec d’innombrables pièces détachées différentes et les compétences multiples qu’il est nécessaire d’entretenir – et, in fine, rend très délicate l’interopérabilité, c’est-à-dire la capacité des systèmes d’armes et donc des armées à travailler ensemble.

Achats d’équipements auprès d’acteurs extérieurs

La Pologne illustre les contradictions qu’engendrent les besoins immédiats de sécurité et l’incohérence stratégique. Ce grand pays, encore en avance sur l’Allemagne en matière de dépenses militaires, est devenu la locomotive militaire de l’Europe, au moins de l’Est, mais au prix d’une dépendance massive à des fournisseurs non européens.




À lire aussi :
Le réarmement massif de la Pologne : causes, conséquences et controverses


En août 2025, Varsovie a signé avec la Corée du Sud un contrat portant sur la livraison de 180 chars K2 Black Panther, pour environ 6,5 milliards de dollars, après un premier contrat d’également 180 chars en 2022 ; 61 chars seront assemblés localement sous licence. En parallèle, Varsovie achète à Séoul des obusiers K9 et des avions FA-50, mais n’oublie pas ses alliés américains en acquérant des chars Abrams.

La Pologne s’est donc tournée vers des fournisseurs capables de livrer rapidement des armes de qualité lui permettant une montée en puissance réelle. Ces avantages sont malheureusement accompagnés pour ce pays d’inconvénients réels. La Pologne dépend de la logistique étrangère, et la maintenance de matériels variés se complexifie tant en termes de pièces détachées que de compétences diverses sur des matériels différents.

Mais Varsovie n’est pas seule dans cette situation. Nous le savons déjà : via l’Otan, les États-Unis sont dominants dans la sécurité européenne. Leur parapluie nucléaire en est une forte illustration. De plus, les États-Unis sont, sur le plan industriel, le principal fournisseur des pays européens. Les avions F-35, expression de cette domination, sont désormais l’avion standard de plusieurs forces aériennes européennes. L’Allemagne a prévu 35 appareils, dont les premières livraisons interviendront en 2026, la Belgique en a commandé 34, la Pologne 32 et le Danemark 27, déjà en cours de réception. La Finlande a signé pour 64 exemplaires, livrés progressivement jusqu’en 2030, tandis que la Grèce prévoit jusqu’à 40 avions. La Norvège et les Pays-Bas ont chacun acquis 52 appareils, déjà pour la plupart opérationnels. L’Italie dispose d’environ 90 F-35, le Royaume-Uni en a prévu 138, dont une soixantaine déjà livrés. Enfin, la Suisse en a commandé 36 exemplaires, livrables à partir de 2027, et la République tchèque 24, dont les premières livraisons sont attendues vers 2031.

On le voit, de nombreux pays européens ont préféré privilégier la relation avec les États-Unis, quitte à acheter un système d’armes verrouillé. En effet, les F-35 lient leurs utilisateurs au réseau logistique américain en termes de maintenance, de formation et de mise à jour logicielle.

Cette dépendance technologique pose un problème stratégique majeur, a fortiori lorsque les États-Unis sont dirigés par une administration chaotique et imprévisible et dont l’engagement au sein de l’Otan semble plus que fragile : l’Europe ne contrôle ni ses codes sources, ni sa maintenance, ni ses calendriers d’évolution. En cas de crise transatlantique, cette vulnérabilité pourrait, en quelques semaines, dégrader très fortement les performances de sa flotte de F-35.

Ainsi, l’Europe, incapable de se détacher de la tutelle de Washington, achète sa sécurité en quelque sorte à crédit politique, sans garantie solide. Emmanuel Macron l’a souligné à la Sorbonne, en avril 2024 : « Le moment est venu pour l’Europe de devenir puissance. » Parole précieuse, mais sans grande portée tant que l’Europe se contente d’être une cliente, vulnérable aux intentions de Washington.

La dépendance vis-à-vis des États-Unis pourrait être pleinement justifiée si nous ne disposions pas de la base technique et industrielle pour posséder une véritable autonomie stratégique en matière de défense. La réalité est tout autre ; Airbus, Dassault, Thales, Leonardo, Safran, MBDA, Rheinmetall, Nexter sont autant de champions mondiaux. L’Europe dispose du savoir-faire en quantité, mais manque de coordination et de volonté politique.

Les programmes Scaf (Système de combat aérien du futur) et MGCS (char européen) symbolisent ces lenteurs. Le premier devait incarner l’avenir de la supériorité aérienne européenne. Pourtant, ce projet cumule retards et tensions entre industriels et États membres. Le second, censé succéder au Leopard 2 et au Leclerc, connaît également de grandes difficultés. L’incapacité des Européens à s’entendre profite de manière quasi automatique à leurs concurrents. Les prototypes de chars et de chasseurs des États-Unis et de la Corée du Sud pourraient être opérationnels autour des années 2030. Dans ce cadre, l’ironie est lourde : l’Europe risque de devenir acheteuse de technologies qu’elle aurait pu inventer.

L’UE tente de réagir en mettant sur pied le Fonds européen de défense (Fedef) et l’Agence européenne de défense (AED). Cependant, leurs moyens sont dérisoires (environ 8 milliards d’euros sur la période 2021-2027) et ils sont dénués de véritable gouvernance politique et budgétaire.

Nous le comprenons, la question n’est pas industrielle. L’Europe a la base technique et industrielle. Le problème est politique : les pays européens acceptent-ils de partager entre eux leur souveraineté ? Ils en sont capables, le passé l’a montré, mais la situation géopolitique actuelle nous empêche de tergiverser plus longtemps.

L’autre question essentielle est relative aux États-Unis : l’Europe peut-elle, tout en restant leur alliée, s’affranchir, au moins partiellement, de leur tutelle ? Aucun pays n’apporte de réponse identique à cette question centrale.

Les conditions de la souveraineté militaire

Plusieurs axes s’imposent pour construire une industrie de défense européenne qui entraînera un esprit de défense européen : harmoniser les normes ; mutualiser les achats ; conditionner les contrats étrangers ; créer un « Buy European Act » (équivalent du Buy American Act, une loi américaine de 1933), qui obligerait l’Europe à privilégier les entreprises et produits fabriqués en Europe dans ses marchés publics, et notamment dans la défense ; renforcer le Fedef et élaborer une doctrine commune.

Compte tenu des rapports très différents que les pays entretiennent avec Washington, il est important de montrer à toutes les parties prenantes que ces mesures ne visent pas à se découpler des États-Unis, mais seulement à rééquilibrer la relation transatlantique. Une alliance forte repose sur des partenaires autonomes et libres.

Réarmer est nécessaire. Il ne s’agit pas seulement d’aider l’Ukraine, même si cette dimension demeure. Il s’agit de tenir à distance la Russie, dont on peut parier de la permanence de l’agressivité pendant des décennies.

Réarmer ne couvre pas tout le champ de la défense. Cette dernière engage aussi la diplomatie, la technologie, l’énergie, la résilience des sociétés. Or, malgré les appels et le début de certaines réalisations, l’Europe reste très dépendante en matière d’énergie (gaz américain), de semi-conducteurs (Taïwan et Corée du Sud), du numérique (Gafam)… Une entité politique sans souveraineté ne peut être une puissance. Une souveraineté militaire – ce qui constitue déjà un véritable défi – sans souveraineté industrielle, énergétique et numérique est une illusion.

Pour autant, le réarmement européen met fin à la naïveté stratégique née des années 1990 et, probablement, à l’opportunisme économique dégagé des contraintes de défense. Mais il ne sera durable que s’il s’accompagne d’un sursaut collectif. Un sursaut collectif qui impose de penser l’Europe non plus seulement comme un marché, mais également comme une source de puissance.

L’Europe est une puissance économique avec des moyens et des cerveaux. Elle peut acquérir une souveraineté en matière de défense tout en continuant de coopérer avec les États-Unis, à considérer désormais non plus comme des amis mais comme des alliés. Les États-Unis demeurent un partenaire essentiel, mais n’ont pas à mettre l’Europe sous tutelle. L’Europe-puissance que nous appelons de nos vœux aura pour conséquence de ne plus accepter ce type de relations.

L’Europe est riche et capable. Mais il lui manque la cohésion, la volonté d’agir et la compréhension de la notion de puissance. Elle réarme. Cette évolution est satisfaisante. Mais elle doit réarmer ensemble dans le cadre d’un projet, au risque, sinon, de demeurer un géant économique, sous parapluie américain, parapluie de plus en plus troué d’ailleurs.

The Conversation

Laurent Vilaine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les défis du réarmement de l’Europe : réveil stratégique ou chaos organisé ? – https://theconversation.com/les-defis-du-rearmement-de-leurope-reveil-strategique-ou-chaos-organise-266762

Décoloniser les pratiques scientifiques : le cas du désert d’Atacama au Chili

Source: The Conversation – in French – By Adrien Tavernier, Scientist in environmental sciences, Universidad de Atacama

Est-il moral, éthique, voire tout simplement acceptable, que des projets de recherche soient menés dans des pays du « Sud global » sans qu’aucun scientifique local soit impliqué ? Une étude vient apporter une quantification de cette problématique dans la zone de la Puna sèche et du désert d’Atacama, en Amérique latine.


Tout travail de recherche scientifique implique, initialement, une revue bibliographique. Le but de ce travail préliminaire est de parcourir la littérature afin de compiler les informations susceptibles d’étayer la question principale à laquelle une équipe scientifique souhaite répondre.

C’est au cours de cette recherche bibliographique que notre équipe, travaillant sur la caractérisation environnementale de la Puna sèche et du désert d’Atacama, en Amérique du Sud, a eu l’impression que la plupart des travaux publiés jusqu’alors avaient été réalisés par des équipes étrangères, sans aucune implication de chercheurs appartenant à une institution locale.

Pour ramener la situation à la France, serait-il possible et acceptable que les Puys d’Auvergne ou la Mer de Glace soient étudiés exclusivement par des équipes issues d’organismes de recherche argentins, chiliens, péruviens ou boliviens sans participation de chercheurs appartenant à des institutions françaises ?

Localisation géographique de la Puna sèche (rouge) et du désert d’Atacama (jaune).
Fourni par l’auteur

La Puna sèche et le désert d’Atacama sont des régions du globe à cheval sur quatre pays (Argentine, Bolivie, Chili et Pérou). Ces zones géographiques particulières ont pour caractéristique principale une aridité extrême qui façonne des paysages que beaucoup qualifierait spontanément de « lunaires » ou de « martiens ». Ces deux régions correspondent en effet à ce que l’on appelle, dans le jargon scientifique, des analogues planétaires : des lieux géographiques présents sur Terre mais qui peuvent s’apparenter à des environnements extraterrestres.

La Puna sèche et le désert d’Atacama sont ainsi considérés comme de bons analogues terrestres de Mars et pourraient présenter, à l’heure actuelle, des conditions physico-chimiques proches de ce que la planète rouge aurait pu connaître au cours de son histoire géologique. Ce sont donc de formidables laboratoires naturels pour les domaines des sciences planétaires et de l’astrobiologie. Leur rareté suscite également l’intérêt des scientifiques du monde entier.

Comparaison entre un paysage terrestre dans le désert d’Atacama lors d’une campagne de recherche de météorites et un paysage martien capturé par le rover Curiosity.
Partie supérieure : Luigi Folco/Partie inférieure : NASA/JPL-Caltech/MSSS, CC BY

Comment passer d’une vague impression à une certitude de la prépondérance de travaux étrangers sur la zone géographique concernée ? Notre équipe francochilienne composée de géologues, de géophysiciens, d’astrophysiciens et de biologistes a mis en place une méthode systématique de comparaison des articles basés, d’une manière ou d’une autre, sur les caractéristiques exceptionnelles de la Puna sèche et du désert d’Atacama, dans les domaines des sciences planétaires et de l’astrobiologie.

Les résultats de cette étude ont été publiés en 2023 dans la revue Meteoritics and Planetary Science et notre impression a été confirmée : plus de 60 % des articles l’ont été sans impliquer un chercheur appartenant à une institution nationale d’un des pays abritant la Puna sèche et/ou le désert d’Atacama (5 369 articles analysés sur la sélection générale en sciences de la Terre, 161 pour les sciences planétaires et l’astrobiologie). Le déséquilibre mis en évidence est similaire à d’autres disciplines scientifiques et ne se limite pas à cette région.

La valorisation scientifique du patrimoine naturel de certains pays, sans contribution majeure des chercheurs locaux, suscite de plus en plus d’inquiétudes dans une partie de la communauté scientifique. Au cours de ce travail, nous avons découvert les termes relativement récents (depuis les années 2000) de sciences hélicoptères, sciences parachutes, sciences safari ou sciences néocoloniales (terme privilégié dans la suite de cet article) qui permettent de mettre des noms sur ces pratiques caractérisées par la mise en œuvre de projets de recherches scientifiques menées par des équipes de pays développés (Nord global) dans des pays en développement ou sous-développés (Sud global) sans aucune implication des chercheurs locaux.

Ces pratiques tendent à être considérées comme contraires à l’éthique et le sujet devient un thème de discussions et de publications au sein des sciences dures : le plus souvent sous forme de diagnostic général, mais aussi en termes de quantification.

Certaines revues scientifiques, dont Geoderma (référence du domaine en science du sol) a été l’un des pionniers à partir de 2020, ont pris l’initiative d’un positionnement sans équivoque contre les pratiques de sciences néocoloniales ouvrant la voie à la modification des lignes éditoriales afin de prendre en compte la nécessité d’impliquer les chercheurs locaux dans les publications scientifiques.

C’est le cas par exemple de l’ensemble des journaux PLOS qui exigent, depuis 2021, le remplissage d’un questionnaire d’inclusion de chercheurs locaux pour une recherche menée dans un pays tiers, exigence qui a depuis fait des émules au sein du monde de l’édition scientifique.

L’exigence éthique vis-à-vis des recherches menées dans des pays étrangers devient donc un standard éditorial important mais pas encore majeur. D’autres leviers pourraient cependant être activés comme des cadres législatifs nationaux ou internationaux restrictifs imposant la participation de chercheurs locaux dans des travaux de terrain menés par des scientifiques étrangers.

En France par exemple, la mise en place de programmes de recherche dans des territoires exceptionnels comme les îles Kerguelen (territoire subantarctique français de l’océan Indien) ou la terre Adélie en Antarctique nécessite que le projet soit porté par un scientifique, agent titulaire d’un organisme de recherche public français. Des modèles permettant d’éviter cette problématique d’appropriation culturelle d’un patrimoine naturel scientifique par des chercheurs appartenant à des institutions étrangères existent donc déjà et constituent autant de ressources sur lesquelles se fonder afin de limiter ces pratiques de sciences néocoloniales. Il nous semblerait cependant nécessaire que la communauté scientifique procède à une introspection de ces pratiques.

C’est tout l’enjeu de l’étude que nous avons menée et des travaux similaires qui se généralisent depuis quelques années : rendre ces pratiques de sciences néocoloniales visibles, notamment en quantifiant le phénomène, afin que cette problématique soit débattue au sein de la communauté. Cela a notamment permis à notre équipe de se poser des questions fondamentales sur ses pratiques scientifiques et de (re)découvrir les apports conséquents menés, depuis plus de 60 ans, par les sociologues et les épistémologues sur les racines profondes et historiques pouvant lier colonialisme, impérialisme et science et plus généralement des relations entre centre et périphérie (par exemple les déséquilibres, au sein d’un même pays, entre institutions métropolitaines ou centrales vis-à-vis des institutions régionales).

L’exemple des analogues terrestres de la Puna sèche et du désert d’Atacama illustre ainsi les écarts économique, scientifique et technologique creusés progressivement entre le Nord et le Sud global. Les sciences planétaires et l’astrobiologie, ont été historiquement liées au développement technologique de programmes spatiaux ambitieux et extrêmement coûteux dont souvent les principales ambitions n’étaient pas scientifiques. Les pays du Sud global n’ont ainsi pas eu l’opportunité de profiter de la conquête spatiale de la seconde moitié du XXe siècle pour développer une communauté scientifique locale en sciences planétaires et en astrobiologie.

Des efforts sont actuellement menés au sein du continent sud-américain afin de pallier cette situation et ainsi faciliter l’identification d’interlocuteurs scientifiques locaux par des chercheurs d’institutions étrangères souhaitant mener des recherches en sciences planétaires ou en astrobiologie en Amérique du Sud. Des démarches vertueuses entre certains chercheurs sud-américains et leurs homologues du Nord global ont aussi été menées afin de développer ex nihilo des initiatives de recherche locales dans des domaines spécifiques des sciences planétaires et de l’astrobiologie (par exemple, vis-à-vis d’un cas que notre équipe connaît bien, la recherche sur les météorites au Chili).

Dans le domaine de l’astronomie, à la marge donc des sciences planétaires et de l’astrobiologie, la mise en place des grands observatoires internationaux sur le sol chilien a permis la structuration d’une communauté locale d’astronomes et représente ainsi un bon exemple de début de coopération fructueuse entre le Nord et le Sud global. N’oublions pas de citer aussi le développement remarquable et exemplaire de l’astrobiologie au Mexique, dans les pas des scientifiques mexicains Antonio Lazcano et Rafael Navarro-González, qui démontre qu’une structuration locale indépendante reste possible et peut induire une dynamique positive pour l’ensemble du continent sud-américain.

Toutes ces initiatives restent cependant trop rares ou encore trop déséquilibrées au profit d’un leadership du Nord global et ne peuvent, selon nous, se substituer à une introspection profonde des pratiques de recherche scientifique. Dans un contexte où la légitimité des sciences est contestée, cet effort d’autocritique émanant de la communauté scientifique ne nous semblerait pas superflu.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Décoloniser les pratiques scientifiques : le cas du désert d’Atacama au Chili – https://theconversation.com/decoloniser-les-pratiques-scientifiques-le-cas-du-desert-datacama-au-chili-241954

Santé mentale : en finir avec la stigmatisation des troubles psychiques

Source: The Conversation – in French – By Thibault Jaubert, Chercheur post-doctoral en psychologie sociale et de la santé, Université Savoie Mont Blanc; Université Paris Cité

Les personnes concernées par la dépression, la schizophrénie ou d’autres troubles liés à l’altération de la santé mentale sont victimes de stéréotypes et comportements discriminatoires en raison de leur maladie. La Journée mondiale de la santé mentale du 10 octobre, sous l’égide de l’Organisation mondiale de la santé, est l’occasion de décrypter les causes de cette stigmatisation et de présenter des pistes explorées par la recherche pour la combattre.


Les troubles mentaux correspondent à des altérations de la santé mentale affectant le fonctionnement émotionnel, cognitif et social. Alors qu’on estime que près de la moitié de la population mondiale sera concernée au cours de sa vie dans la prochaine décennie, il faut faire face à un fardeau supplémentaire : la stigmatisation liée aux troubles mentaux.




À lire aussi :
Troubles mentaux : quand la stigmatisation d’aujourd’hui reflète les conceptions d’hier


Être la cible de stigmatisations, c’est faire face à des stéréotypes négatifs, des préjugés et des comportements discriminatoires. Ce sont des freins majeurs à l’accès aux soins et au rétablissement.

Comment expliquer cette stigmatisation ? Et surtout, comment y remédier ? Des pistes concrètes existent.

Troubles mentaux et stigmatisation : un phénomène préoccupant et impactant

La stigmatisation des troubles mentaux pousse de nombreuses personnes concernées à minimiser ou à dissimuler leur condition, par crainte d’être jugées ou rejetées.

Contrairement à d’autres formes de handicap qualifiées de visibles, les troubles mentaux sont souvent peu apparents, ce qui les rend faciles à dissimuler. En parallèle, cette stigmatisation peut s’intérioriser, et les personnes ayant un trouble mental peuvent parfois intégrer les stéréotypes qui les visent.

Connu sous le terme d’« auto-stigmatisation », cet effet « Why try » (« À quoi bon essayer ») amène les personnes à se sentir incapables de changer leur condition. Ses conséquences ont un coût important pour les personnes concernées en retardant le recours aux soins, le rétablissement, mais aussi en favorisant l’isolement social.

Lutter contre la stigmatisation des personnes ayant un trouble mental représente un levier stratégique pour la mise en œuvre d’interventions à large échelle. Ce combat participe donc d’un défi en santé publique, au même titre que l’amélioration des parcours de soins, l’innovation thérapeutique (non médicamenteuse comme pharmacologique) et la mise en place d’actions de promotion et de prévention (comme préconisée par la « Feuille de route Santé mentale et psychiatrie, 2018 »).

Cela s’inscrit dans un contexte où les coûts – autant humains (personnels et familiaux), sociaux qu’économiques – sont considérables. En France, le coût annuel direct et indirect des troubles mentaux avait ainsi été estimé à 163 milliards d’euros pour l’année 2018.

D’où vient la stigmatisation des troubles mentaux ?

Une première cause de stigmatisation réside dans l’ensemble des croyances que les individus entretiennent vis-à-vis des troubles mentaux. Deux prédominent dans l’opinion publique : l’idée selon laquelle les individus ayant un trouble mental seraient responsables de leur trouble ; et le fait que les troubles mentaux sont perçus comme plus dangereux.

Par exemple, les personnes concernées par des troubles de l’humeur comme la dépression sont perçues comme ne parvenant pas ou ne faisant pas suffisamment d’efforts pour contrôler leurs pensées, leurs émotions ou leurs actions. Les troubles psychotiques, tels que la schizophrénie, sont associés à un risque perçu de violence ou de comportement imprévisible.

Ces croyances favorisent des émotions négatives, comme la peur ou la colère, ce qui encourage les comportements discriminatoires à l’égard des personnes ayant un trouble mental.

Lutter contre les croyances et développer des compétences socioaffectives

Les interventions qui promeuvent une compréhension de la complexité des troubles – incluant des causes biologiques, psychologiques et sociales – peuvent contribuer à remettre en question ces croyances.

Ce levier permet de déconstruire le stéréotype selon lequel les individus seraient responsables de leur état de santé mentale ou pourraient en sortir par un simple effort de volonté. Sensibiliser sur le rôle des facteurs, tels que les traumatismes précoces, les vulnérabilités économiques et sociales et les causes génétiques, aide à déconstruire les idées erronées d’autoresponsabilité et de dangerosité.

Au-delà des croyances, une seconde cause de stigmatisation tient aux compétences socioaffectives. Entre autres, le fait de ressentir de l’anxiété, de ne pas percevoir suffisamment de similarité et d’empathie envers les personnes ayant des troubles mentaux sont des facteurs favorisant la stigmatisation. Cela traduit souvent une difficulté à se représenter l’expérience vécue par les personnes concernées, à reconnaître leurs émotions et leurs besoins.

Les interventions encourageant le contact direct ou indirect avec des personnes ayant un trouble mental s’avèrent efficaces à court et moyen terme pour diminuer la stigmatisation. Leur potentiel s’explique par le fait qu’elles favorisent le développement de ces compétences. Cependant, des recherches sont nécessaires pour en évaluer les effets à long terme.

Explorer les atouts de la réalité virtuelle

Enfin, la réalité virtuelle s’affiche comme un autre levier d’action innovant. Elle permet aux individus de s’immerger dans des simulations interactives qui reproduisent des expériences associées à certains troubles mentaux (hallucinations auditives, épisodes anxieux).

Des recherches sont encore nécessaires. Mais si ses atouts étaient confirmés, la réalité virtuelle pourrait renforcer la compréhension de ce que signifie vivre avec un trouble mental au quotidien. Ces environnements immersifs semblent en effet réduire la stigmatisation sans nécessiter un contact direct réel.

Adapter les interventions de déstigmatisation aux contextes et aux publics

Il est important de préciser que l’efficacité des interventions de lutte contre la stigmatisation dépend évidemment de plusieurs facteurs, dont leur adéquation au contexte et aux publics visés. Les programmes de sensibilisation combinant connaissances et savoirs sont adaptés aux plus jeunes puisqu’ils sont peu coûteux, facilement intégrables en contexte scolaire, et semblent produire des effets chez les 10-19 ans.

Pour assurer leur efficacité, ces initiatives doivent être menées par des professionnels de santé, ou bien des enseignants ou personnes concernées expertes dûment formées. Auprès des adultes en revanche, les approches fondées sur le contact direct et mobilisant l’empathie apparaissent plus pertinentes.

Alors que certaines représentations, notamment dans les œuvres de science-fiction ou les faits divers médiatisés, véhiculent des messages caricaturaux et alarmistes qui renforcent certaines croyances, les ressources numériques et culturelles peuvent jouer un rôle dans la diffusion de représentations plus nuancées et inclusives des troubles.

De plus, la prise de parole de personnalités participe à la normalisation du sujet dans l’espace public au travers d’initiatives, telles que Pop & Psy. Des plateformes d’information, comme Psycom ou Santé mentale-Info service, facilitent l’accès à des contenus informatifs et de premières ressources accessibles au plus grand nombre.

Un enjeu d’inclusion sociale et de santé publique

La stigmatisation de la santé mentale soulève des enjeux relatifs à l’inclusion des personnes confrontées à diverses formes de vulnérabilité, et interroge plus largement les conditions de notre vivre-ensemble. En ce sens, déstigmatiser les troubles mentaux ne relève pas d’une simple sensibilisation individuelle, mais constitue un enjeu d’inclusion sociale et de santé publique.

Pour être efficaces, les politiques de lutte contre la stigmatisation doivent adopter une approche combinant la diffusion de connaissances sur les déterminants de la santé mentale, les initiatives fondées sur l’expérience (comme le contact direct ou la réalité virtuelle), tout en impliquant l’action coordonnée des acteurs éducatifs, médiatiques, et ceux de la santé.


Nicolas Rainteau, psychiatre au Centre hospitalier spécialisé de la Savoie, spécialiste de la réhabilitation psycho-sociale, membre associé à l’Université Savoie-Mont-Blanc, est coauteur de cet article.

The Conversation

Thibault Jaubert a reçu des financements de Fondation ARHM et Chaire BEST Santé Mentale.

Arnaud Carre a reçu des financements de la Fondation Université Savoie Mont Blanc.

Annique Smeding ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Santé mentale : en finir avec la stigmatisation des troubles psychiques – https://theconversation.com/sante-mentale-en-finir-avec-la-stigmatisation-des-troubles-psychiques-266436

De Byzance à nos tables : l’étonnante histoire de la fourchette, entre moqueries, scandales et châtiment divin

Source: The Conversation – in French – By Darius von Guttner Sporzynski, Historian, Australian Catholic University

Banquet du duc de Lancaster Jean de Gand (1340-1399), prétendant au trône de Castille, (à gauche) et du roi de Portugal et de l’Algarve Jean&nbsp;I<sup>er</sup> (1385-1433) (au centre), lors des négociations qui aboutiront au traité de Windsor (_Chronique d’Angleterre_, vol. 3, fin du XIVᵉ siècle). Wikimedia Commons

Née dans l’Empire byzantin, adoptée en Italie puis diffusée en Europe grâce à des mariages royaux et à l’influence de grandes reines, comme Bonne Sforza (1494-1557) ou Catherine de Médicis (1519-1589), la fourchette est devenue au fil des siècles un symbole de propreté, de civilité et de raffinement.


Aujourd’hui, on prend à peine conscience de saisir une fourchette. Elle fait partie d’un service de couverts standard, aussi indispensable que l’assiette elle-même. Mais il n’y a pas si longtemps, cet ustensile désormais bien banal était accueilli avec méfiance et moquerie, allant jusqu’à causer un scandale.

Il a fallu des siècles, des mariages royaux et une pointe de rébellion culturelle pour que la fourchette passe des cuisines de Constantinople (l’actuelle Istanbul) aux tables d’Europe.

Un ustensile scandaleux

Les premières versions de la fourchette ont été retrouvées dans la Chine de l’âge du bronze et dans l’Égypte antique, bien qu’elles aient probablement servi surtout à la cuisson et au service des aliments. Les Romains disposaient de fourchettes élégantes en bronze et en argent, mais là encore principalement pour la préparation des repas.

Une fourchette verte à deux dents
Fourchette de service en bronze de la Rome antique, vers le IIᵉ et le IIIᵉ siècle de notre ère.
Metropolitan Museum of Art

Manger avec une fourchette – surtout une petite fourchette personnelle – restait rare. Au Xe siècle, les élites byzantines l’utilisaient librement, choquant leurs invités venus d’Europe occidentale. Et vers le XIe siècle, la fourchette de table commença à faire son apparition lors des repas à travers l’Empire byzantin.

Fourchettes en bronze fabriquées en Perse (VIIIᵉ-IXᵉ siècles).
Wikimedia

En 1004, Maria Argyropoulina (985–1007), sœur de l’empereur Romanos III Argyros, épousa le fils du Doge de Venise et provoqua un scandale en refusant de manger avec ses doigts. Elle se servait d’une fourchette en or. Plus tard, le théologien Pierre Damien (1007–1072) déclara que la vanité de Maria, qui utilisait des « fourchettes en métal artificiel » au lieu des doigts donnés par Dieu, avait provoqué le châtiment divin de sa mort prématurée, survenue dans sa vingtaine.

Pourtant, au XIVe siècle, la fourchette était devenue courante en Italie, en partie grâce à l’essor des pâtes. Il était beaucoup plus facile de manger des filaments glissants avec un instrument à dents qu’avec une cuillère ou un couteau. L’étiquette italienne adopta rapidement la fourchette, surtout parmi les riches marchands. Et c’est par cette classe aisée que la fourchette fut introduite dans le reste de l’Europe au XVIe siècle, grâce à deux femmes.

Le rôle de Bonne Sforza

Née dans les puissantes familles Sforza de Milan et d’Aragon de Naples, Bonne Sforza (1494–1557) grandit dans un monde où les fourchettes étaient utilisées et, mieux encore, à la mode. Sa famille était rompue aux raffinements de l’Italie de la Renaissance : l’étiquette de cour, le mécénat artistique, l’habillement ostentatoire pour hommes et femmes, et les repas élégants.

Lorsqu’elle épousa Sigismond Iᵉʳ, roi de Pologne et grand-duc de Lituanie en 1518, devenant reine, elle arriva dans une région où les usages à table étaient différents. L’usage des fourchettes y était largement inconnu.

Fourchettes, cuillères et bols fabriqués à Venise, au XVIᵉ siècle.
The Trustees of the British Museum, CC BY-NC-SA

Dans les cours de Lituanie et de Pologne, l’usage des couverts restait limité. Cuillères et couteaux servaient pour les soupes, les ragoûts et la découpe de la viande, mais la plupart des aliments étaient consommés avec les mains, aidés de pain ou de « tranchoirs » – de grosses tranches de pain rassis servant à absorber les jus des plats.

Cette méthode, à la fois économique et profondément ancrée dans les traditions culinaires de la noblesse, reflétait une étiquette sociale où les plats communs et le repas partagé étaient la norme. La cour de Bonne introduisit les manières italiennes dans la région, apportant davantage de légumes, du vin italien et, surtout, la fourchette de table.

Si son usage était probablement limité au départ aux occasions formelles ou aux cérémonies de cour, il fit forte impression. Au fil du temps, et surtout à partir du XVIIe siècle, la fourchette se généralisa parmi la noblesse de Lituanie et de Pologne.

Catherine de Medicis et la France

Catherine de Médicis (1519–1589) naquit au sein de la puissante famille florentine des Médicis, nièce du pape Clément VII. En 1533, à l’âge de 14 ans, elle épousa le futur Henri II de France dans le cadre d’une alliance politique entre la France et la papauté, quittant ainsi l’Italie pour rejoindre la cour de France.

Catherine de Médicis introduisit les fourchettes en argent et les usages culinaires italiens à la cour.

Comme pour Bonne Sforza, ces nouveautés faisaient partie de son trousseau. Elle arriva d’Italie avec des cuisiniers, des pâtissiers, des parfumeurs, mais aussi des artichauts, des truffes et une vaisselle raffinée. Son sens culinaire contribua à transformer les repas de cour en véritables spectacles.

Si la légende a sans doute amplifié son influence, de nombreux plats aujourd’hui considérés comme emblématiques de la cuisine française trouvent en réalité leur origine dans sa table italienne : la soupe à l’oignon, le canard à l’orange ou encore le sorbet.

Une fourchette italienne du XVᵉ siècle.
The Met

La « bonne façon » de manger

Voyageur insatiable, Thomas Coryate (1577–1617) rapporta au début du XVIIe siècle des récits d’Italiens utilisant des fourchettes, une pratique qui paraissait encore ridiculement affectée dans son pays.

En Angleterre, l’usage de la fourchette au début du XVIIe siècle passait pour un signe de prétention. Même au XVIIIe siècle, on considérait qu’il était plus viril et plus honnête de manger avec un couteau et les doigts.

Mais à travers l’Europe, le changement était en marche. La fourchette commença à être perçue non seulement comme un ustensile pratique, mais aussi comme un symbole de propreté et de raffinement.

En France, elle devint un reflet de la civilité de cour. En Allemagne, les fourchettes spécialisées se multiplièrent aux XVIIIe et XIXe siècles : pour le pain, les cornichons, la glace ou le poisson.

En Angleterre, son usage finit par devenir un marqueur social : la « bonne façon » de la tenir distinguait les gens polis des malappris.

Vieil homme assis sur un tabouret avec une poêle et une fourchette (1888), du peintre belge Jos Ratinckx (1860-1937).
Rijksmuseum

Avec l’essor de la production de masse au XIXe siècle, l’acier rendit les couverts abordables et la fourchette devint omniprésente. À cette époque, le débat ne portait plus sur la question d’en utiliser une, mais sur la manière correcte de s’en servir. Les manuels de savoir-vivre dictaient désormais les règles : pas question de ramasser les aliments comme avec une cuillère, ni de les piquer sauvagement, et toujours tenir la fourchette dents vers le bas.

Il fallut des scandales, des toquades royales et des siècles de résistance pour que la fourchette s’impose à table. Aujourd’hui, il est presque impossible d’imaginer manger sans elle.

The Conversation

Darius von Guttner Sporzynski ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. De Byzance à nos tables : l’étonnante histoire de la fourchette, entre moqueries, scandales et châtiment divin – https://theconversation.com/de-byzance-a-nos-tables-letonnante-histoire-de-la-fourchette-entre-moqueries-scandales-et-chatiment-divin-266608