Mobilisation de recettes vs inclusion financière : le dilemme de la taxation du mobile money au Sénégal

Source: The Conversation – in French – By Awa Diouf, chercheure, Institute of Development Studies, Institute of Development Studies

En Afrique, le mobile money – défini comme “un service transactionnel axé sur les téléphones mobiles qui peut être transmis par voie électronique en utilisant les réseaux mobiles” – a contribué à réduire la pauvreté, renforcer la résilience des ménages aux chocs et soutenir l’activité économique. Un succès qui attire l’attention des gouvernements. Une quinzaine de pays, la plupart en période de fortes contraintes budgétaires, ont introduit des taxes spécifiques sur les Services financiers numériques (SFN). Leur rendement, en moyenne de 1 à 3 % des recettes fiscales totales, reste modeste mais non négligeable pour des budgets fragiles.

En septembre 2025, le Sénégal a lui-même adopté une taxe de 0,5 % sur les paiements, les transferts et les retraits (voir tableau).

J’ai étudié la taxation des SFN en Afrique. Cette mesure ciblant trois des quatre opérations principales, soulève des questions sur les effets potentiels pour l’inclusion financière, les ménages vulnérables et l’équilibre entre transferts formels et informels.

Effets sur l’inclusion financière et les ménages à faibles revenus

Le caractère abordable du mobile money constitue un facteur central d’adoption des services. Ainsi, l’introduction de taxes spécifiques renchérit ces services et peut affecter l’inclusion financière, notamment des ménages pauvres. Ces derniers supportent un fardeau fiscal proportionnellement plus lourd, ce qui peut conduire à un retour au cash ou à l’informel.

Les expériences africaines montrent que ces taxes ont souvent un effet régressif. Au Kenya, l’instauration d’un droit d’accise en 2013 a ralenti la croissance des usages taxés, notamment les envois entre ménages, avec un impact marqué sur les foyers pauvres et nombreux.

En Ouganda, la taxe de 2018 sur la valeur des transactions a provoqué une baisse de plus de 50 % des transferts de personne à personne dès les premiers mois, avant d’être révisée pour ne viser que les retraits. Au Ghana la taxe a entraîné un recul immédiat des transactions et un rejet populaire massif. Malgré une réduction du taux et un recouvrement progressif du taux d’utilisation, la perception négative est restée dominante et la taxe a finalement été supprimée en Avril 2025, après le changement de régime.

Les opérateurs subissent également des pertes. Au Ghana, ils estiment que les baisses initiales de chiffre d’affaires restent irrécupérables, même après un redressement partiel de l’activité. Au Cameroun, la taxe a diminué la rentabilité de l’activité des agents de mobile money.

Les risques de basculement vers l’informel

Les SFN jouent un rôle clé dans la formalisation économique. L’administration publique peut ainsi avoir une meilleure visibilité sur les flux financiers, élargir l’assiette fiscale et renforcer le contrôle des transactions.

Au Sénégal, la taxe de 0,5 % s’applique aux paiements, transferts et retraits, avec une exonération des dépôts en numéraires et un plafond pour les transferts et retraits. Cette configuration crée une incitation forte à contourner le système. En taxant trop largement les transactions formelles, l’État risque d’encourager le retour aux circuits parallèles et au cash. Ces pratiques pourraient ainsi réduire la traçabilité et affaiblissent les efforts de formalisation.

L’expérience du Ghana avec l’E-Levy illustre ce phénomène : près de la moitié des usagers interrogés déclaraient avoir adopté le cash comme principale stratégie d’adaptation à la taxe. En Ouganda, les opérateurs ont plaidé pour concentrer la taxation sur les retraits plutôt que sur les paiements afin de préserver l’usage numérique.

Le Sénégal, en choisissant de taxer à la fois les retraits et les paiements, neutralise cet effet. En dessous du seuil de 20 000 francs CFA (31 dollars US), il est devenu plus abordable de faire un retrait (gratuit) et de payer en espèces (gratuit). Quand la taxe dépasse 2000 francs CFA (3 dollars US), il est également plus abordable de faire un retrait (payer 2000 francs CFA) et payer en espèces (gratuit) plutôt que de faire un paiement électronique pour lequel la taxe n’est pas plafonnée à 2000 francs CFA.

Que retenir ?

Il faut élargir l’assiette fiscale sans compromettre l’inclusion financière.

La nouveauté des taxes sur les SFN rend leur forme adéquate encore incertaine, mais l’expérience des autres pays africains fournit des enseignements utiles.

Les exonérations rendent les taxes sur les SFN moins régressives afin de mieux protéger les populations défavorisées. Or, la réforme sénégalaise ne prévoit aucun seuil d’exonération pour les paiements et transferts, alors même que les virements bancaires en sont exclus.

L’incitation à la formalisation passe pourtant par une orientation de la taxe vers les retraits et une exonération des paiements. C’était l’esprit de la réforme ghanéenne, où l’exonération des paiements marchands visait à inciter usagers et commerçants à rester dans les circuits formels.

Par ailleurs, taxer modestement les commissions des opérateurs semble mieux toléré par les utilisateurs, même si cette forme peut être plus régressive en raison de l’importance relative des commissions pour les plus faibles transactions. Au Sénégal, les opérateurs prônent une approche semblable au modèle ivoirien en proposant une taxe sur leur chiffre d’affaires. Ils suggèrent une contribution de 2,5 % pendant trois ans au lieu de taxer les utilisateurs.

L’expérience de l’Ouganda, où un processus inefficace et non inclusif a provoqué une période d’adaptation inutile et des révisions fréquentes de la législation, montre l’importance de la concertation avec les acteurs du secteur. Les États doivent accompagner toute réforme d’études rigoureuses, de prévisions réalistes et d’un suivi attentif. Au Ghana, des projections trop optimistes ont conduit à n’atteindre que 12 % des recettes prévues.

Ces expériences démontrent qu’il n’existe pas de modèle unique. Comme en Tanzanie, en Ouganda ou au Ghana, les pays doivent rester ouverts aux ajustements en fonction des réactions et des conséquences. Les perceptions et sentiments des parties prenantes sont essentiels pour guider l’adhésion, et une communication claire peut faire la différence.

The Conversation

Awa Diouf does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Mobilisation de recettes vs inclusion financière : le dilemme de la taxation du mobile money au Sénégal – https://theconversation.com/mobilisation-de-recettes-vs-inclusion-financiere-le-dilemme-de-la-taxation-du-mobile-money-au-senegal-266811

La Fête de la science 2025 met toutes les intelligences à l’honneur

Source: The Conversation – in French – By Laurent Bainier, Directeur de la rédaction The Conversation France, The Conversation

Il est entre parenthèses mais il donne tout son sens au thème. En ajoutant un « s » au thème de son édition 2025, la Fête de la science (dont The Conversation est cette année encore partenaire) nous propose d’explorer toutes les formes d’intelligence.

Dans notre dossier spécial, vous trouverez donc aussi bien des articles sur l’IA, sur l’intelligence culturelle ou celle des animaux.

Mais en vidéo, cette année, nous avons voulu mettre l’accent sur deux formes bien spécifiques d’intelligence.

Tout d’abord celle qui permet de lutter contre la bêtise humaine. En poussant les portes d’Inria, nous avons découvert les travaux de Célia Nouri, doctorante en intelligence artificielle, à la croisée du traitement automatique du langage et des sciences sociales. Elle développe des modèles de détection prenant en compte le contexte social et communautaire des propos haineux, modèle qui servent à mieux lutter contre le harcèlement en ligne.

Le Cnes nous a également ouvert ses portes et avec elles, l’horizon de nos préoccupations. Jacques Arnould, théologien et spécialiste en éthique du centre national d’études spatiales, il nous encourage à réfléchir aux intelligences extraterrestres. Si demain nous devions en rencontrer, comment arriverions-nous à leur faire reconnaître notre intelligence ? Des pistes de réponse dans cette vidéo.

Jacques Arnould, expert du Cnes en matière d’éthique.

The Conversation

ref. La Fête de la science 2025 met toutes les intelligences à l’honneur – https://theconversation.com/la-fete-de-la-science-2025-met-toutes-les-intelligences-a-lhonneur-267147

Un robot m’a pris mon stage : l’impact de l’IA sur l’entrée des jeunes dans le monde du travail

Source: The Conversation – in French – By Melise Panetta, Lecturer of Marketing in the Lazaridis School of Business and Economics, Wilfrid Laurier University

Pendant longtemps, l’expression « le robot m’a pris mon emploi » évoquait des machines dans les usines. Aujourd’hui, la génération Z fait face à un nouveau défi : l’IA s’invite dans les stages et les postes d’entrée.

Les stages et les emplois débutants ont toujours constitué un tremplin prévisible vers le monde du travail, en offrant aux nouveaux employés l’expérience et les compétences nécessaires à leur développement professionnel à long terme.

Mais à mesure que l’intelligence artificielle (IA) se répand dans tous les coins du monde du travail moderne, ces postes sont susceptibles d’être remplacés par l’automatisation.


25-35 ans : vos enjeux, est une série produite par La Conversation/The Conversation.

Chacun vit sa vingtaine et sa trentaine à sa façon. Certains économisent pour contracter un prêt hypothécaire quand d’autres se démènent pour payer leur loyer. Certains passent tout leur temps sur les applications de rencontres quand d’autres essaient de comprendre comment élever un enfant. Notre série sur les 25-35 ans aborde vos défis et enjeux de tous les jours.

Les postes d’entrée impliquent généralement des tâches peu complexes et fréquentes, telles que la saisie de données, la planification ou la rédaction de rapports, tâches que l’IA générative peut accomplir à un coût nettement inférieur et plus rapidement qu’un être humain. Cela signifie presque certainement une diminution du nombre d’échelons traditionnels au bas de l’échelle professionnelle.

Nous en constatons déjà les effets : les emplois de premier échelon se font plus rares, les candidats étant confrontés à une augmentation de 14 % du nombre de candidatures par poste, selon LinkedIn.

L’IA transforme le monde du travail

L’intégration de l’IA dans tous les secteurs est en train de remodeler fondamentalement le marché du travail.

Près de la moitié des professionnels craignent que l’IA ne remplace leur emploi. Et ils ont de bonnes raisons de s’inquiéter : d’ici 2030, on estime que près de 30 % des tâches pourraient être automatisées par l’IA générative.

Par ailleurs, près des deux tiers des cadres se disent prêts à utiliser des outils d’IA pour augmenter la productivité, au risque de réduire les effectifs. À l’inverse, seul un cadre sur trois est prêt à conserver son personnel au détriment d’une productivité attendue plus élevée.

On prévoit également que la diminution des postes traditionnels de niveau débutant ou junior dans des secteurs tels que la restauration, le service à la clientèle, la vente et le soutien administratif pourrait représenter près de 84 % des changements professionnels attendus d’ici 2030.

Pénurie de talents et de postes d’entrée à l’avenir

Les données sur l’IA et l’avenir du travail soulignent également un autre problème potentiel : la pénurie de talents pour certaines compétences. Un rapport publié en 2024 par Microsoft et LinkedIn révèle que les dirigeants s’inquiètent de la pénurie dans des domaines tels que la cybersécurité, l’ingénierie et la conception créative.

Bien que ces données puissent sembler contradictoires, elles indiquent qu’outre la diminution du nombre de postes de débutants disponibles, des changements dans les rôles et les compétences sont également à prévoir.

En conséquence, la concurrence pour les postes de débutants devrait s’intensifier, et les candidats capables d’utiliser des outils d’IA pour améliorer leur productivité et leur efficacité seront davantage valorisés.

Au lieu de simplement supprimer des postes, de nombreux emplois se transforment pour exiger de nouvelles compétences. Il existe également une demande croissante de talents spécialisés dans les domaines où l’IA ne peut pas encore augmenter pleinement les capacités humaines.

La maîtrise de l’IA est la nouvelle condition d’entrée

À mesure que l’IA se généralise dans le monde du travail, les postes « débutants » ne consistent plus seulement à accomplir des tâches de base, mais aussi à savoir travailler efficacement avec les nouvelles technologies, y compris l’IA.

Les employeurs commencent à accorder une grande importance à la maîtrise de l’IA. Deux tiers des cadres affirment qu’ils n’embaucheraient pas une personne sans compétences en IA et 71 % déclarent qu’ils préféreraient un candidat moins expérimenté, mais possédant des compétences en IA à un candidat plus expérimenté, mais qui n’en possède pas.

Avec moins de postes de débutants disponibles, les jeunes travailleurs devront trouver comment se démarquer sur un marché du travail concurrentiel. Mais malgré ces défis, la génération Z est peut-être la mieux placée pour s’adapter à ces changements.

En tant que natifs du numérique, de nombreux membres de la génération Z intègrent déjà des outils d’IA dans leur travail. Un rapport de LinkedIn et Microsoft a révélé que 85 % d’entre eux utilisent des outils d’IA tels que ChatGPT ou Copilot sur leur lieu de travail, ce qui indique qu’ils sont à la fois à l’aise et désireux d’utiliser cette technologie.

Cette tendance reflète des tendances plus générales au sein de la population active. Un rapport a révélé que 76 % des professionnels estiment avoir besoin de compétences liées à l’IA pour rester compétitifs. Ce même rapport de Microsoft et LinkedIn a révélé une augmentation de 160 % des cours de formation à l’IA.

Cette importance croissante accordée aux compétences en IA s’inscrit dans une tendance plus large vers le « renforcement des compétences », c’est-à-dire le processus qui consiste à améliorer ses compétences pour s’adapter à l’évolution du marché du travail. Aujourd’hui, l’amélioration des compétences consiste à apprendre à utiliser l’IA pour améliorer, accélérer et renforcer ses performances sur le lieu de travail.

Un nouveau type d’emploi de premier échelon

Étant donné que la maîtrise de l’IA devient une compétence professionnelle essentielle, il est important de pouvoir se présenter comme un candidat possédant des compétences en IA pour se démarquer sur un marché de l’emploi de premier échelon très concurrentiel. Cela implique de savoir utiliser les outils d’IA, d’évaluer leurs résultats de manière critique et de les appliquer dans un contexte professionnel. Cela signifie également apprendre à présenter ses compétences en IA sur un CV et lors d’entretiens.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous aujourd’hui à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Les employeurs ont également un rôle à jouer dans tout cela. S’ils veulent attirer et retenir des employés, ils doivent repenser les postes d’entrée. Au lieu de les supprimer, ils devraient se recentrer sur des activités à plus forte valeur ajoutée qui nécessitent un esprit critique ou de la créativité. Ce sont là les domaines dans lesquels les humains surpassent les machines et où l’IA peut servir de soutien plutôt que de remplacement.

Mais pour que cela fonctionne, les employeurs doivent réévaluer leurs pratiques d’embauche afin de privilégier la maîtrise de l’IA et le savoir-faire transférable plutôt que des exigences d’expérience dépassées.

L’avenir du travail ne réside pas dans le remplacement des humains par les robots, mais dans l’apprentissage de la technologie pour renforcer les compétences et ouvrir de nouvelles voies vers l’emploi.

La Conversation Canada

Melise Panetta ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Un robot m’a pris mon stage : l’impact de l’IA sur l’entrée des jeunes dans le monde du travail – https://theconversation.com/un-robot-ma-pris-mon-stage-limpact-de-lia-sur-lentree-des-jeunes-dans-le-monde-du-travail-266134

Le genre sous algorithmes : pourquoi tant de sexisme sur TikTok et sur les plateformes ?

Source: The Conversation – in French – By Hélène Bourdeloie, Sociologue, maîtresse de conférences en sciences de l’information et de la communication, Université Sorbonne Paris Nord; Centre national de la recherche scientifique (CNRS)

Le rapport de la commission parlementaire sur les effets psychologiques de TikTok sur les mineurs montre notamment que la plateforme laisse proliférer des contenus aggravant les stéréotypes de genre.

Au-delà de ses effets délétères sur la santé mentale des jeunes, le récent rapport de la commission parlementaire sur TikTok montre que la plateforme laisse proliférer des contenus sexistes, valorisant le masculin et dénigrant le féminin. Une occasion de s’interroger sur les mécanismes qui, au cœur des plateformes numériques, amplifient les stéréotypes de genre, bien loin des promesses émancipatrices portées par l’essor de l’Internet grand public des années 1990.


Alex Hitchens est un influenceur masculiniste, coach en séduction, actuellement fort de 719 000 abonnés sur TikTok. Son effarant succès est emblématique du rôle des algorithmes de recommandation dans l’amplification des discours réactionnaires. La récente commission d’enquête parlementaire sur les effets psychologiques de TikTok a donc logiquement convoqué l’influenceur star – parmi plusieurs autres aux discours tout aussi douteux – pour l’entendre en audition. Et le 11 septembre 2025, elle a rendu son rapport. Celui-ci met clairement en cause la responsabilité des algorithmes des plateformes dans la diffusion de contenus problématiques aggravant les stéréotypes de genre




À lire aussi :
TikTok et les jeunes : rentabilité et fabrique du mal-être


Cette réalité s’inscrit dans un contexte plus large renvoyant à l’état du sexisme et des inégalités entre les hommes et les femmes dans toutes les sphères de la société. Ainsi, le Baromètre sexisme 2023 du Haut conseil à l’égalité (HCE) signale la présence d’une nouvelle vague d’antiféminisme. On y apprend que 33 % des hommes considèrent que le féminisme menace leur place et rôle dans la société, et 29 % d’entre eux estiment être en train de perdre leur pouvoir.

L’Internet émancipateur, une promesse déçue

De telles données ne sont pas sans interroger la promesse émancipatrice des débuts de l’Internet. Loin d’être un espace neutre, à l’intersection du technique et du social, l’Internet est en effet sans cesse modelé par des décisions humaines, des choix politiques et des logiques économiques. Celles-ci influencent nos usages et nos comportements, qu’il s’agisse de nos manières de construire notre identité de genre (selfies, filtres, mise en scène de la féminité/masculinité), de nos pratiques relationnelles et amoureuses (applications de rencontre, codes de séduction numérique), ou encore de notre rapport au corps et à l’intimité.

Alors qu’il était censé nous libérer de normes contraignantes, l’Internet semble finalement renforcer l’ordre patriarcal en laissant proliférer des stéréotypes qui valorisent le masculin et dénigrent le féminin. En favorisant la circulation de discours qui présentent des caractéristiques prétendument féminines comme biologiques, l’Internet peut contribuer à confondre sexe et genre, à naturaliser les différences de genre, et par conséquent à essentialiser les femmes et à les inférioriser.

Les chiffres du rapport du HCE sur l’invisibilité des femmes dans le numérique sont à ce titre plus qu’éloquents. A partir de l’analyse des 100 contenus les plus vus sur YouTube, TikTok et Instagram, il établit que sur Instagram, plus des deux tiers de ces contenus (68 %) véhiculent des stéréotypes de genre, tandis qu’un quart (27 %) comprend des propos à caractère sexuel et près d’un cinquième (22 %) des propos sexistes. TikTok n’échappe pas à cette tendance avec 61 % de vidéos exposant des comportements masculins stéréotypés et 42,5 % des contenus humoristiques et de divertissement proposant des représentations dégradantes des femmes.

Fin de l’utopie cyberféministe

Aux débuts de l’Internet grand public des années 1990, héritier de l’utopie technoculturelle des années 1960-1970, on pouvait penser que cette technologie redistribuerait les cartes en matière de genre, classe ou race. Le numérique promettait plus d’horizontalité, de fluidité, d’anonymat et d’émancipation.

Dans une perspective cyberféministe, ces espaces numériques étaient vus comme des moyens de dépasser les normes établies et d’expérimenter des identités plus libres, l’anonymat permettant de se dissocier du sexe assigné à la naissance.

Si plusieurs travaux ont confirmé cette vision émancipatrice de l’Internet – visibilité des minorités, expression des paroles dominées, levier de mobilisation – une autre face de l’Internet est venue ternir sa promesse rédemptrice.

Dans les années 2000, avec la montée en puissance des logiques marchandes, les Big Tech de la Silicon Valley – et en particulier les Gafam (Google, Apple, Facebook/Meta, Amazon, Microsoft) – ont pris le contrôle du réseau et cet espace décentralisé, ouvert et commun, est devenu la propriété économique de quelques entreprises. L’Internet a pris une autre forme : oligopolistique, verticale et néolibérale.

Banalisation des discours sexistes

Aujourd’hui, les plateformes numériques, à commencer par les réseaux sociaux, cherchent à capter et retenir l’attention des internautes pour la convertir en revenus publicitaires ciblés. Cette logique est notamment poussée par des plateformes, comme TikTok, qui, en personnalisant les fils d’actualité des utilisateurs, tendent à valoriser les contenus sensationnalistes ou viraux, qui suscitent un temps de visionnage accru, à l’exemple des contenus hypersexualisés.

Dès lors, si le sexisme n’est pas né avec le numérique, les algorithmes des plateformes offrent néanmoins un terreau favorable à sa prolifération.

Les plateformes (avec leurs filtres, formats courts, mécanismes de partage, systèmes de recommandation… – à l’exemple du filtre « Bold Glamour » de TikTok, censé embellir les visages sur la base de standards irréalistes et genrés) contribuent à perpétuer et amplifier les biais de genre et sexistes, voire à favoriser la haine et la misogynie chez les jeunes.

Une étude universitaire de 2024 illustre bien la manière dont les utilisateurs de TikTok sont surexposés aux contenus sexistes. Pour observer cela, des chercheuses et chercheurs ont créé des profils fictifs de garçons adolescents. Après seulement cinq jours, ils ont constaté que le niveau de contenus misogynes présentés sur les fils « Pour toi » de ces profils avait été multiplié par quatre, révélant un biais structurel dans le système de recommandation de TikTok.

La plateforme n’est dès lors pas seulement le miroir de clivages de sexe, mais aussi le symptôme du pullulement et de la banalisation des discours sexistes. Cette idéologie, enracinée dans les sous-cultures numériques phallocrates rassemblée sous le nom de « manosphère » et passant désormais des écrans aux cours de récréation, n’a pas de frontière.




À lire aussi :
« Manosphère » : ce que les parents doivent savoir pour en parler avec leurs enfants


TikTok et les attentes genrées

Concernant TikTok, le rapport de 2023 du HCE sur l’invisibilité des femmes dans le numérique est on ne peut plus clair. Il montre que la plateforme privilégie structurellement les contenus correspondant aux attentes genrées les plus convenues. Les corps féminins normés, les performances de genre ou représentations stéréotypées, comme celle de la femme réservée, hystérique ou séductrice, y sont ainsi surreprésentées. En fait, les grandes plateformes les représentent sous un angle qui les disqualifie. Cantonnées à l’espace domestique ou intime, elles incarnent des rôles stéréotypés et passifs liés à la maternité ou l’apparence. Leurs contenus sont perçus comme superficiels face à ceux des hommes jugés plus légitimes, établissant une hiérarchie qui reproduit celle des sexes.

On se souvient ainsi du compte TikTok « @abregefrere ». Sous couvert de dénoncer le temps perdu sur les réseaux sociaux, ce compte s’amusait à résumer en une phrase le propos de créateurs et créatrices de contenus, le plus souvent issus de femmes. Créant la polémique, son succès a entraîné une vague de cyberharcèlement sexiste, révélateur d’une certaine emprise du masculinisme.




À lire aussi :
#SkinnyTok, la tendance TikTok qui fait l’apologie de la maigreur et menace la santé des adolescentes


De telles représentations exacerbent les divisions genrées et les clivages entre communautés en ligne. Sur TikTok, est ainsi né Tanaland, un espace virtuel exclusivement féminin, pensé comme un renversement du stigmate associé à l’insulte misogyne « tana » (contraction de l’espagnol « putana »), et destiné à se protéger du cybersexisme. En miroir, a été créé Charoland, pays virtuel peuplé de femmes nues destinées à satisfaire le désir masculin ; une polarisation qui opère non seulement au détriment des femmes, mais aussi des hommes qui contestent le patriarcat.

Des effets délétères en termes d’inégalités et d’image de soi

Comme en témoigne le rapport 2025 du HCE, ce contexte peut conduire à polariser les enjeux d’égalité de genre et, ce faisant, à renforcer les inégalités et violences.

Ce sont ainsi les femmes et les minorités qui restent les plus exposées à la cyberviolence et au cyberharcèlement. Selon l’ONU, 73 % des femmes dans le monde ont déjà été confrontées à des formes de violence en ligne. Et selon l’enquête « Cyberviolence et cyberharcèlement », de 2022, en cours de renouvellement, les cyberviolences visent surtout les personnes les plus vulnérables comme les jeunes (87 % des 18-24 ans en ont ainsi subi), les personnes LGBTQI+ (85 %), les personnes racisées (71 %) et les femmes de moins de 35 ans (65 %).

Ces violences affectent particulièrement la santé mentale et l’image de soi des jeunes filles, soumises à une pression permanente à la performance esthétique et constamment enjointes à réfléchir à leur exposition en ligne. De fait, leurs corps et leurs sexualités sont plus strictement régulés par un ordre moral – contrairement aux hommes souvent perçus comme naturellement prédatoires. En conséquence, elles subissent davantage le body-shaming (« humiliation du corps »), le slut-shaming ou le revenge porn, stigmatisations fondées sur des comportements sexuels prétendus déviants.




À lire aussi :
Que fait l’Europe face aux géants du numérique ?


Reflet de la société, le numérique n’a certes pas créé la misogynie mais il en constitue une caisse de résonance. Pharmakon, le numérique est donc remède et poison. Remède car il a ouvert la voie à l’expression de paroles minoritaires et contestatrices, et poison car il favorise l’exclusion et fortifie les mécanismes de domination, en particulier lorsqu’il est sous le joug de logiques capitalistes.


Un grand merci à Charline Zeitoun pour les précieux commentaires apportés à ce texte.

The Conversation

Hélène Bourdeloie ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le genre sous algorithmes : pourquoi tant de sexisme sur TikTok et sur les plateformes ? – https://theconversation.com/le-genre-sous-algorithmes-pourquoi-tant-de-sexisme-sur-tiktok-et-sur-les-plateformes-262897

L’intelligence, un concept aux multiples facettes

Source: The Conversation – in French – By Romuald Blanc, MCU-Psychologue clinicien, Université de Tours

Qu’est-ce que l’intelligence ? Comment la définir, et l’évaluer ? Il n’existe pas de réponse simple à ces questions, qui ont fait l’objet de nombreux travaux de recherche. Voici quelques pistes de réflexion.


L’intelligence est un concept complexe, qui englobe plusieurs sortes de capacités cognitives, comme la résolution de problèmes, la pensée abstraite, l’apprentissage et l’adaptation.

Elle ne se limite pas aux performances scolaires, mais inclut aussi des dimensions émotionnelles (l’ajustement émotionnel aux autres, la capacité à agir sur ses propres émotions ou « autorégulation émotionnelle »), sociales (l’adaptation sociale et prise en compte des règles et des conventions sociales qui régissent les relations humaines) et pratiques (l’adaptation au quotidien).

Pour cette raison, définir l’intelligence et l’évaluer est une tâche ardue. Les experts eux-mêmes peinent encore à s’accorder sur sa nature (unique ou multiple), son origine (innée ou acquise) ou ses mécanismes (concernant les processus cognitifs sous-jacents).

Si de nombreux modèles d’intelligence ont été proposés, jusqu’à présent, aucun consensus scientifique incontesté n’a émergé. Globalement, 3 grandes façons de définir l’intelligence se dessinent : les modèles factoriels, les approches dites « multiples » et les modèles neurocognitifs. Voici ce qu’il faut en retenir.

Les modèles factoriels

Parmi les modèles factoriels, citons le modèle mis au point par Charles Edward Spearman, psychologue britannique. Développé en 1904, il repose sur le calcul d’un facteur général d’intelligence (appelé « facteur g »). Celui-ci serait commun à toutes les tâches cognitives, tandis que pour chaque activité il existerait des facteurs spécifiques : un facteur verbal pour le langage, un facteur spatial, etc. Ces « facteurs mentaux » sont déterminés grâce à une méthode mathématique appelée analyse factorielle.

Le modèle de Spearman implique que toutes les performances intellectuelles sont corrélées. L’intelligence serait donc une capacité unique. Bien que critiqué pour son caractère réducteur, il reste une référence dans la psychométrie et la conception des tests de quotient intellectuel.

Dans les années 1930, Louis Leon Thurstone, un psychologue américain, conteste cette vision. Il affirme que l’intelligence n’est pas une capacité unique, mais un ensemble de compétences mentales primaires indépendantes. En se basant sur des analyses factorielles de tests d’intelligence qu’il a fait passer à des étudiants, il détermine qu’il existerait 7 aptitudes mentales primaires : la compréhension verbale, la fluidité verbale, les aptitudes numériques, la visualisation spatiale, la mémoire, la vitesse perceptive et le raisonnement inductif.

En 1963, dans la lignée de ces travaux, le psychologue anglo-américain Raymond Bernard Cattell défend l’idée que l’intelligence générale se divise en deux catégories principales : l’intelligence fluide, qui correspond à notre capacité à traiter de nouvelles informations, à apprendre et à résoudre des problèmes ; et l’intelligence cristallisée, qui s’apparente à nos connaissances stockées, accumulées au fil des ans.

Ce dernier modèle a influencé de nombreux tests d’intelligence modernes, comme les échelles d’intelligence de Wechsler. Il explique pourquoi certaines personnes âgées peuvent exceller dans des domaines nécessitant des connaissances établies, malgré une baisse de leurs capacités de raisonnement abstrait. Il est utilisé en psychologie cognitive et en neurosciences pour étudier le vieillissement cognitif.

Les approches multiples de l’intelligence

En se positionnant face aux modèles antérieurs, jugés réducteurs, le psychologue états-unien Howard Gardner a développé, au début des années 1980, un autre modèle de l’intelligence, intégrant les composantes sociales et culturelles. Son intérêt pour des populations atypiques telles que les enfants dits « prodiges », les « idiots-savants », ou encore les personnes avec autisme lui ont permis de prendre en considération des différentes facettes de l’activité cognitive, en respectant des différences de chacun selon ses forces, ses faiblesses et ses styles cognitifs.

Il définit ainsi huit grandes facettes de l’intelligence : linguistique, logico-mathématique, spatiale, kinesthésique, musicale, interpersonnelle, intrapersonnelle et naturaliste. Gardner propose que chacun peut développer ces intelligences à différents niveaux et qu’il existe de nombreuses façons d’être intelligent dans chacune de ces catégories.

Bien que novateur, ce modèle est critiqué pour son manque de fondement scientifique et la subjectivité de ses catégories. Certains chercheurs y voient plutôt des talents que de véritables formes d’intelligences, et son efficacité pédagogique reste à démontrer. Des critiques suggèrent que la théorie des intelligences multiples manque de fondements scientifiques solides et repose sur des catégories subjectives, souvent perçues davantage comme des talents ou des traits de personnalité que comme des formes distinctes d’intelligence.

En 1985, le psychologue américain Robert Sternberg propose un modèle triarchique de l’intelligence, intégrant des aspects cognitifs, créatifs et pratiques. Il distingue trois formes d’intelligence : analytique (résolution de problèmes logiques), créative (pensée originale et adaptation à la nouveauté) et pratique (adaptation au quotidien, intelligence sociale).

Contrairement à Spearman et Thurstone, qui envisagent l’intelligence comme un ensemble de capacités cognitives mesurables (facteur g ou aptitudes primaires), Sternberg la conçoit comme un processus adaptatif. Être intelligent, c’est savoir s’adapter à de nouvelles situations, choisir des environnements favorables et les modifier si nécessaire.

Réussir à s’intégrer dans un nouvel environnement culturel illustre par exemple cette intelligence pratique et contextuelle. Là où Spearman ou Thurstone y verraient l’expression d’aptitudes générales (raisonnement, compréhension), Sternberg y voit surtout la mise en œuvre de stratégies d’adaptation à un contexte changeant.

La théorie de Sternberg est plus étayée empiriquement que celle de Gardner, car ses composantes (analytique, créative, pratique) peuvent être testées et appliquées en éducation ou en milieu professionnel, pour mieux évaluer les compétences individuelles. La typologie proposée par Gardner, séduisante, est en revanche moins validée scientifiquement.

Si Sternberg reste plus opérationnel et crédible sur le plan scientifique, les deux approches complètent les modèles psychométriques, en mettant l’accent sur l’adaptation et le contexte.

Les modèles neurocognitifs de l’intelligence

Les modèles les plus récents d’intelligence s’appuient sur les connaissances acquises notamment grâce aux progrès effectués en neuro-imagerie (notamment grâce à l’IRM fonctionnelle, qui permet d’observer le fonctionnement cérébral lors de la réalisation d’une tâche donnée).

Ces modèles mettent en avant le rôle des réseaux cérébraux et des fonctions cognitives. Parmi les principaux, on peut citer :

  • la théorie de l’intégration fronto-pariétale : selon cette théorie, l’intelligence serait basée sur l’intégration, c’est-à-dire le traitement coordonné et harmonieux des informations entre différentes régions du cerveau, notamment entre le cortex pariétal (impliqué dans le raisonnement et le traitement spatial) et le cortex préfrontal (impliqué dans le contrôle exécutif, c’est-à-dire la régulation et la coordination des pensées, des actions et des émotions pour atteindre un but) ;

  • le modèle des fonctions exécutives : ce modèle souligne le rôle clé de la mémoire de travail (capacité à maintenir et manipuler temporairement des informations), de la flexibilité cognitive (capacité à changer de stratégie ou de point de vue) et de l’inhibition (capacité à résister à des automatismes ou distractions). Ces fonctions, essentielles pour la planification et l’adaptation, sont fortement associées au cortex préfrontal ;

  • les approches bayésiennes : elles mettent en avant l’idée que le cerveau agit comme un système prédictif, c’est-à-dire qu’il formule en permanence des hypothèses sur le monde à partir de ses expériences passées, puis les ajuste en fonction des nouvelles informations sensorielles (par exemple, lorsque nous marchons dans une rue et que nous entendons un bruit de moteur derrière nous, notre cerveau prévoit qu’une voiture approche. Si le bruit s’éloigne au lieu de se rapprocher, il met à jour son modèle interne pour ajuster sa prédiction) ;

  • le modèle des réseaux en petits mondes : ce modèle repose sur l’idée que l’intelligence dépend de l’efficacité des connexions neuronales et de la plasticité cérébrale. Le cerveau humain est organisé selon une architecture dite en petit monde, c’est-à-dire un réseau dans lequel les neurones (ou régions cérébrales) sont à la fois fortement connectés localement (favorisant la spécialisation) et efficacement reliés à distance (favorisant l’intégration globale de l’information).
    Cela signifie qu’il existe des différences interindividuelles : certaines personnes présentent des réseaux cérébraux plus efficaces, caractérisés par un équilibre optimal entre connectivité locale et connectivité globale, ce qui serait associé à de meilleures performances cognitives et à un quotient intellectuel plus élevé. Cependant, cette efficacité n’est pas figée : elle peut être modifiée par l’expérience, l’apprentissage, l’entraînement cognitif ou encore par des changements développementaux (enfance, adolescence) et neurobiologiques (plasticité synaptique, myélinisation). En d’autres termes, le cerveau peut réorganiser ses connexions pour améliorer la circulation de l’information.

Tous ces modèles postulent que l’intelligence est distribuée : elle reposerait sur l’interaction entre différentes régions du cerveau.

La théorie de l’intégration fronto-pariétale et le modèle des fonctions exécutives sont bien étayés empiriquement, grâce à des données de neuro-imagerie et des tâches expérimentales standardisées. Les approches bayésiennes offrent un cadre explicatif puissant, mais plus théorique et difficile à tester directement. Enfin, le modèle des réseaux en petits mondes est empiriquement mesurable, mais surtout corrélationnel.

Ces modèles ne s’opposent pas aux approches développementales classiques, ils les complètent en proposant une explication cérébrale et fonctionnelle des mécanismes qui sous-tendent le développement de l’intelligence

Une absence de consensus

À la fois universelle et plurielle, l’intelligence est un concept complexe, polymorphe et multidimensionnel. L’évaluer n’est pas chose aisée. Sa richesse ne peut être appréhendée à la seule aune de tests standardisés tels que le quotient intellectuel, car celui-ci ne prend pas en compte toutes les formes d’intelligence, ignorant notamment l’intelligence émotionnelle ou créative.

Une compréhension complète de l’intelligence exige de ce fait une approche globale et nuancée. À ce titre, les divers modèles de l’intelligence offrent une vision enrichissante de la complexité de ce concept, en proposant de reconnaître et de valoriser les différentes compétences et talents que chaque individu possède.

En nous incitant à adopter une perspective plus large sur l’intelligence, ils nous aident à mieux comprendre et à soutenir le développement des capacités des individus dans toute leur diversité.


Cet article est publié dans le cadre de la Fête de la science (qui a lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.

The Conversation

Romuald Blanc ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’intelligence, un concept aux multiples facettes – https://theconversation.com/lintelligence-un-concept-aux-multiples-facettes-255131

Les défis du réarmement de l’Europe : réveil stratégique ou chaos organisé ?

Source: The Conversation – in French – By Laurent Vilaine, Docteur en sciences de gestion, ancien officier, enseignant en géopolitique à ESDES Business School, ESDES – UCLy (Lyon Catholic University)

Après des décennies passées à cueillir les « dividendes de la paix », les Européens réarment à grande vitesse, mais de façon désorganisée, voire confuse. Or, la sécurité du continent dépend de la mise en œuvre d’une politique militaire pensée de façon collective et fondée sur une industrie de défense qui deviendrait nettement moins dépendante des États-Unis.


Face à la rhétorique agressive de la Russie, à ses provocations verbales et à ses opérations d’intimidation de plus en plus fréquentes, les États européens réarment. L’attitude illisible de l’administration Trump les incite encore davantage à prendre leur destin en main en matière de défense.

Mais les achats d’armements se font en ordre dispersé. Les Européens (membres de l’UE ou non) continuent de largement dépendre des États-Unis dans ce domaine ; et leur industrie de défense se développe avec une grande lenteur, malgré de progrès récents.

La fin d’une illusion

La guerre en Ukraine a été un révélateur pour les Européens. Après plus de trois décennies de désarmement prononcé pour toucher les fameux « dividendes de la paix » post-guerre froide, les budgets augmentent, accompagnés d’annonces sur des commandes de chars, d’avions de combat, de missiles.

La réactivation des réserves est mise en avant, tout comme la relance des industries d’armement. Ce mouvement, bien que tardif, illustre un gros progrès. L’Europe ne se considère plus comme un continent riche, trop heureux de confier sa protection (notamment nucléaire) aux États-Unis, sans avoir à livrer de véritables efforts propres. En cela, les critiques venues de Washington relatives au manque d’investissements des pays européens dans leur défense étaient parfaitement justifiées.

Mais ce réarmement, aussi nécessaire soit-il, se fait dans le désordre et dans la précipitation, car il est plus guidé par la peur ou par la prise de conscience que par la planification. L’UE, certes, dépense davantage, mais ne réussit pas à définir une vision d’ensemble pour bâtir une défense, sinon intégrée, tout au moins organisée.

Selon l’Institut international de recherche sur la paix de Stockholm (SIPRI), les dépenses militaires européennes ont augmenté de manière historique de 17 % en 2024, atteignant 693 milliards de dollars. La totalité des pays de l’UE, à l’exception de Malte, ont accru leurs budgets militaires. L’Allemagne, longtemps à la traîne en matière de dépenses militaires, a bondi de 28 %, à 88,5 milliards, devenant le quatrième investisseur militaire mondial, ce qui aurait été absolument inimaginable il y a seulement quelques années.

La Pologne est le pays qui consacre le plus gros pourcentage de son PIB à la défense : 4,2 % aujourd’hui contre 2 % en 2021, ce qui marque un effort colossal. L’objectif est d’atteindre 5 % en 2026. En moyenne, même si le chiffre paraît moins spectaculaire, les pays de l’UE ont progressé de 0,2 % en termes de pourcentage du PIB, passant à une moyenne de 1,3 % à 1,5 % en deux ans.

Les fameux dividendes de la paix sont désormais bien derrière nous. La sécurité extérieure redevient centrale, comme au temps de la guerre froide, mais dans un désordre qui fragilise notre souveraineté collective.

Un réarmement en ordre dispersé

Sur la carte du réarmement européen, on distingue autant de stratégies que d’États. L’Allemagne investit son Zeitenwende (changement d’ère) dans des achats auprès des États-Unis : avions F-35, missiles Patriot, hélicoptères CH-47 Chinook…

La France, avec une loi de programmation militaire 2024-2030 de 413 milliards d’euros, mise sur l’autonomie et la dissuasion nucléaire, et reste tournée vers son industrie nationale, particulièrement complète.

L’Italie et l’Espagne modernisent leur marine et leur aéronautique (programmes FREMM, Eurofighter), tout en demeurant très liées à l’Oraganisation du traité de l’Atlantique Nord (Otan). Les pays baltes et scandinaves se concentrent sur la défense territoriale (fortification des frontières) et les infrastructures d’accueil de troupes alliées.

L’Europe se réarme de manière anarchique : les Tchèques achètent des boucliers antimissiles, les Allemands lancent des satellites, la Lituanie achète des drones turcs ou israéliens, sans qu’un effort de coordination et de rationalisation des achats n’apparaisse.

Certes, cette diversité reflète des besoins réels et pressants, car les différents pays n’éprouvent pas le même sentiment d’urgence, du fait de la géographie mais également des menaces perçues comme directes ou plus lointaines, ou en raison des traditions militaires. Mais l’absence de coordination produit une fragmentation industrielle et opérationnelle. Les armées européennes utilisent aujourd’hui près de 180 systèmes d’armes différents, contre une trentaine aux États-Unis. Cette hétérogénéité augmente les coûts, complexifie la logistique – avec d’innombrables pièces détachées différentes et les compétences multiples qu’il est nécessaire d’entretenir – et, in fine, rend très délicate l’interopérabilité, c’est-à-dire la capacité des systèmes d’armes et donc des armées à travailler ensemble.

Achats d’équipements auprès d’acteurs extérieurs

La Pologne illustre les contradictions qu’engendrent les besoins immédiats de sécurité et l’incohérence stratégique. Ce grand pays, encore en avance sur l’Allemagne en matière de dépenses militaires, est devenu la locomotive militaire de l’Europe, au moins de l’Est, mais au prix d’une dépendance massive à des fournisseurs non européens.




À lire aussi :
Le réarmement massif de la Pologne : causes, conséquences et controverses


En août 2025, Varsovie a signé avec la Corée du Sud un contrat portant sur la livraison de 180 chars K2 Black Panther, pour environ 6,5 milliards de dollars, après un premier contrat d’également 180 chars en 2022 ; 61 chars seront assemblés localement sous licence. En parallèle, Varsovie achète à Séoul des obusiers K9 et des avions FA-50, mais n’oublie pas ses alliés américains en acquérant des chars Abrams.

La Pologne s’est donc tournée vers des fournisseurs capables de livrer rapidement des armes de qualité lui permettant une montée en puissance réelle. Ces avantages sont malheureusement accompagnés pour ce pays d’inconvénients réels. La Pologne dépend de la logistique étrangère, et la maintenance de matériels variés se complexifie tant en termes de pièces détachées que de compétences diverses sur des matériels différents.

Mais Varsovie n’est pas seule dans cette situation. Nous le savons déjà : via l’Otan, les États-Unis sont dominants dans la sécurité européenne. Leur parapluie nucléaire en est une forte illustration. De plus, les États-Unis sont, sur le plan industriel, le principal fournisseur des pays européens. Les avions F-35, expression de cette domination, sont désormais l’avion standard de plusieurs forces aériennes européennes. L’Allemagne a prévu 35 appareils, dont les premières livraisons interviendront en 2026, la Belgique en a commandé 34, la Pologne 32 et le Danemark 27, déjà en cours de réception. La Finlande a signé pour 64 exemplaires, livrés progressivement jusqu’en 2030, tandis que la Grèce prévoit jusqu’à 40 avions. La Norvège et les Pays-Bas ont chacun acquis 52 appareils, déjà pour la plupart opérationnels. L’Italie dispose d’environ 90 F-35, le Royaume-Uni en a prévu 138, dont une soixantaine déjà livrés. Enfin, la Suisse en a commandé 36 exemplaires, livrables à partir de 2027, et la République tchèque 24, dont les premières livraisons sont attendues vers 2031.

On le voit, de nombreux pays européens ont préféré privilégier la relation avec les États-Unis, quitte à acheter un système d’armes verrouillé. En effet, les F-35 lient leurs utilisateurs au réseau logistique américain en termes de maintenance, de formation et de mise à jour logicielle.

Cette dépendance technologique pose un problème stratégique majeur, a fortiori lorsque les États-Unis sont dirigés par une administration chaotique et imprévisible et dont l’engagement au sein de l’Otan semble plus que fragile : l’Europe ne contrôle ni ses codes sources, ni sa maintenance, ni ses calendriers d’évolution. En cas de crise transatlantique, cette vulnérabilité pourrait, en quelques semaines, dégrader très fortement les performances de sa flotte de F-35.

Ainsi, l’Europe, incapable de se détacher de la tutelle de Washington, achète sa sécurité en quelque sorte à crédit politique, sans garantie solide. Emmanuel Macron l’a souligné à la Sorbonne, en avril 2024 : « Le moment est venu pour l’Europe de devenir puissance. » Parole précieuse, mais sans grande portée tant que l’Europe se contente d’être une cliente, vulnérable aux intentions de Washington.

La dépendance vis-à-vis des États-Unis pourrait être pleinement justifiée si nous ne disposions pas de la base technique et industrielle pour posséder une véritable autonomie stratégique en matière de défense. La réalité est tout autre ; Airbus, Dassault, Thales, Leonardo, Safran, MBDA, Rheinmetall, Nexter sont autant de champions mondiaux. L’Europe dispose du savoir-faire en quantité, mais manque de coordination et de volonté politique.

Les programmes Scaf (Système de combat aérien du futur) et MGCS (char européen) symbolisent ces lenteurs. Le premier devait incarner l’avenir de la supériorité aérienne européenne. Pourtant, ce projet cumule retards et tensions entre industriels et États membres. Le second, censé succéder au Leopard 2 et au Leclerc, connaît également de grandes difficultés. L’incapacité des Européens à s’entendre profite de manière quasi automatique à leurs concurrents. Les prototypes de chars et de chasseurs des États-Unis et de la Corée du Sud pourraient être opérationnels autour des années 2030. Dans ce cadre, l’ironie est lourde : l’Europe risque de devenir acheteuse de technologies qu’elle aurait pu inventer.

L’UE tente de réagir en mettant sur pied le Fonds européen de défense (Fedef) et l’Agence européenne de défense (AED). Cependant, leurs moyens sont dérisoires (environ 8 milliards d’euros sur la période 2021-2027) et ils sont dénués de véritable gouvernance politique et budgétaire.

Nous le comprenons, la question n’est pas industrielle. L’Europe a la base technique et industrielle. Le problème est politique : les pays européens acceptent-ils de partager entre eux leur souveraineté ? Ils en sont capables, le passé l’a montré, mais la situation géopolitique actuelle nous empêche de tergiverser plus longtemps.

L’autre question essentielle est relative aux États-Unis : l’Europe peut-elle, tout en restant leur alliée, s’affranchir, au moins partiellement, de leur tutelle ? Aucun pays n’apporte de réponse identique à cette question centrale.

Les conditions de la souveraineté militaire

Plusieurs axes s’imposent pour construire une industrie de défense européenne qui entraînera un esprit de défense européen : harmoniser les normes ; mutualiser les achats ; conditionner les contrats étrangers ; créer un « Buy European Act » (équivalent du Buy American Act, une loi américaine de 1933), qui obligerait l’Europe à privilégier les entreprises et produits fabriqués en Europe dans ses marchés publics, et notamment dans la défense ; renforcer le Fedef et élaborer une doctrine commune.

Compte tenu des rapports très différents que les pays entretiennent avec Washington, il est important de montrer à toutes les parties prenantes que ces mesures ne visent pas à se découpler des États-Unis, mais seulement à rééquilibrer la relation transatlantique. Une alliance forte repose sur des partenaires autonomes et libres.

Réarmer est nécessaire. Il ne s’agit pas seulement d’aider l’Ukraine, même si cette dimension demeure. Il s’agit de tenir à distance la Russie, dont on peut parier de la permanence de l’agressivité pendant des décennies.

Réarmer ne couvre pas tout le champ de la défense. Cette dernière engage aussi la diplomatie, la technologie, l’énergie, la résilience des sociétés. Or, malgré les appels et le début de certaines réalisations, l’Europe reste très dépendante en matière d’énergie (gaz américain), de semi-conducteurs (Taïwan et Corée du Sud), du numérique (Gafam)… Une entité politique sans souveraineté ne peut être une puissance. Une souveraineté militaire – ce qui constitue déjà un véritable défi – sans souveraineté industrielle, énergétique et numérique est une illusion.

Pour autant, le réarmement européen met fin à la naïveté stratégique née des années 1990 et, probablement, à l’opportunisme économique dégagé des contraintes de défense. Mais il ne sera durable que s’il s’accompagne d’un sursaut collectif. Un sursaut collectif qui impose de penser l’Europe non plus seulement comme un marché, mais également comme une source de puissance.

L’Europe est une puissance économique avec des moyens et des cerveaux. Elle peut acquérir une souveraineté en matière de défense tout en continuant de coopérer avec les États-Unis, à considérer désormais non plus comme des amis mais comme des alliés. Les États-Unis demeurent un partenaire essentiel, mais n’ont pas à mettre l’Europe sous tutelle. L’Europe-puissance que nous appelons de nos vœux aura pour conséquence de ne plus accepter ce type de relations.

L’Europe est riche et capable. Mais il lui manque la cohésion, la volonté d’agir et la compréhension de la notion de puissance. Elle réarme. Cette évolution est satisfaisante. Mais elle doit réarmer ensemble dans le cadre d’un projet, au risque, sinon, de demeurer un géant économique, sous parapluie américain, parapluie de plus en plus troué d’ailleurs.

The Conversation

Laurent Vilaine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les défis du réarmement de l’Europe : réveil stratégique ou chaos organisé ? – https://theconversation.com/les-defis-du-rearmement-de-leurope-reveil-strategique-ou-chaos-organise-266762

Décoloniser les pratiques scientifiques : le cas du désert d’Atacama au Chili

Source: The Conversation – in French – By Adrien Tavernier, Scientist in environmental sciences, Universidad de Atacama

Est-il moral, éthique, voire tout simplement acceptable, que des projets de recherche soient menés dans des pays du « Sud global » sans qu’aucun scientifique local soit impliqué ? Une étude vient apporter une quantification de cette problématique dans la zone de la Puna sèche et du désert d’Atacama, en Amérique latine.


Tout travail de recherche scientifique implique, initialement, une revue bibliographique. Le but de ce travail préliminaire est de parcourir la littérature afin de compiler les informations susceptibles d’étayer la question principale à laquelle une équipe scientifique souhaite répondre.

C’est au cours de cette recherche bibliographique que notre équipe, travaillant sur la caractérisation environnementale de la Puna sèche et du désert d’Atacama, en Amérique du Sud, a eu l’impression que la plupart des travaux publiés jusqu’alors avaient été réalisés par des équipes étrangères, sans aucune implication de chercheurs appartenant à une institution locale.

Pour ramener la situation à la France, serait-il possible et acceptable que les Puys d’Auvergne ou la Mer de Glace soient étudiés exclusivement par des équipes issues d’organismes de recherche argentins, chiliens, péruviens ou boliviens sans participation de chercheurs appartenant à des institutions françaises ?

Localisation géographique de la Puna sèche (rouge) et du désert d’Atacama (jaune).
Fourni par l’auteur

La Puna sèche et le désert d’Atacama sont des régions du globe à cheval sur quatre pays (Argentine, Bolivie, Chili et Pérou). Ces zones géographiques particulières ont pour caractéristique principale une aridité extrême qui façonne des paysages que beaucoup qualifierait spontanément de « lunaires » ou de « martiens ». Ces deux régions correspondent en effet à ce que l’on appelle, dans le jargon scientifique, des analogues planétaires : des lieux géographiques présents sur Terre mais qui peuvent s’apparenter à des environnements extraterrestres.

La Puna sèche et le désert d’Atacama sont ainsi considérés comme de bons analogues terrestres de Mars et pourraient présenter, à l’heure actuelle, des conditions physico-chimiques proches de ce que la planète rouge aurait pu connaître au cours de son histoire géologique. Ce sont donc de formidables laboratoires naturels pour les domaines des sciences planétaires et de l’astrobiologie. Leur rareté suscite également l’intérêt des scientifiques du monde entier.

Comparaison entre un paysage terrestre dans le désert d’Atacama lors d’une campagne de recherche de météorites et un paysage martien capturé par le rover Curiosity.
Partie supérieure : Luigi Folco/Partie inférieure : NASA/JPL-Caltech/MSSS, CC BY

Comment passer d’une vague impression à une certitude de la prépondérance de travaux étrangers sur la zone géographique concernée ? Notre équipe francochilienne composée de géologues, de géophysiciens, d’astrophysiciens et de biologistes a mis en place une méthode systématique de comparaison des articles basés, d’une manière ou d’une autre, sur les caractéristiques exceptionnelles de la Puna sèche et du désert d’Atacama, dans les domaines des sciences planétaires et de l’astrobiologie.

Les résultats de cette étude ont été publiés en 2023 dans la revue Meteoritics and Planetary Science et notre impression a été confirmée : plus de 60 % des articles l’ont été sans impliquer un chercheur appartenant à une institution nationale d’un des pays abritant la Puna sèche et/ou le désert d’Atacama (5 369 articles analysés sur la sélection générale en sciences de la Terre, 161 pour les sciences planétaires et l’astrobiologie). Le déséquilibre mis en évidence est similaire à d’autres disciplines scientifiques et ne se limite pas à cette région.

La valorisation scientifique du patrimoine naturel de certains pays, sans contribution majeure des chercheurs locaux, suscite de plus en plus d’inquiétudes dans une partie de la communauté scientifique. Au cours de ce travail, nous avons découvert les termes relativement récents (depuis les années 2000) de sciences hélicoptères, sciences parachutes, sciences safari ou sciences néocoloniales (terme privilégié dans la suite de cet article) qui permettent de mettre des noms sur ces pratiques caractérisées par la mise en œuvre de projets de recherches scientifiques menées par des équipes de pays développés (Nord global) dans des pays en développement ou sous-développés (Sud global) sans aucune implication des chercheurs locaux.

Ces pratiques tendent à être considérées comme contraires à l’éthique et le sujet devient un thème de discussions et de publications au sein des sciences dures : le plus souvent sous forme de diagnostic général, mais aussi en termes de quantification.

Certaines revues scientifiques, dont Geoderma (référence du domaine en science du sol) a été l’un des pionniers à partir de 2020, ont pris l’initiative d’un positionnement sans équivoque contre les pratiques de sciences néocoloniales ouvrant la voie à la modification des lignes éditoriales afin de prendre en compte la nécessité d’impliquer les chercheurs locaux dans les publications scientifiques.

C’est le cas par exemple de l’ensemble des journaux PLOS qui exigent, depuis 2021, le remplissage d’un questionnaire d’inclusion de chercheurs locaux pour une recherche menée dans un pays tiers, exigence qui a depuis fait des émules au sein du monde de l’édition scientifique.

L’exigence éthique vis-à-vis des recherches menées dans des pays étrangers devient donc un standard éditorial important mais pas encore majeur. D’autres leviers pourraient cependant être activés comme des cadres législatifs nationaux ou internationaux restrictifs imposant la participation de chercheurs locaux dans des travaux de terrain menés par des scientifiques étrangers.

En France par exemple, la mise en place de programmes de recherche dans des territoires exceptionnels comme les îles Kerguelen (territoire subantarctique français de l’océan Indien) ou la terre Adélie en Antarctique nécessite que le projet soit porté par un scientifique, agent titulaire d’un organisme de recherche public français. Des modèles permettant d’éviter cette problématique d’appropriation culturelle d’un patrimoine naturel scientifique par des chercheurs appartenant à des institutions étrangères existent donc déjà et constituent autant de ressources sur lesquelles se fonder afin de limiter ces pratiques de sciences néocoloniales. Il nous semblerait cependant nécessaire que la communauté scientifique procède à une introspection de ces pratiques.

C’est tout l’enjeu de l’étude que nous avons menée et des travaux similaires qui se généralisent depuis quelques années : rendre ces pratiques de sciences néocoloniales visibles, notamment en quantifiant le phénomène, afin que cette problématique soit débattue au sein de la communauté. Cela a notamment permis à notre équipe de se poser des questions fondamentales sur ses pratiques scientifiques et de (re)découvrir les apports conséquents menés, depuis plus de 60 ans, par les sociologues et les épistémologues sur les racines profondes et historiques pouvant lier colonialisme, impérialisme et science et plus généralement des relations entre centre et périphérie (par exemple les déséquilibres, au sein d’un même pays, entre institutions métropolitaines ou centrales vis-à-vis des institutions régionales).

L’exemple des analogues terrestres de la Puna sèche et du désert d’Atacama illustre ainsi les écarts économique, scientifique et technologique creusés progressivement entre le Nord et le Sud global. Les sciences planétaires et l’astrobiologie, ont été historiquement liées au développement technologique de programmes spatiaux ambitieux et extrêmement coûteux dont souvent les principales ambitions n’étaient pas scientifiques. Les pays du Sud global n’ont ainsi pas eu l’opportunité de profiter de la conquête spatiale de la seconde moitié du XXe siècle pour développer une communauté scientifique locale en sciences planétaires et en astrobiologie.

Des efforts sont actuellement menés au sein du continent sud-américain afin de pallier cette situation et ainsi faciliter l’identification d’interlocuteurs scientifiques locaux par des chercheurs d’institutions étrangères souhaitant mener des recherches en sciences planétaires ou en astrobiologie en Amérique du Sud. Des démarches vertueuses entre certains chercheurs sud-américains et leurs homologues du Nord global ont aussi été menées afin de développer ex nihilo des initiatives de recherche locales dans des domaines spécifiques des sciences planétaires et de l’astrobiologie (par exemple, vis-à-vis d’un cas que notre équipe connaît bien, la recherche sur les météorites au Chili).

Dans le domaine de l’astronomie, à la marge donc des sciences planétaires et de l’astrobiologie, la mise en place des grands observatoires internationaux sur le sol chilien a permis la structuration d’une communauté locale d’astronomes et représente ainsi un bon exemple de début de coopération fructueuse entre le Nord et le Sud global. N’oublions pas de citer aussi le développement remarquable et exemplaire de l’astrobiologie au Mexique, dans les pas des scientifiques mexicains Antonio Lazcano et Rafael Navarro-González, qui démontre qu’une structuration locale indépendante reste possible et peut induire une dynamique positive pour l’ensemble du continent sud-américain.

Toutes ces initiatives restent cependant trop rares ou encore trop déséquilibrées au profit d’un leadership du Nord global et ne peuvent, selon nous, se substituer à une introspection profonde des pratiques de recherche scientifique. Dans un contexte où la légitimité des sciences est contestée, cet effort d’autocritique émanant de la communauté scientifique ne nous semblerait pas superflu.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Décoloniser les pratiques scientifiques : le cas du désert d’Atacama au Chili – https://theconversation.com/decoloniser-les-pratiques-scientifiques-le-cas-du-desert-datacama-au-chili-241954

Santé mentale : en finir avec la stigmatisation des troubles psychiques

Source: The Conversation – in French – By Thibault Jaubert, Chercheur post-doctoral en psychologie sociale et de la santé, Université Savoie Mont Blanc; Université Paris Cité

Les personnes concernées par la dépression, la schizophrénie ou d’autres troubles liés à l’altération de la santé mentale sont victimes de stéréotypes et comportements discriminatoires en raison de leur maladie. La Journée mondiale de la santé mentale du 10 octobre, sous l’égide de l’Organisation mondiale de la santé, est l’occasion de décrypter les causes de cette stigmatisation et de présenter des pistes explorées par la recherche pour la combattre.


Les troubles mentaux correspondent à des altérations de la santé mentale affectant le fonctionnement émotionnel, cognitif et social. Alors qu’on estime que près de la moitié de la population mondiale sera concernée au cours de sa vie dans la prochaine décennie, il faut faire face à un fardeau supplémentaire : la stigmatisation liée aux troubles mentaux.




À lire aussi :
Troubles mentaux : quand la stigmatisation d’aujourd’hui reflète les conceptions d’hier


Être la cible de stigmatisations, c’est faire face à des stéréotypes négatifs, des préjugés et des comportements discriminatoires. Ce sont des freins majeurs à l’accès aux soins et au rétablissement.

Comment expliquer cette stigmatisation ? Et surtout, comment y remédier ? Des pistes concrètes existent.

Troubles mentaux et stigmatisation : un phénomène préoccupant et impactant

La stigmatisation des troubles mentaux pousse de nombreuses personnes concernées à minimiser ou à dissimuler leur condition, par crainte d’être jugées ou rejetées.

Contrairement à d’autres formes de handicap qualifiées de visibles, les troubles mentaux sont souvent peu apparents, ce qui les rend faciles à dissimuler. En parallèle, cette stigmatisation peut s’intérioriser, et les personnes ayant un trouble mental peuvent parfois intégrer les stéréotypes qui les visent.

Connu sous le terme d’« auto-stigmatisation », cet effet « Why try » (« À quoi bon essayer ») amène les personnes à se sentir incapables de changer leur condition. Ses conséquences ont un coût important pour les personnes concernées en retardant le recours aux soins, le rétablissement, mais aussi en favorisant l’isolement social.

Lutter contre la stigmatisation des personnes ayant un trouble mental représente un levier stratégique pour la mise en œuvre d’interventions à large échelle. Ce combat participe donc d’un défi en santé publique, au même titre que l’amélioration des parcours de soins, l’innovation thérapeutique (non médicamenteuse comme pharmacologique) et la mise en place d’actions de promotion et de prévention (comme préconisée par la « Feuille de route Santé mentale et psychiatrie, 2018 »).

Cela s’inscrit dans un contexte où les coûts – autant humains (personnels et familiaux), sociaux qu’économiques – sont considérables. En France, le coût annuel direct et indirect des troubles mentaux avait ainsi été estimé à 163 milliards d’euros pour l’année 2018.

D’où vient la stigmatisation des troubles mentaux ?

Une première cause de stigmatisation réside dans l’ensemble des croyances que les individus entretiennent vis-à-vis des troubles mentaux. Deux prédominent dans l’opinion publique : l’idée selon laquelle les individus ayant un trouble mental seraient responsables de leur trouble ; et le fait que les troubles mentaux sont perçus comme plus dangereux.

Par exemple, les personnes concernées par des troubles de l’humeur comme la dépression sont perçues comme ne parvenant pas ou ne faisant pas suffisamment d’efforts pour contrôler leurs pensées, leurs émotions ou leurs actions. Les troubles psychotiques, tels que la schizophrénie, sont associés à un risque perçu de violence ou de comportement imprévisible.

Ces croyances favorisent des émotions négatives, comme la peur ou la colère, ce qui encourage les comportements discriminatoires à l’égard des personnes ayant un trouble mental.

Lutter contre les croyances et développer des compétences socioaffectives

Les interventions qui promeuvent une compréhension de la complexité des troubles – incluant des causes biologiques, psychologiques et sociales – peuvent contribuer à remettre en question ces croyances.

Ce levier permet de déconstruire le stéréotype selon lequel les individus seraient responsables de leur état de santé mentale ou pourraient en sortir par un simple effort de volonté. Sensibiliser sur le rôle des facteurs, tels que les traumatismes précoces, les vulnérabilités économiques et sociales et les causes génétiques, aide à déconstruire les idées erronées d’autoresponsabilité et de dangerosité.

Au-delà des croyances, une seconde cause de stigmatisation tient aux compétences socioaffectives. Entre autres, le fait de ressentir de l’anxiété, de ne pas percevoir suffisamment de similarité et d’empathie envers les personnes ayant des troubles mentaux sont des facteurs favorisant la stigmatisation. Cela traduit souvent une difficulté à se représenter l’expérience vécue par les personnes concernées, à reconnaître leurs émotions et leurs besoins.

Les interventions encourageant le contact direct ou indirect avec des personnes ayant un trouble mental s’avèrent efficaces à court et moyen terme pour diminuer la stigmatisation. Leur potentiel s’explique par le fait qu’elles favorisent le développement de ces compétences. Cependant, des recherches sont nécessaires pour en évaluer les effets à long terme.

Explorer les atouts de la réalité virtuelle

Enfin, la réalité virtuelle s’affiche comme un autre levier d’action innovant. Elle permet aux individus de s’immerger dans des simulations interactives qui reproduisent des expériences associées à certains troubles mentaux (hallucinations auditives, épisodes anxieux).

Des recherches sont encore nécessaires. Mais si ses atouts étaient confirmés, la réalité virtuelle pourrait renforcer la compréhension de ce que signifie vivre avec un trouble mental au quotidien. Ces environnements immersifs semblent en effet réduire la stigmatisation sans nécessiter un contact direct réel.

Adapter les interventions de déstigmatisation aux contextes et aux publics

Il est important de préciser que l’efficacité des interventions de lutte contre la stigmatisation dépend évidemment de plusieurs facteurs, dont leur adéquation au contexte et aux publics visés. Les programmes de sensibilisation combinant connaissances et savoirs sont adaptés aux plus jeunes puisqu’ils sont peu coûteux, facilement intégrables en contexte scolaire, et semblent produire des effets chez les 10-19 ans.

Pour assurer leur efficacité, ces initiatives doivent être menées par des professionnels de santé, ou bien des enseignants ou personnes concernées expertes dûment formées. Auprès des adultes en revanche, les approches fondées sur le contact direct et mobilisant l’empathie apparaissent plus pertinentes.

Alors que certaines représentations, notamment dans les œuvres de science-fiction ou les faits divers médiatisés, véhiculent des messages caricaturaux et alarmistes qui renforcent certaines croyances, les ressources numériques et culturelles peuvent jouer un rôle dans la diffusion de représentations plus nuancées et inclusives des troubles.

De plus, la prise de parole de personnalités participe à la normalisation du sujet dans l’espace public au travers d’initiatives, telles que Pop & Psy. Des plateformes d’information, comme Psycom ou Santé mentale-Info service, facilitent l’accès à des contenus informatifs et de premières ressources accessibles au plus grand nombre.

Un enjeu d’inclusion sociale et de santé publique

La stigmatisation de la santé mentale soulève des enjeux relatifs à l’inclusion des personnes confrontées à diverses formes de vulnérabilité, et interroge plus largement les conditions de notre vivre-ensemble. En ce sens, déstigmatiser les troubles mentaux ne relève pas d’une simple sensibilisation individuelle, mais constitue un enjeu d’inclusion sociale et de santé publique.

Pour être efficaces, les politiques de lutte contre la stigmatisation doivent adopter une approche combinant la diffusion de connaissances sur les déterminants de la santé mentale, les initiatives fondées sur l’expérience (comme le contact direct ou la réalité virtuelle), tout en impliquant l’action coordonnée des acteurs éducatifs, médiatiques, et ceux de la santé.


Nicolas Rainteau, psychiatre au Centre hospitalier spécialisé de la Savoie, spécialiste de la réhabilitation psycho-sociale, membre associé à l’Université Savoie-Mont-Blanc, est coauteur de cet article.

The Conversation

Thibault Jaubert a reçu des financements de Fondation ARHM et Chaire BEST Santé Mentale.

Arnaud Carre a reçu des financements de la Fondation Université Savoie Mont Blanc.

Annique Smeding ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Santé mentale : en finir avec la stigmatisation des troubles psychiques – https://theconversation.com/sante-mentale-en-finir-avec-la-stigmatisation-des-troubles-psychiques-266436

Népal : La génération Z prend la rue et réinvente la contestation

Source: The Conversation – in French – By Elodie Gentina, Professeur à IESEG School of Management, Univ. Lille, CNRS, UMR 9221 – LEM – Lille, IÉSEG School of Management

À l’automne 2025, face à la censure numérique imposée par un régime népotique, des milliers de jeunes manifestants ont investi les rues de Katmandou, capitale du Népal. La répression a été brutale : au moins 72 morts, des dizaines de blessés. Porté par les réseaux sociaux, ce soulèvement s’inscrit dans une vague mondiale où les jeunesses connectées – du Maroc à Madagascar – réinventent la démocratie hors des cadres traditionnels et exigent d’être entendues.


Au Népal, l’histoire politique pourrait bien prendre un nouveau tournant. Dans ce pays de quelque 30 millions d’habitants accroché aux flancs de l’Himalaya, encore marqué par les cicatrices d’une guerre civile (1996-2006) qui a abouti à la mise en place d’une démocratie imparfaite et instable, une génération née après les combats s’affirme aujourd’hui.

Elle ne se range sous aucune bannière partisane, n’attend l’aval d’aucun chef et refuse les mots d’ordre venus d’en haut. Elle trace sa propre voie, connectée, autonome, soudée autour de ses codes et de ses écrans. Et cet automne 2025, cette jeunesse – la fameuse génération Z (personnes nées entre la fin des années 1990 et le début des années 2010) – a investi les rues, prenant tout le monde de court, à commencer par les dirigeants.

D’un royaume meurtri à une démocratie fragile

Pour mesurer ce qui se joue aujourd’hui, il faut d’abord se tourner vers le passé. Entre 1996 et 2006, le Népal a traversé une décennie de guerre civile d’une rare intensité, opposant les insurgés maoïstes au pouvoir monarchique. Ce conflit, qui a coûté la vie à plus de 13 000 personnes, s’est soldé par l’effondrement de la royauté et la naissance d’une République en 2008. Beaucoup y ont vu l’aube d’un nouvel avenir, fondé sur la justice, la stabilité et le développement.

Mais la réalité fut bien plus chaotique. En quinze ans, le pays a connu une succession de gouvernements sans lendemain, des institutions toujours fragiles et un pouvoir resté entre les mains des mêmes familles. La corruption, le favoritisme et l’absence d’horizons économiques ont peu à peu creusé un profond sentiment de désillusion. Jusque-là, la contestation prenait des formes attendues : syndicats, mouvements étudiants affiliés aux partis, mobilisations rurales ou actions maoïstes. Rien ne laissait imaginer l’irruption d’un soulèvement d’un tout autre visage.

Gen Z contre les « nepo kids » : la révolte d’une génération contre l’héritage du pouvoir

Environ 500 000 jeunes rejoignent chaque année la population active, bien plus que le nombre d’emplois disponibles. Le chômage des jeunes âgés de 15 à 24 ans au Népal est évalué à 20,8 %. Dans ces conditions, les opportunités sont rares, et des centaines de milliers de Népalais sont contraints de s’expatrier pour trouver du travail en Inde ou dans les pays du Moyen-Orient. L’idée d’un avenir meilleur dans leur propre pays leur semble de plus en plus inaccessible.




À lire aussi :
Ce que la migration au Qatar signifie pour les travailleurs népalais


Quelques jours avant que les rues ne s’embrasent, un flot d’images a envahi les réseaux sociaux népalais : on y voyait les enfants de responsables politiques exhiber voitures de luxe, séjours à l’étranger et train de vie fastueux. Ces publications, largement partagées sous les hashtags #NepoKid ou #NepoBaby, ont fait l’effet d’une étincelle dans un pays déjà traversé par une profonde frustration. Elles mettaient crûment en lumière le fossé qui sépare les élites de la population, révélant un système où privilèges et passe-droits semblent se transmettre de génération en génération.

Dans un contexte de chômage massif et d’exil forcé pour une grande partie de la jeunesse, ces images sont vite devenues le symbole d’un pouvoir déconnecté et d’une injustice profondément enracinée. Le mouvement né sur les écrans s’est alors transformé en colère dans les rues, accélérant l’éclatement d’un soulèvement populaire. Le mouvement au Népal a souvent été présenté comme une révolte de la Gen Z contre les « nepo-babies » qui s’est intensifiée à la suite de l’interdiction des réseaux sociaux et d’une répression sanglante.

La vague de vidéos dénonçant les « nepo-kids » a exprimé une colère populaire face à des décennies de népotisme enraciné au Népal. Héritage de la dynastie autoritaire des Rana (1846-1951), ce système s’est perpétué malgré la démocratisation amorcée en 1990 : les partis n’ont pas su instaurer des institutions équitables ni représentatives. Le pouvoir reste ainsi concentré entre quelques familles influentes et alliances claniques (la famille Koirala, la dynastie Rala et les dynasties « claniques »), qui continuent de contrôler partis, ressources et postes clés.

Les jeunes citoyens exigent la fin de la corruption, une gouvernance plus juste et une véritable équité économique. Fait inédit dans l’histoire politique du pays : le 9 septembre 2025, le premier ministre Khadga Prasad Sharma Oli a présenté sa démission, avant d’être remplacé par Sushila Karki, ancienne présidente de la Cour suprême, à l’issue d’un vote… organisé sur la plateforme Discord. Elle est à la tête d’une équipe transitoire chargée de préparer les élections prévues pour mars 2026.

Le manga « One Piece », emblème de révolte de la génération Z

Cette révolte est horizontale, spontanée, mouvante, en l’absence de leaders reconnus ou autoproclamés. Les messages circulent en ligne, les décisions se construisent collectivement, presque en temps réel. La culture de cette génération imprègne aussi le mouvement. Sur les pancartes, on voit des mèmes, des clins d’œil à des séries ou à des mangas. Le drapeau des Straw Hat Pirates de One Piece, symbole de liberté et de résistance, flotte parmi les manifestants. La colère s’exprime avec humour, ironie et inventivité. Loin des discours idéologiques d’antan, cette jeunesse parle un langage qui lui ressemble.

Ce symbole One Piece n’a rien d’anodin : dans l’univers du célèbre manga, Luffy incarne la lutte contre l’oppression et le rêve d’un monde plus juste. Hors des pages de fiction, ce drapeau est devenu un véritable marqueur générationnel à travers toute l’Asie. Il suffit d’y inscrire quelques mots d’ordre pour qu’il se transforme en cri de ralliement. « La génération Z ne se taira pas » ou encore « Votre luxe, notre misère », pouvaient ainsi se lire sur les banderoles brandies par des milliers de jeunes Népalais début septembre 2025, après la suspension de plates-formes comme Facebook, X ou YouTube.

Mais les revendications de la génération Z au Népal vont bien au-delà de la seule question de la censure. Elles s’attaquent à un système politique verrouillé, gangrené par les privilèges héréditaires et incapable d’offrir un avenir. Elles réclament des emplois, de la transparence, une démocratie réelle et vivante. Elles exigent surtout une chose : que leur voix compte enfin.

Une rupture générationnelle qui dépasse le Népal

La jeunesse népalaise a provoqué un séisme politique. Et cela, sans chef, sans parti, sans programme détaillé.

Reste à savoir ce que ce soulèvement va devenir. Au Népal, le gouvernement en place a même été contraint de céder, remplacé par une équipe transitoire chargée de préparer les élections prévues pour mars 2026. L’histoire montre que les mouvements sans organisation claire peuvent vite s’essouffler ou être récupérés. Reste à savoir si la jeunesse mobilisée choisira d’entrer dans l’arène électorale en présentant ses propres candidats – une perspective qui pourrait marquer un tournant majeur dans la vie politique du pays.

La nouvelle génération a pris conscience de sa force collective. Elle sait désormais qu’elle peut se mobiliser rapidement, en dehors des cadres traditionnels, et obliger le pouvoir à réagir. Elle a aussi redéfini le vocabulaire de la contestation : culture numérique, humour, pop culture, créativité… autant d’armes nouvelles pour faire passer des messages politiques.

Ce qui se joue au Népal n’est d’ailleurs pas un cas isolé. De l’Indonésie au Chili, de l’Iran aux États-Unis, ces jeunes « digital natives », nés pendant l’ère d’Internet, contestent les structures établies avec les mêmes outils et les mêmes réflexes. Le Népal s’inscrit dans ce vaste mouvement mondial d’une génération qui ne veut plus attendre et qui contribue à réinventer la démocratie à l’ère du numérique. La politique telle que nous la connaissions – organisée autour de partis, de leaders et de structures hiérarchiques – est de moins en moins adaptée aux formes d’engagement des nouvelles générations. Pour elles, la politique est une pratique fluide, horizontale, souvent ludique, toujours connectée.

The Conversation

Elodie Gentina ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Népal : La génération Z prend la rue et réinvente la contestation – https://theconversation.com/nepal-la-generation-z-prend-la-rue-et-reinvente-la-contestation-266944

De Byzance à nos tables : l’étonnante histoire de la fourchette, entre moqueries, scandales et châtiment divin

Source: The Conversation – in French – By Darius von Guttner Sporzynski, Historian, Australian Catholic University

Banquet du duc de Lancaster Jean de Gand (1340-1399), prétendant au trône de Castille, (à gauche) et du roi de Portugal et de l’Algarve Jean&nbsp;I<sup>er</sup> (1385-1433) (au centre), lors des négociations qui aboutiront au traité de Windsor (_Chronique d’Angleterre_, vol. 3, fin du XIVᵉ siècle). Wikimedia Commons

Née dans l’Empire byzantin, adoptée en Italie puis diffusée en Europe grâce à des mariages royaux et à l’influence de grandes reines, comme Bonne Sforza (1494-1557) ou Catherine de Médicis (1519-1589), la fourchette est devenue au fil des siècles un symbole de propreté, de civilité et de raffinement.


Aujourd’hui, on prend à peine conscience de saisir une fourchette. Elle fait partie d’un service de couverts standard, aussi indispensable que l’assiette elle-même. Mais il n’y a pas si longtemps, cet ustensile désormais bien banal était accueilli avec méfiance et moquerie, allant jusqu’à causer un scandale.

Il a fallu des siècles, des mariages royaux et une pointe de rébellion culturelle pour que la fourchette passe des cuisines de Constantinople (l’actuelle Istanbul) aux tables d’Europe.

Un ustensile scandaleux

Les premières versions de la fourchette ont été retrouvées dans la Chine de l’âge du bronze et dans l’Égypte antique, bien qu’elles aient probablement servi surtout à la cuisson et au service des aliments. Les Romains disposaient de fourchettes élégantes en bronze et en argent, mais là encore principalement pour la préparation des repas.

Une fourchette verte à deux dents
Fourchette de service en bronze de la Rome antique, vers le IIᵉ et le IIIᵉ siècle de notre ère.
Metropolitan Museum of Art

Manger avec une fourchette – surtout une petite fourchette personnelle – restait rare. Au Xe siècle, les élites byzantines l’utilisaient librement, choquant leurs invités venus d’Europe occidentale. Et vers le XIe siècle, la fourchette de table commença à faire son apparition lors des repas à travers l’Empire byzantin.

Fourchettes en bronze fabriquées en Perse (VIIIᵉ-IXᵉ siècles).
Wikimedia

En 1004, Maria Argyropoulina (985–1007), sœur de l’empereur Romanos III Argyros, épousa le fils du Doge de Venise et provoqua un scandale en refusant de manger avec ses doigts. Elle se servait d’une fourchette en or. Plus tard, le théologien Pierre Damien (1007–1072) déclara que la vanité de Maria, qui utilisait des « fourchettes en métal artificiel » au lieu des doigts donnés par Dieu, avait provoqué le châtiment divin de sa mort prématurée, survenue dans sa vingtaine.

Pourtant, au XIVe siècle, la fourchette était devenue courante en Italie, en partie grâce à l’essor des pâtes. Il était beaucoup plus facile de manger des filaments glissants avec un instrument à dents qu’avec une cuillère ou un couteau. L’étiquette italienne adopta rapidement la fourchette, surtout parmi les riches marchands. Et c’est par cette classe aisée que la fourchette fut introduite dans le reste de l’Europe au XVIe siècle, grâce à deux femmes.

Le rôle de Bonne Sforza

Née dans les puissantes familles Sforza de Milan et d’Aragon de Naples, Bonne Sforza (1494–1557) grandit dans un monde où les fourchettes étaient utilisées et, mieux encore, à la mode. Sa famille était rompue aux raffinements de l’Italie de la Renaissance : l’étiquette de cour, le mécénat artistique, l’habillement ostentatoire pour hommes et femmes, et les repas élégants.

Lorsqu’elle épousa Sigismond Iᵉʳ, roi de Pologne et grand-duc de Lituanie en 1518, devenant reine, elle arriva dans une région où les usages à table étaient différents. L’usage des fourchettes y était largement inconnu.

Fourchettes, cuillères et bols fabriqués à Venise, au XVIᵉ siècle.
The Trustees of the British Museum, CC BY-NC-SA

Dans les cours de Lituanie et de Pologne, l’usage des couverts restait limité. Cuillères et couteaux servaient pour les soupes, les ragoûts et la découpe de la viande, mais la plupart des aliments étaient consommés avec les mains, aidés de pain ou de « tranchoirs » – de grosses tranches de pain rassis servant à absorber les jus des plats.

Cette méthode, à la fois économique et profondément ancrée dans les traditions culinaires de la noblesse, reflétait une étiquette sociale où les plats communs et le repas partagé étaient la norme. La cour de Bonne introduisit les manières italiennes dans la région, apportant davantage de légumes, du vin italien et, surtout, la fourchette de table.

Si son usage était probablement limité au départ aux occasions formelles ou aux cérémonies de cour, il fit forte impression. Au fil du temps, et surtout à partir du XVIIe siècle, la fourchette se généralisa parmi la noblesse de Lituanie et de Pologne.

Catherine de Medicis et la France

Catherine de Médicis (1519–1589) naquit au sein de la puissante famille florentine des Médicis, nièce du pape Clément VII. En 1533, à l’âge de 14 ans, elle épousa le futur Henri II de France dans le cadre d’une alliance politique entre la France et la papauté, quittant ainsi l’Italie pour rejoindre la cour de France.

Catherine de Médicis introduisit les fourchettes en argent et les usages culinaires italiens à la cour.

Comme pour Bonne Sforza, ces nouveautés faisaient partie de son trousseau. Elle arriva d’Italie avec des cuisiniers, des pâtissiers, des parfumeurs, mais aussi des artichauts, des truffes et une vaisselle raffinée. Son sens culinaire contribua à transformer les repas de cour en véritables spectacles.

Si la légende a sans doute amplifié son influence, de nombreux plats aujourd’hui considérés comme emblématiques de la cuisine française trouvent en réalité leur origine dans sa table italienne : la soupe à l’oignon, le canard à l’orange ou encore le sorbet.

Une fourchette italienne du XVᵉ siècle.
The Met

La « bonne façon » de manger

Voyageur insatiable, Thomas Coryate (1577–1617) rapporta au début du XVIIe siècle des récits d’Italiens utilisant des fourchettes, une pratique qui paraissait encore ridiculement affectée dans son pays.

En Angleterre, l’usage de la fourchette au début du XVIIe siècle passait pour un signe de prétention. Même au XVIIIe siècle, on considérait qu’il était plus viril et plus honnête de manger avec un couteau et les doigts.

Mais à travers l’Europe, le changement était en marche. La fourchette commença à être perçue non seulement comme un ustensile pratique, mais aussi comme un symbole de propreté et de raffinement.

En France, elle devint un reflet de la civilité de cour. En Allemagne, les fourchettes spécialisées se multiplièrent aux XVIIIe et XIXe siècles : pour le pain, les cornichons, la glace ou le poisson.

En Angleterre, son usage finit par devenir un marqueur social : la « bonne façon » de la tenir distinguait les gens polis des malappris.

Vieil homme assis sur un tabouret avec une poêle et une fourchette (1888), du peintre belge Jos Ratinckx (1860-1937).
Rijksmuseum

Avec l’essor de la production de masse au XIXe siècle, l’acier rendit les couverts abordables et la fourchette devint omniprésente. À cette époque, le débat ne portait plus sur la question d’en utiliser une, mais sur la manière correcte de s’en servir. Les manuels de savoir-vivre dictaient désormais les règles : pas question de ramasser les aliments comme avec une cuillère, ni de les piquer sauvagement, et toujours tenir la fourchette dents vers le bas.

Il fallut des scandales, des toquades royales et des siècles de résistance pour que la fourchette s’impose à table. Aujourd’hui, il est presque impossible d’imaginer manger sans elle.

The Conversation

Darius von Guttner Sporzynski ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. De Byzance à nos tables : l’étonnante histoire de la fourchette, entre moqueries, scandales et châtiment divin – https://theconversation.com/de-byzance-a-nos-tables-letonnante-histoire-de-la-fourchette-entre-moqueries-scandales-et-chatiment-divin-266608