Le genre sous algorithmes : pourquoi tant de sexisme sur TikTok et sur les plateformes ?

Source: The Conversation – in French – By Hélène Bourdeloie, Sociologue, maîtresse de conférences en sciences de l’information et de la communication, Université Sorbonne Paris Nord; Centre national de la recherche scientifique (CNRS)

Le rapport de la commission parlementaire sur les effets psychologiques de TikTok sur les mineurs montre notamment que la plateforme laisse proliférer des contenus aggravant les stéréotypes de genre.

Au-delà de ses effets délétères sur la santé mentale des jeunes, le récent rapport de la commission parlementaire sur TikTok montre que la plateforme laisse proliférer des contenus sexistes, valorisant le masculin et dénigrant le féminin. Une occasion de s’interroger sur les mécanismes qui, au cœur des plateformes numériques, amplifient les stéréotypes de genre, bien loin des promesses émancipatrices portées par l’essor de l’Internet grand public des années 1990.


Alex Hitchens est un influenceur masculiniste, coach en séduction, actuellement fort de 719 000 abonnés sur TikTok. Son effarant succès est emblématique du rôle des algorithmes de recommandation dans l’amplification des discours réactionnaires. La récente commission d’enquête parlementaire sur les effets psychologiques de TikTok a donc logiquement convoqué l’influenceur star – parmi plusieurs autres aux discours tout aussi douteux – pour l’entendre en audition. Et le 11 septembre 2025, elle a rendu son rapport. Celui-ci met clairement en cause la responsabilité des algorithmes des plateformes dans la diffusion de contenus problématiques aggravant les stéréotypes de genre




À lire aussi :
TikTok et les jeunes : rentabilité et fabrique du mal-être


Cette réalité s’inscrit dans un contexte plus large renvoyant à l’état du sexisme et des inégalités entre les hommes et les femmes dans toutes les sphères de la société. Ainsi, le Baromètre sexisme 2023 du Haut conseil à l’égalité (HCE) signale la présence d’une nouvelle vague d’antiféminisme. On y apprend que 33 % des hommes considèrent que le féminisme menace leur place et rôle dans la société, et 29 % d’entre eux estiment être en train de perdre leur pouvoir.

L’Internet émancipateur, une promesse déçue

De telles données ne sont pas sans interroger la promesse émancipatrice des débuts de l’Internet. Loin d’être un espace neutre, à l’intersection du technique et du social, l’Internet est en effet sans cesse modelé par des décisions humaines, des choix politiques et des logiques économiques. Celles-ci influencent nos usages et nos comportements, qu’il s’agisse de nos manières de construire notre identité de genre (selfies, filtres, mise en scène de la féminité/masculinité), de nos pratiques relationnelles et amoureuses (applications de rencontre, codes de séduction numérique), ou encore de notre rapport au corps et à l’intimité.

Alors qu’il était censé nous libérer de normes contraignantes, l’Internet semble finalement renforcer l’ordre patriarcal en laissant proliférer des stéréotypes qui valorisent le masculin et dénigrent le féminin. En favorisant la circulation de discours qui présentent des caractéristiques prétendument féminines comme biologiques, l’Internet peut contribuer à confondre sexe et genre, à naturaliser les différences de genre, et par conséquent à essentialiser les femmes et à les inférioriser.

Les chiffres du rapport du HCE sur l’invisibilité des femmes dans le numérique sont à ce titre plus qu’éloquents. A partir de l’analyse des 100 contenus les plus vus sur YouTube, TikTok et Instagram, il établit que sur Instagram, plus des deux tiers de ces contenus (68 %) véhiculent des stéréotypes de genre, tandis qu’un quart (27 %) comprend des propos à caractère sexuel et près d’un cinquième (22 %) des propos sexistes. TikTok n’échappe pas à cette tendance avec 61 % de vidéos exposant des comportements masculins stéréotypés et 42,5 % des contenus humoristiques et de divertissement proposant des représentations dégradantes des femmes.

Fin de l’utopie cyberféministe

Aux débuts de l’Internet grand public des années 1990, héritier de l’utopie technoculturelle des années 1960-1970, on pouvait penser que cette technologie redistribuerait les cartes en matière de genre, classe ou race. Le numérique promettait plus d’horizontalité, de fluidité, d’anonymat et d’émancipation.

Dans une perspective cyberféministe, ces espaces numériques étaient vus comme des moyens de dépasser les normes établies et d’expérimenter des identités plus libres, l’anonymat permettant de se dissocier du sexe assigné à la naissance.

Si plusieurs travaux ont confirmé cette vision émancipatrice de l’Internet – visibilité des minorités, expression des paroles dominées, levier de mobilisation – une autre face de l’Internet est venue ternir sa promesse rédemptrice.

Dans les années 2000, avec la montée en puissance des logiques marchandes, les Big Tech de la Silicon Valley – et en particulier les Gafam (Google, Apple, Facebook/Meta, Amazon, Microsoft) – ont pris le contrôle du réseau et cet espace décentralisé, ouvert et commun, est devenu la propriété économique de quelques entreprises. L’Internet a pris une autre forme : oligopolistique, verticale et néolibérale.

Banalisation des discours sexistes

Aujourd’hui, les plateformes numériques, à commencer par les réseaux sociaux, cherchent à capter et retenir l’attention des internautes pour la convertir en revenus publicitaires ciblés. Cette logique est notamment poussée par des plateformes, comme TikTok, qui, en personnalisant les fils d’actualité des utilisateurs, tendent à valoriser les contenus sensationnalistes ou viraux, qui suscitent un temps de visionnage accru, à l’exemple des contenus hypersexualisés.

Dès lors, si le sexisme n’est pas né avec le numérique, les algorithmes des plateformes offrent néanmoins un terreau favorable à sa prolifération.

Les plateformes (avec leurs filtres, formats courts, mécanismes de partage, systèmes de recommandation… – à l’exemple du filtre « Bold Glamour » de TikTok, censé embellir les visages sur la base de standards irréalistes et genrés) contribuent à perpétuer et amplifier les biais de genre et sexistes, voire à favoriser la haine et la misogynie chez les jeunes.

Une étude universitaire de 2024 illustre bien la manière dont les utilisateurs de TikTok sont surexposés aux contenus sexistes. Pour observer cela, des chercheuses et chercheurs ont créé des profils fictifs de garçons adolescents. Après seulement cinq jours, ils ont constaté que le niveau de contenus misogynes présentés sur les fils « Pour toi » de ces profils avait été multiplié par quatre, révélant un biais structurel dans le système de recommandation de TikTok.

La plateforme n’est dès lors pas seulement le miroir de clivages de sexe, mais aussi le symptôme du pullulement et de la banalisation des discours sexistes. Cette idéologie, enracinée dans les sous-cultures numériques phallocrates rassemblée sous le nom de « manosphère » et passant désormais des écrans aux cours de récréation, n’a pas de frontière.




À lire aussi :
« Manosphère » : ce que les parents doivent savoir pour en parler avec leurs enfants


TikTok et les attentes genrées

Concernant TikTok, le rapport de 2023 du HCE sur l’invisibilité des femmes dans le numérique est on ne peut plus clair. Il montre que la plateforme privilégie structurellement les contenus correspondant aux attentes genrées les plus convenues. Les corps féminins normés, les performances de genre ou représentations stéréotypées, comme celle de la femme réservée, hystérique ou séductrice, y sont ainsi surreprésentées. En fait, les grandes plateformes les représentent sous un angle qui les disqualifie. Cantonnées à l’espace domestique ou intime, elles incarnent des rôles stéréotypés et passifs liés à la maternité ou l’apparence. Leurs contenus sont perçus comme superficiels face à ceux des hommes jugés plus légitimes, établissant une hiérarchie qui reproduit celle des sexes.

On se souvient ainsi du compte TikTok « @abregefrere ». Sous couvert de dénoncer le temps perdu sur les réseaux sociaux, ce compte s’amusait à résumer en une phrase le propos de créateurs et créatrices de contenus, le plus souvent issus de femmes. Créant la polémique, son succès a entraîné une vague de cyberharcèlement sexiste, révélateur d’une certaine emprise du masculinisme.




À lire aussi :
#SkinnyTok, la tendance TikTok qui fait l’apologie de la maigreur et menace la santé des adolescentes


De telles représentations exacerbent les divisions genrées et les clivages entre communautés en ligne. Sur TikTok, est ainsi né Tanaland, un espace virtuel exclusivement féminin, pensé comme un renversement du stigmate associé à l’insulte misogyne « tana » (contraction de l’espagnol « putana »), et destiné à se protéger du cybersexisme. En miroir, a été créé Charoland, pays virtuel peuplé de femmes nues destinées à satisfaire le désir masculin ; une polarisation qui opère non seulement au détriment des femmes, mais aussi des hommes qui contestent le patriarcat.

Des effets délétères en termes d’inégalités et d’image de soi

Comme en témoigne le rapport 2025 du HCE, ce contexte peut conduire à polariser les enjeux d’égalité de genre et, ce faisant, à renforcer les inégalités et violences.

Ce sont ainsi les femmes et les minorités qui restent les plus exposées à la cyberviolence et au cyberharcèlement. Selon l’ONU, 73 % des femmes dans le monde ont déjà été confrontées à des formes de violence en ligne. Et selon l’enquête « Cyberviolence et cyberharcèlement », de 2022, en cours de renouvellement, les cyberviolences visent surtout les personnes les plus vulnérables comme les jeunes (87 % des 18-24 ans en ont ainsi subi), les personnes LGBTQI+ (85 %), les personnes racisées (71 %) et les femmes de moins de 35 ans (65 %).

Ces violences affectent particulièrement la santé mentale et l’image de soi des jeunes filles, soumises à une pression permanente à la performance esthétique et constamment enjointes à réfléchir à leur exposition en ligne. De fait, leurs corps et leurs sexualités sont plus strictement régulés par un ordre moral – contrairement aux hommes souvent perçus comme naturellement prédatoires. En conséquence, elles subissent davantage le body-shaming (« humiliation du corps »), le slut-shaming ou le revenge porn, stigmatisations fondées sur des comportements sexuels prétendus déviants.




À lire aussi :
Que fait l’Europe face aux géants du numérique ?


Reflet de la société, le numérique n’a certes pas créé la misogynie mais il en constitue une caisse de résonance. Pharmakon, le numérique est donc remède et poison. Remède car il a ouvert la voie à l’expression de paroles minoritaires et contestatrices, et poison car il favorise l’exclusion et fortifie les mécanismes de domination, en particulier lorsqu’il est sous le joug de logiques capitalistes.


Un grand merci à Charline Zeitoun pour les précieux commentaires apportés à ce texte.

The Conversation

Hélène Bourdeloie ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le genre sous algorithmes : pourquoi tant de sexisme sur TikTok et sur les plateformes ? – https://theconversation.com/le-genre-sous-algorithmes-pourquoi-tant-de-sexisme-sur-tiktok-et-sur-les-plateformes-262897

L’intelligence, un concept aux multiples facettes

Source: The Conversation – in French – By Romuald Blanc, MCU-Psychologue clinicien, Université de Tours

Qu’est-ce que l’intelligence ? Comment la définir, et l’évaluer ? Il n’existe pas de réponse simple à ces questions, qui ont fait l’objet de nombreux travaux de recherche. Voici quelques pistes de réflexion.


L’intelligence est un concept complexe, qui englobe plusieurs sortes de capacités cognitives, comme la résolution de problèmes, la pensée abstraite, l’apprentissage et l’adaptation.

Elle ne se limite pas aux performances scolaires, mais inclut aussi des dimensions émotionnelles (l’ajustement émotionnel aux autres, la capacité à agir sur ses propres émotions ou « autorégulation émotionnelle »), sociales (l’adaptation sociale et prise en compte des règles et des conventions sociales qui régissent les relations humaines) et pratiques (l’adaptation au quotidien).

Pour cette raison, définir l’intelligence et l’évaluer est une tâche ardue. Les experts eux-mêmes peinent encore à s’accorder sur sa nature (unique ou multiple), son origine (innée ou acquise) ou ses mécanismes (concernant les processus cognitifs sous-jacents).

Si de nombreux modèles d’intelligence ont été proposés, jusqu’à présent, aucun consensus scientifique incontesté n’a émergé. Globalement, 3 grandes façons de définir l’intelligence se dessinent : les modèles factoriels, les approches dites « multiples » et les modèles neurocognitifs. Voici ce qu’il faut en retenir.

Les modèles factoriels

Parmi les modèles factoriels, citons le modèle mis au point par Charles Edward Spearman, psychologue britannique. Développé en 1904, il repose sur le calcul d’un facteur général d’intelligence (appelé « facteur g »). Celui-ci serait commun à toutes les tâches cognitives, tandis que pour chaque activité il existerait des facteurs spécifiques : un facteur verbal pour le langage, un facteur spatial, etc. Ces « facteurs mentaux » sont déterminés grâce à une méthode mathématique appelée analyse factorielle.

Le modèle de Spearman implique que toutes les performances intellectuelles sont corrélées. L’intelligence serait donc une capacité unique. Bien que critiqué pour son caractère réducteur, il reste une référence dans la psychométrie et la conception des tests de quotient intellectuel.

Dans les années 1930, Louis Leon Thurstone, un psychologue américain, conteste cette vision. Il affirme que l’intelligence n’est pas une capacité unique, mais un ensemble de compétences mentales primaires indépendantes. En se basant sur des analyses factorielles de tests d’intelligence qu’il a fait passer à des étudiants, il détermine qu’il existerait 7 aptitudes mentales primaires : la compréhension verbale, la fluidité verbale, les aptitudes numériques, la visualisation spatiale, la mémoire, la vitesse perceptive et le raisonnement inductif.

En 1963, dans la lignée de ces travaux, le psychologue anglo-américain Raymond Bernard Cattell défend l’idée que l’intelligence générale se divise en deux catégories principales : l’intelligence fluide, qui correspond à notre capacité à traiter de nouvelles informations, à apprendre et à résoudre des problèmes ; et l’intelligence cristallisée, qui s’apparente à nos connaissances stockées, accumulées au fil des ans.

Ce dernier modèle a influencé de nombreux tests d’intelligence modernes, comme les échelles d’intelligence de Wechsler. Il explique pourquoi certaines personnes âgées peuvent exceller dans des domaines nécessitant des connaissances établies, malgré une baisse de leurs capacités de raisonnement abstrait. Il est utilisé en psychologie cognitive et en neurosciences pour étudier le vieillissement cognitif.

Les approches multiples de l’intelligence

En se positionnant face aux modèles antérieurs, jugés réducteurs, le psychologue états-unien Howard Gardner a développé, au début des années 1980, un autre modèle de l’intelligence, intégrant les composantes sociales et culturelles. Son intérêt pour des populations atypiques telles que les enfants dits « prodiges », les « idiots-savants », ou encore les personnes avec autisme lui ont permis de prendre en considération des différentes facettes de l’activité cognitive, en respectant des différences de chacun selon ses forces, ses faiblesses et ses styles cognitifs.

Il définit ainsi huit grandes facettes de l’intelligence : linguistique, logico-mathématique, spatiale, kinesthésique, musicale, interpersonnelle, intrapersonnelle et naturaliste. Gardner propose que chacun peut développer ces intelligences à différents niveaux et qu’il existe de nombreuses façons d’être intelligent dans chacune de ces catégories.

Bien que novateur, ce modèle est critiqué pour son manque de fondement scientifique et la subjectivité de ses catégories. Certains chercheurs y voient plutôt des talents que de véritables formes d’intelligences, et son efficacité pédagogique reste à démontrer. Des critiques suggèrent que la théorie des intelligences multiples manque de fondements scientifiques solides et repose sur des catégories subjectives, souvent perçues davantage comme des talents ou des traits de personnalité que comme des formes distinctes d’intelligence.

En 1985, le psychologue américain Robert Sternberg propose un modèle triarchique de l’intelligence, intégrant des aspects cognitifs, créatifs et pratiques. Il distingue trois formes d’intelligence : analytique (résolution de problèmes logiques), créative (pensée originale et adaptation à la nouveauté) et pratique (adaptation au quotidien, intelligence sociale).

Contrairement à Spearman et Thurstone, qui envisagent l’intelligence comme un ensemble de capacités cognitives mesurables (facteur g ou aptitudes primaires), Sternberg la conçoit comme un processus adaptatif. Être intelligent, c’est savoir s’adapter à de nouvelles situations, choisir des environnements favorables et les modifier si nécessaire.

Réussir à s’intégrer dans un nouvel environnement culturel illustre par exemple cette intelligence pratique et contextuelle. Là où Spearman ou Thurstone y verraient l’expression d’aptitudes générales (raisonnement, compréhension), Sternberg y voit surtout la mise en œuvre de stratégies d’adaptation à un contexte changeant.

La théorie de Sternberg est plus étayée empiriquement que celle de Gardner, car ses composantes (analytique, créative, pratique) peuvent être testées et appliquées en éducation ou en milieu professionnel, pour mieux évaluer les compétences individuelles. La typologie proposée par Gardner, séduisante, est en revanche moins validée scientifiquement.

Si Sternberg reste plus opérationnel et crédible sur le plan scientifique, les deux approches complètent les modèles psychométriques, en mettant l’accent sur l’adaptation et le contexte.

Les modèles neurocognitifs de l’intelligence

Les modèles les plus récents d’intelligence s’appuient sur les connaissances acquises notamment grâce aux progrès effectués en neuro-imagerie (notamment grâce à l’IRM fonctionnelle, qui permet d’observer le fonctionnement cérébral lors de la réalisation d’une tâche donnée).

Ces modèles mettent en avant le rôle des réseaux cérébraux et des fonctions cognitives. Parmi les principaux, on peut citer :

  • la théorie de l’intégration fronto-pariétale : selon cette théorie, l’intelligence serait basée sur l’intégration, c’est-à-dire le traitement coordonné et harmonieux des informations entre différentes régions du cerveau, notamment entre le cortex pariétal (impliqué dans le raisonnement et le traitement spatial) et le cortex préfrontal (impliqué dans le contrôle exécutif, c’est-à-dire la régulation et la coordination des pensées, des actions et des émotions pour atteindre un but) ;

  • le modèle des fonctions exécutives : ce modèle souligne le rôle clé de la mémoire de travail (capacité à maintenir et manipuler temporairement des informations), de la flexibilité cognitive (capacité à changer de stratégie ou de point de vue) et de l’inhibition (capacité à résister à des automatismes ou distractions). Ces fonctions, essentielles pour la planification et l’adaptation, sont fortement associées au cortex préfrontal ;

  • les approches bayésiennes : elles mettent en avant l’idée que le cerveau agit comme un système prédictif, c’est-à-dire qu’il formule en permanence des hypothèses sur le monde à partir de ses expériences passées, puis les ajuste en fonction des nouvelles informations sensorielles (par exemple, lorsque nous marchons dans une rue et que nous entendons un bruit de moteur derrière nous, notre cerveau prévoit qu’une voiture approche. Si le bruit s’éloigne au lieu de se rapprocher, il met à jour son modèle interne pour ajuster sa prédiction) ;

  • le modèle des réseaux en petits mondes : ce modèle repose sur l’idée que l’intelligence dépend de l’efficacité des connexions neuronales et de la plasticité cérébrale. Le cerveau humain est organisé selon une architecture dite en petit monde, c’est-à-dire un réseau dans lequel les neurones (ou régions cérébrales) sont à la fois fortement connectés localement (favorisant la spécialisation) et efficacement reliés à distance (favorisant l’intégration globale de l’information).
    Cela signifie qu’il existe des différences interindividuelles : certaines personnes présentent des réseaux cérébraux plus efficaces, caractérisés par un équilibre optimal entre connectivité locale et connectivité globale, ce qui serait associé à de meilleures performances cognitives et à un quotient intellectuel plus élevé. Cependant, cette efficacité n’est pas figée : elle peut être modifiée par l’expérience, l’apprentissage, l’entraînement cognitif ou encore par des changements développementaux (enfance, adolescence) et neurobiologiques (plasticité synaptique, myélinisation). En d’autres termes, le cerveau peut réorganiser ses connexions pour améliorer la circulation de l’information.

Tous ces modèles postulent que l’intelligence est distribuée : elle reposerait sur l’interaction entre différentes régions du cerveau.

La théorie de l’intégration fronto-pariétale et le modèle des fonctions exécutives sont bien étayés empiriquement, grâce à des données de neuro-imagerie et des tâches expérimentales standardisées. Les approches bayésiennes offrent un cadre explicatif puissant, mais plus théorique et difficile à tester directement. Enfin, le modèle des réseaux en petits mondes est empiriquement mesurable, mais surtout corrélationnel.

Ces modèles ne s’opposent pas aux approches développementales classiques, ils les complètent en proposant une explication cérébrale et fonctionnelle des mécanismes qui sous-tendent le développement de l’intelligence

Une absence de consensus

À la fois universelle et plurielle, l’intelligence est un concept complexe, polymorphe et multidimensionnel. L’évaluer n’est pas chose aisée. Sa richesse ne peut être appréhendée à la seule aune de tests standardisés tels que le quotient intellectuel, car celui-ci ne prend pas en compte toutes les formes d’intelligence, ignorant notamment l’intelligence émotionnelle ou créative.

Une compréhension complète de l’intelligence exige de ce fait une approche globale et nuancée. À ce titre, les divers modèles de l’intelligence offrent une vision enrichissante de la complexité de ce concept, en proposant de reconnaître et de valoriser les différentes compétences et talents que chaque individu possède.

En nous incitant à adopter une perspective plus large sur l’intelligence, ils nous aident à mieux comprendre et à soutenir le développement des capacités des individus dans toute leur diversité.


Cet article est publié dans le cadre de la Fête de la science (qui a lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.

The Conversation

Romuald Blanc ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’intelligence, un concept aux multiples facettes – https://theconversation.com/lintelligence-un-concept-aux-multiples-facettes-255131

Les défis du réarmement de l’Europe : réveil stratégique ou chaos organisé ?

Source: The Conversation – in French – By Laurent Vilaine, Docteur en sciences de gestion, ancien officier, enseignant en géopolitique à ESDES Business School, ESDES – UCLy (Lyon Catholic University)

Après des décennies passées à cueillir les « dividendes de la paix », les Européens réarment à grande vitesse, mais de façon désorganisée, voire confuse. Or, la sécurité du continent dépend de la mise en œuvre d’une politique militaire pensée de façon collective et fondée sur une industrie de défense qui deviendrait nettement moins dépendante des États-Unis.


Face à la rhétorique agressive de la Russie, à ses provocations verbales et à ses opérations d’intimidation de plus en plus fréquentes, les États européens réarment. L’attitude illisible de l’administration Trump les incite encore davantage à prendre leur destin en main en matière de défense.

Mais les achats d’armements se font en ordre dispersé. Les Européens (membres de l’UE ou non) continuent de largement dépendre des États-Unis dans ce domaine ; et leur industrie de défense se développe avec une grande lenteur, malgré de progrès récents.

La fin d’une illusion

La guerre en Ukraine a été un révélateur pour les Européens. Après plus de trois décennies de désarmement prononcé pour toucher les fameux « dividendes de la paix » post-guerre froide, les budgets augmentent, accompagnés d’annonces sur des commandes de chars, d’avions de combat, de missiles.

La réactivation des réserves est mise en avant, tout comme la relance des industries d’armement. Ce mouvement, bien que tardif, illustre un gros progrès. L’Europe ne se considère plus comme un continent riche, trop heureux de confier sa protection (notamment nucléaire) aux États-Unis, sans avoir à livrer de véritables efforts propres. En cela, les critiques venues de Washington relatives au manque d’investissements des pays européens dans leur défense étaient parfaitement justifiées.

Mais ce réarmement, aussi nécessaire soit-il, se fait dans le désordre et dans la précipitation, car il est plus guidé par la peur ou par la prise de conscience que par la planification. L’UE, certes, dépense davantage, mais ne réussit pas à définir une vision d’ensemble pour bâtir une défense, sinon intégrée, tout au moins organisée.

Selon l’Institut international de recherche sur la paix de Stockholm (SIPRI), les dépenses militaires européennes ont augmenté de manière historique de 17 % en 2024, atteignant 693 milliards de dollars. La totalité des pays de l’UE, à l’exception de Malte, ont accru leurs budgets militaires. L’Allemagne, longtemps à la traîne en matière de dépenses militaires, a bondi de 28 %, à 88,5 milliards, devenant le quatrième investisseur militaire mondial, ce qui aurait été absolument inimaginable il y a seulement quelques années.

La Pologne est le pays qui consacre le plus gros pourcentage de son PIB à la défense : 4,2 % aujourd’hui contre 2 % en 2021, ce qui marque un effort colossal. L’objectif est d’atteindre 5 % en 2026. En moyenne, même si le chiffre paraît moins spectaculaire, les pays de l’UE ont progressé de 0,2 % en termes de pourcentage du PIB, passant à une moyenne de 1,3 % à 1,5 % en deux ans.

Les fameux dividendes de la paix sont désormais bien derrière nous. La sécurité extérieure redevient centrale, comme au temps de la guerre froide, mais dans un désordre qui fragilise notre souveraineté collective.

Un réarmement en ordre dispersé

Sur la carte du réarmement européen, on distingue autant de stratégies que d’États. L’Allemagne investit son Zeitenwende (changement d’ère) dans des achats auprès des États-Unis : avions F-35, missiles Patriot, hélicoptères CH-47 Chinook…

La France, avec une loi de programmation militaire 2024-2030 de 413 milliards d’euros, mise sur l’autonomie et la dissuasion nucléaire, et reste tournée vers son industrie nationale, particulièrement complète.

L’Italie et l’Espagne modernisent leur marine et leur aéronautique (programmes FREMM, Eurofighter), tout en demeurant très liées à l’Oraganisation du traité de l’Atlantique Nord (Otan). Les pays baltes et scandinaves se concentrent sur la défense territoriale (fortification des frontières) et les infrastructures d’accueil de troupes alliées.

L’Europe se réarme de manière anarchique : les Tchèques achètent des boucliers antimissiles, les Allemands lancent des satellites, la Lituanie achète des drones turcs ou israéliens, sans qu’un effort de coordination et de rationalisation des achats n’apparaisse.

Certes, cette diversité reflète des besoins réels et pressants, car les différents pays n’éprouvent pas le même sentiment d’urgence, du fait de la géographie mais également des menaces perçues comme directes ou plus lointaines, ou en raison des traditions militaires. Mais l’absence de coordination produit une fragmentation industrielle et opérationnelle. Les armées européennes utilisent aujourd’hui près de 180 systèmes d’armes différents, contre une trentaine aux États-Unis. Cette hétérogénéité augmente les coûts, complexifie la logistique – avec d’innombrables pièces détachées différentes et les compétences multiples qu’il est nécessaire d’entretenir – et, in fine, rend très délicate l’interopérabilité, c’est-à-dire la capacité des systèmes d’armes et donc des armées à travailler ensemble.

Achats d’équipements auprès d’acteurs extérieurs

La Pologne illustre les contradictions qu’engendrent les besoins immédiats de sécurité et l’incohérence stratégique. Ce grand pays, encore en avance sur l’Allemagne en matière de dépenses militaires, est devenu la locomotive militaire de l’Europe, au moins de l’Est, mais au prix d’une dépendance massive à des fournisseurs non européens.




À lire aussi :
Le réarmement massif de la Pologne : causes, conséquences et controverses


En août 2025, Varsovie a signé avec la Corée du Sud un contrat portant sur la livraison de 180 chars K2 Black Panther, pour environ 6,5 milliards de dollars, après un premier contrat d’également 180 chars en 2022 ; 61 chars seront assemblés localement sous licence. En parallèle, Varsovie achète à Séoul des obusiers K9 et des avions FA-50, mais n’oublie pas ses alliés américains en acquérant des chars Abrams.

La Pologne s’est donc tournée vers des fournisseurs capables de livrer rapidement des armes de qualité lui permettant une montée en puissance réelle. Ces avantages sont malheureusement accompagnés pour ce pays d’inconvénients réels. La Pologne dépend de la logistique étrangère, et la maintenance de matériels variés se complexifie tant en termes de pièces détachées que de compétences diverses sur des matériels différents.

Mais Varsovie n’est pas seule dans cette situation. Nous le savons déjà : via l’Otan, les États-Unis sont dominants dans la sécurité européenne. Leur parapluie nucléaire en est une forte illustration. De plus, les États-Unis sont, sur le plan industriel, le principal fournisseur des pays européens. Les avions F-35, expression de cette domination, sont désormais l’avion standard de plusieurs forces aériennes européennes. L’Allemagne a prévu 35 appareils, dont les premières livraisons interviendront en 2026, la Belgique en a commandé 34, la Pologne 32 et le Danemark 27, déjà en cours de réception. La Finlande a signé pour 64 exemplaires, livrés progressivement jusqu’en 2030, tandis que la Grèce prévoit jusqu’à 40 avions. La Norvège et les Pays-Bas ont chacun acquis 52 appareils, déjà pour la plupart opérationnels. L’Italie dispose d’environ 90 F-35, le Royaume-Uni en a prévu 138, dont une soixantaine déjà livrés. Enfin, la Suisse en a commandé 36 exemplaires, livrables à partir de 2027, et la République tchèque 24, dont les premières livraisons sont attendues vers 2031.

On le voit, de nombreux pays européens ont préféré privilégier la relation avec les États-Unis, quitte à acheter un système d’armes verrouillé. En effet, les F-35 lient leurs utilisateurs au réseau logistique américain en termes de maintenance, de formation et de mise à jour logicielle.

Cette dépendance technologique pose un problème stratégique majeur, a fortiori lorsque les États-Unis sont dirigés par une administration chaotique et imprévisible et dont l’engagement au sein de l’Otan semble plus que fragile : l’Europe ne contrôle ni ses codes sources, ni sa maintenance, ni ses calendriers d’évolution. En cas de crise transatlantique, cette vulnérabilité pourrait, en quelques semaines, dégrader très fortement les performances de sa flotte de F-35.

Ainsi, l’Europe, incapable de se détacher de la tutelle de Washington, achète sa sécurité en quelque sorte à crédit politique, sans garantie solide. Emmanuel Macron l’a souligné à la Sorbonne, en avril 2024 : « Le moment est venu pour l’Europe de devenir puissance. » Parole précieuse, mais sans grande portée tant que l’Europe se contente d’être une cliente, vulnérable aux intentions de Washington.

La dépendance vis-à-vis des États-Unis pourrait être pleinement justifiée si nous ne disposions pas de la base technique et industrielle pour posséder une véritable autonomie stratégique en matière de défense. La réalité est tout autre ; Airbus, Dassault, Thales, Leonardo, Safran, MBDA, Rheinmetall, Nexter sont autant de champions mondiaux. L’Europe dispose du savoir-faire en quantité, mais manque de coordination et de volonté politique.

Les programmes Scaf (Système de combat aérien du futur) et MGCS (char européen) symbolisent ces lenteurs. Le premier devait incarner l’avenir de la supériorité aérienne européenne. Pourtant, ce projet cumule retards et tensions entre industriels et États membres. Le second, censé succéder au Leopard 2 et au Leclerc, connaît également de grandes difficultés. L’incapacité des Européens à s’entendre profite de manière quasi automatique à leurs concurrents. Les prototypes de chars et de chasseurs des États-Unis et de la Corée du Sud pourraient être opérationnels autour des années 2030. Dans ce cadre, l’ironie est lourde : l’Europe risque de devenir acheteuse de technologies qu’elle aurait pu inventer.

L’UE tente de réagir en mettant sur pied le Fonds européen de défense (Fedef) et l’Agence européenne de défense (AED). Cependant, leurs moyens sont dérisoires (environ 8 milliards d’euros sur la période 2021-2027) et ils sont dénués de véritable gouvernance politique et budgétaire.

Nous le comprenons, la question n’est pas industrielle. L’Europe a la base technique et industrielle. Le problème est politique : les pays européens acceptent-ils de partager entre eux leur souveraineté ? Ils en sont capables, le passé l’a montré, mais la situation géopolitique actuelle nous empêche de tergiverser plus longtemps.

L’autre question essentielle est relative aux États-Unis : l’Europe peut-elle, tout en restant leur alliée, s’affranchir, au moins partiellement, de leur tutelle ? Aucun pays n’apporte de réponse identique à cette question centrale.

Les conditions de la souveraineté militaire

Plusieurs axes s’imposent pour construire une industrie de défense européenne qui entraînera un esprit de défense européen : harmoniser les normes ; mutualiser les achats ; conditionner les contrats étrangers ; créer un « Buy European Act » (équivalent du Buy American Act, une loi américaine de 1933), qui obligerait l’Europe à privilégier les entreprises et produits fabriqués en Europe dans ses marchés publics, et notamment dans la défense ; renforcer le Fedef et élaborer une doctrine commune.

Compte tenu des rapports très différents que les pays entretiennent avec Washington, il est important de montrer à toutes les parties prenantes que ces mesures ne visent pas à se découpler des États-Unis, mais seulement à rééquilibrer la relation transatlantique. Une alliance forte repose sur des partenaires autonomes et libres.

Réarmer est nécessaire. Il ne s’agit pas seulement d’aider l’Ukraine, même si cette dimension demeure. Il s’agit de tenir à distance la Russie, dont on peut parier de la permanence de l’agressivité pendant des décennies.

Réarmer ne couvre pas tout le champ de la défense. Cette dernière engage aussi la diplomatie, la technologie, l’énergie, la résilience des sociétés. Or, malgré les appels et le début de certaines réalisations, l’Europe reste très dépendante en matière d’énergie (gaz américain), de semi-conducteurs (Taïwan et Corée du Sud), du numérique (Gafam)… Une entité politique sans souveraineté ne peut être une puissance. Une souveraineté militaire – ce qui constitue déjà un véritable défi – sans souveraineté industrielle, énergétique et numérique est une illusion.

Pour autant, le réarmement européen met fin à la naïveté stratégique née des années 1990 et, probablement, à l’opportunisme économique dégagé des contraintes de défense. Mais il ne sera durable que s’il s’accompagne d’un sursaut collectif. Un sursaut collectif qui impose de penser l’Europe non plus seulement comme un marché, mais également comme une source de puissance.

L’Europe est une puissance économique avec des moyens et des cerveaux. Elle peut acquérir une souveraineté en matière de défense tout en continuant de coopérer avec les États-Unis, à considérer désormais non plus comme des amis mais comme des alliés. Les États-Unis demeurent un partenaire essentiel, mais n’ont pas à mettre l’Europe sous tutelle. L’Europe-puissance que nous appelons de nos vœux aura pour conséquence de ne plus accepter ce type de relations.

L’Europe est riche et capable. Mais il lui manque la cohésion, la volonté d’agir et la compréhension de la notion de puissance. Elle réarme. Cette évolution est satisfaisante. Mais elle doit réarmer ensemble dans le cadre d’un projet, au risque, sinon, de demeurer un géant économique, sous parapluie américain, parapluie de plus en plus troué d’ailleurs.

The Conversation

Laurent Vilaine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les défis du réarmement de l’Europe : réveil stratégique ou chaos organisé ? – https://theconversation.com/les-defis-du-rearmement-de-leurope-reveil-strategique-ou-chaos-organise-266762

Décoloniser les pratiques scientifiques : le cas du désert d’Atacama au Chili

Source: The Conversation – in French – By Adrien Tavernier, Scientist in environmental sciences, Universidad de Atacama

Est-il moral, éthique, voire tout simplement acceptable, que des projets de recherche soient menés dans des pays du « Sud global » sans qu’aucun scientifique local soit impliqué ? Une étude vient apporter une quantification de cette problématique dans la zone de la Puna sèche et du désert d’Atacama, en Amérique latine.


Tout travail de recherche scientifique implique, initialement, une revue bibliographique. Le but de ce travail préliminaire est de parcourir la littérature afin de compiler les informations susceptibles d’étayer la question principale à laquelle une équipe scientifique souhaite répondre.

C’est au cours de cette recherche bibliographique que notre équipe, travaillant sur la caractérisation environnementale de la Puna sèche et du désert d’Atacama, en Amérique du Sud, a eu l’impression que la plupart des travaux publiés jusqu’alors avaient été réalisés par des équipes étrangères, sans aucune implication de chercheurs appartenant à une institution locale.

Pour ramener la situation à la France, serait-il possible et acceptable que les Puys d’Auvergne ou la Mer de Glace soient étudiés exclusivement par des équipes issues d’organismes de recherche argentins, chiliens, péruviens ou boliviens sans participation de chercheurs appartenant à des institutions françaises ?

Localisation géographique de la Puna sèche (rouge) et du désert d’Atacama (jaune).
Fourni par l’auteur

La Puna sèche et le désert d’Atacama sont des régions du globe à cheval sur quatre pays (Argentine, Bolivie, Chili et Pérou). Ces zones géographiques particulières ont pour caractéristique principale une aridité extrême qui façonne des paysages que beaucoup qualifierait spontanément de « lunaires » ou de « martiens ». Ces deux régions correspondent en effet à ce que l’on appelle, dans le jargon scientifique, des analogues planétaires : des lieux géographiques présents sur Terre mais qui peuvent s’apparenter à des environnements extraterrestres.

La Puna sèche et le désert d’Atacama sont ainsi considérés comme de bons analogues terrestres de Mars et pourraient présenter, à l’heure actuelle, des conditions physico-chimiques proches de ce que la planète rouge aurait pu connaître au cours de son histoire géologique. Ce sont donc de formidables laboratoires naturels pour les domaines des sciences planétaires et de l’astrobiologie. Leur rareté suscite également l’intérêt des scientifiques du monde entier.

Comparaison entre un paysage terrestre dans le désert d’Atacama lors d’une campagne de recherche de météorites et un paysage martien capturé par le rover Curiosity.
Partie supérieure : Luigi Folco/Partie inférieure : NASA/JPL-Caltech/MSSS, CC BY

Comment passer d’une vague impression à une certitude de la prépondérance de travaux étrangers sur la zone géographique concernée ? Notre équipe francochilienne composée de géologues, de géophysiciens, d’astrophysiciens et de biologistes a mis en place une méthode systématique de comparaison des articles basés, d’une manière ou d’une autre, sur les caractéristiques exceptionnelles de la Puna sèche et du désert d’Atacama, dans les domaines des sciences planétaires et de l’astrobiologie.

Les résultats de cette étude ont été publiés en 2023 dans la revue Meteoritics and Planetary Science et notre impression a été confirmée : plus de 60 % des articles l’ont été sans impliquer un chercheur appartenant à une institution nationale d’un des pays abritant la Puna sèche et/ou le désert d’Atacama (5 369 articles analysés sur la sélection générale en sciences de la Terre, 161 pour les sciences planétaires et l’astrobiologie). Le déséquilibre mis en évidence est similaire à d’autres disciplines scientifiques et ne se limite pas à cette région.

La valorisation scientifique du patrimoine naturel de certains pays, sans contribution majeure des chercheurs locaux, suscite de plus en plus d’inquiétudes dans une partie de la communauté scientifique. Au cours de ce travail, nous avons découvert les termes relativement récents (depuis les années 2000) de sciences hélicoptères, sciences parachutes, sciences safari ou sciences néocoloniales (terme privilégié dans la suite de cet article) qui permettent de mettre des noms sur ces pratiques caractérisées par la mise en œuvre de projets de recherches scientifiques menées par des équipes de pays développés (Nord global) dans des pays en développement ou sous-développés (Sud global) sans aucune implication des chercheurs locaux.

Ces pratiques tendent à être considérées comme contraires à l’éthique et le sujet devient un thème de discussions et de publications au sein des sciences dures : le plus souvent sous forme de diagnostic général, mais aussi en termes de quantification.

Certaines revues scientifiques, dont Geoderma (référence du domaine en science du sol) a été l’un des pionniers à partir de 2020, ont pris l’initiative d’un positionnement sans équivoque contre les pratiques de sciences néocoloniales ouvrant la voie à la modification des lignes éditoriales afin de prendre en compte la nécessité d’impliquer les chercheurs locaux dans les publications scientifiques.

C’est le cas par exemple de l’ensemble des journaux PLOS qui exigent, depuis 2021, le remplissage d’un questionnaire d’inclusion de chercheurs locaux pour une recherche menée dans un pays tiers, exigence qui a depuis fait des émules au sein du monde de l’édition scientifique.

L’exigence éthique vis-à-vis des recherches menées dans des pays étrangers devient donc un standard éditorial important mais pas encore majeur. D’autres leviers pourraient cependant être activés comme des cadres législatifs nationaux ou internationaux restrictifs imposant la participation de chercheurs locaux dans des travaux de terrain menés par des scientifiques étrangers.

En France par exemple, la mise en place de programmes de recherche dans des territoires exceptionnels comme les îles Kerguelen (territoire subantarctique français de l’océan Indien) ou la terre Adélie en Antarctique nécessite que le projet soit porté par un scientifique, agent titulaire d’un organisme de recherche public français. Des modèles permettant d’éviter cette problématique d’appropriation culturelle d’un patrimoine naturel scientifique par des chercheurs appartenant à des institutions étrangères existent donc déjà et constituent autant de ressources sur lesquelles se fonder afin de limiter ces pratiques de sciences néocoloniales. Il nous semblerait cependant nécessaire que la communauté scientifique procède à une introspection de ces pratiques.

C’est tout l’enjeu de l’étude que nous avons menée et des travaux similaires qui se généralisent depuis quelques années : rendre ces pratiques de sciences néocoloniales visibles, notamment en quantifiant le phénomène, afin que cette problématique soit débattue au sein de la communauté. Cela a notamment permis à notre équipe de se poser des questions fondamentales sur ses pratiques scientifiques et de (re)découvrir les apports conséquents menés, depuis plus de 60 ans, par les sociologues et les épistémologues sur les racines profondes et historiques pouvant lier colonialisme, impérialisme et science et plus généralement des relations entre centre et périphérie (par exemple les déséquilibres, au sein d’un même pays, entre institutions métropolitaines ou centrales vis-à-vis des institutions régionales).

L’exemple des analogues terrestres de la Puna sèche et du désert d’Atacama illustre ainsi les écarts économique, scientifique et technologique creusés progressivement entre le Nord et le Sud global. Les sciences planétaires et l’astrobiologie, ont été historiquement liées au développement technologique de programmes spatiaux ambitieux et extrêmement coûteux dont souvent les principales ambitions n’étaient pas scientifiques. Les pays du Sud global n’ont ainsi pas eu l’opportunité de profiter de la conquête spatiale de la seconde moitié du XXe siècle pour développer une communauté scientifique locale en sciences planétaires et en astrobiologie.

Des efforts sont actuellement menés au sein du continent sud-américain afin de pallier cette situation et ainsi faciliter l’identification d’interlocuteurs scientifiques locaux par des chercheurs d’institutions étrangères souhaitant mener des recherches en sciences planétaires ou en astrobiologie en Amérique du Sud. Des démarches vertueuses entre certains chercheurs sud-américains et leurs homologues du Nord global ont aussi été menées afin de développer ex nihilo des initiatives de recherche locales dans des domaines spécifiques des sciences planétaires et de l’astrobiologie (par exemple, vis-à-vis d’un cas que notre équipe connaît bien, la recherche sur les météorites au Chili).

Dans le domaine de l’astronomie, à la marge donc des sciences planétaires et de l’astrobiologie, la mise en place des grands observatoires internationaux sur le sol chilien a permis la structuration d’une communauté locale d’astronomes et représente ainsi un bon exemple de début de coopération fructueuse entre le Nord et le Sud global. N’oublions pas de citer aussi le développement remarquable et exemplaire de l’astrobiologie au Mexique, dans les pas des scientifiques mexicains Antonio Lazcano et Rafael Navarro-González, qui démontre qu’une structuration locale indépendante reste possible et peut induire une dynamique positive pour l’ensemble du continent sud-américain.

Toutes ces initiatives restent cependant trop rares ou encore trop déséquilibrées au profit d’un leadership du Nord global et ne peuvent, selon nous, se substituer à une introspection profonde des pratiques de recherche scientifique. Dans un contexte où la légitimité des sciences est contestée, cet effort d’autocritique émanant de la communauté scientifique ne nous semblerait pas superflu.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Décoloniser les pratiques scientifiques : le cas du désert d’Atacama au Chili – https://theconversation.com/decoloniser-les-pratiques-scientifiques-le-cas-du-desert-datacama-au-chili-241954

Santé mentale : en finir avec la stigmatisation des troubles psychiques

Source: The Conversation – in French – By Thibault Jaubert, Chercheur post-doctoral en psychologie sociale et de la santé, Université Savoie Mont Blanc; Université Paris Cité

Les personnes concernées par la dépression, la schizophrénie ou d’autres troubles liés à l’altération de la santé mentale sont victimes de stéréotypes et comportements discriminatoires en raison de leur maladie. La Journée mondiale de la santé mentale du 10 octobre, sous l’égide de l’Organisation mondiale de la santé, est l’occasion de décrypter les causes de cette stigmatisation et de présenter des pistes explorées par la recherche pour la combattre.


Les troubles mentaux correspondent à des altérations de la santé mentale affectant le fonctionnement émotionnel, cognitif et social. Alors qu’on estime que près de la moitié de la population mondiale sera concernée au cours de sa vie dans la prochaine décennie, il faut faire face à un fardeau supplémentaire : la stigmatisation liée aux troubles mentaux.




À lire aussi :
Troubles mentaux : quand la stigmatisation d’aujourd’hui reflète les conceptions d’hier


Être la cible de stigmatisations, c’est faire face à des stéréotypes négatifs, des préjugés et des comportements discriminatoires. Ce sont des freins majeurs à l’accès aux soins et au rétablissement.

Comment expliquer cette stigmatisation ? Et surtout, comment y remédier ? Des pistes concrètes existent.

Troubles mentaux et stigmatisation : un phénomène préoccupant et impactant

La stigmatisation des troubles mentaux pousse de nombreuses personnes concernées à minimiser ou à dissimuler leur condition, par crainte d’être jugées ou rejetées.

Contrairement à d’autres formes de handicap qualifiées de visibles, les troubles mentaux sont souvent peu apparents, ce qui les rend faciles à dissimuler. En parallèle, cette stigmatisation peut s’intérioriser, et les personnes ayant un trouble mental peuvent parfois intégrer les stéréotypes qui les visent.

Connu sous le terme d’« auto-stigmatisation », cet effet « Why try » (« À quoi bon essayer ») amène les personnes à se sentir incapables de changer leur condition. Ses conséquences ont un coût important pour les personnes concernées en retardant le recours aux soins, le rétablissement, mais aussi en favorisant l’isolement social.

Lutter contre la stigmatisation des personnes ayant un trouble mental représente un levier stratégique pour la mise en œuvre d’interventions à large échelle. Ce combat participe donc d’un défi en santé publique, au même titre que l’amélioration des parcours de soins, l’innovation thérapeutique (non médicamenteuse comme pharmacologique) et la mise en place d’actions de promotion et de prévention (comme préconisée par la « Feuille de route Santé mentale et psychiatrie, 2018 »).

Cela s’inscrit dans un contexte où les coûts – autant humains (personnels et familiaux), sociaux qu’économiques – sont considérables. En France, le coût annuel direct et indirect des troubles mentaux avait ainsi été estimé à 163 milliards d’euros pour l’année 2018.

D’où vient la stigmatisation des troubles mentaux ?

Une première cause de stigmatisation réside dans l’ensemble des croyances que les individus entretiennent vis-à-vis des troubles mentaux. Deux prédominent dans l’opinion publique : l’idée selon laquelle les individus ayant un trouble mental seraient responsables de leur trouble ; et le fait que les troubles mentaux sont perçus comme plus dangereux.

Par exemple, les personnes concernées par des troubles de l’humeur comme la dépression sont perçues comme ne parvenant pas ou ne faisant pas suffisamment d’efforts pour contrôler leurs pensées, leurs émotions ou leurs actions. Les troubles psychotiques, tels que la schizophrénie, sont associés à un risque perçu de violence ou de comportement imprévisible.

Ces croyances favorisent des émotions négatives, comme la peur ou la colère, ce qui encourage les comportements discriminatoires à l’égard des personnes ayant un trouble mental.

Lutter contre les croyances et développer des compétences socioaffectives

Les interventions qui promeuvent une compréhension de la complexité des troubles – incluant des causes biologiques, psychologiques et sociales – peuvent contribuer à remettre en question ces croyances.

Ce levier permet de déconstruire le stéréotype selon lequel les individus seraient responsables de leur état de santé mentale ou pourraient en sortir par un simple effort de volonté. Sensibiliser sur le rôle des facteurs, tels que les traumatismes précoces, les vulnérabilités économiques et sociales et les causes génétiques, aide à déconstruire les idées erronées d’autoresponsabilité et de dangerosité.

Au-delà des croyances, une seconde cause de stigmatisation tient aux compétences socioaffectives. Entre autres, le fait de ressentir de l’anxiété, de ne pas percevoir suffisamment de similarité et d’empathie envers les personnes ayant des troubles mentaux sont des facteurs favorisant la stigmatisation. Cela traduit souvent une difficulté à se représenter l’expérience vécue par les personnes concernées, à reconnaître leurs émotions et leurs besoins.

Les interventions encourageant le contact direct ou indirect avec des personnes ayant un trouble mental s’avèrent efficaces à court et moyen terme pour diminuer la stigmatisation. Leur potentiel s’explique par le fait qu’elles favorisent le développement de ces compétences. Cependant, des recherches sont nécessaires pour en évaluer les effets à long terme.

Explorer les atouts de la réalité virtuelle

Enfin, la réalité virtuelle s’affiche comme un autre levier d’action innovant. Elle permet aux individus de s’immerger dans des simulations interactives qui reproduisent des expériences associées à certains troubles mentaux (hallucinations auditives, épisodes anxieux).

Des recherches sont encore nécessaires. Mais si ses atouts étaient confirmés, la réalité virtuelle pourrait renforcer la compréhension de ce que signifie vivre avec un trouble mental au quotidien. Ces environnements immersifs semblent en effet réduire la stigmatisation sans nécessiter un contact direct réel.

Adapter les interventions de déstigmatisation aux contextes et aux publics

Il est important de préciser que l’efficacité des interventions de lutte contre la stigmatisation dépend évidemment de plusieurs facteurs, dont leur adéquation au contexte et aux publics visés. Les programmes de sensibilisation combinant connaissances et savoirs sont adaptés aux plus jeunes puisqu’ils sont peu coûteux, facilement intégrables en contexte scolaire, et semblent produire des effets chez les 10-19 ans.

Pour assurer leur efficacité, ces initiatives doivent être menées par des professionnels de santé, ou bien des enseignants ou personnes concernées expertes dûment formées. Auprès des adultes en revanche, les approches fondées sur le contact direct et mobilisant l’empathie apparaissent plus pertinentes.

Alors que certaines représentations, notamment dans les œuvres de science-fiction ou les faits divers médiatisés, véhiculent des messages caricaturaux et alarmistes qui renforcent certaines croyances, les ressources numériques et culturelles peuvent jouer un rôle dans la diffusion de représentations plus nuancées et inclusives des troubles.

De plus, la prise de parole de personnalités participe à la normalisation du sujet dans l’espace public au travers d’initiatives, telles que Pop & Psy. Des plateformes d’information, comme Psycom ou Santé mentale-Info service, facilitent l’accès à des contenus informatifs et de premières ressources accessibles au plus grand nombre.

Un enjeu d’inclusion sociale et de santé publique

La stigmatisation de la santé mentale soulève des enjeux relatifs à l’inclusion des personnes confrontées à diverses formes de vulnérabilité, et interroge plus largement les conditions de notre vivre-ensemble. En ce sens, déstigmatiser les troubles mentaux ne relève pas d’une simple sensibilisation individuelle, mais constitue un enjeu d’inclusion sociale et de santé publique.

Pour être efficaces, les politiques de lutte contre la stigmatisation doivent adopter une approche combinant la diffusion de connaissances sur les déterminants de la santé mentale, les initiatives fondées sur l’expérience (comme le contact direct ou la réalité virtuelle), tout en impliquant l’action coordonnée des acteurs éducatifs, médiatiques, et ceux de la santé.


Nicolas Rainteau, psychiatre au Centre hospitalier spécialisé de la Savoie, spécialiste de la réhabilitation psycho-sociale, membre associé à l’Université Savoie-Mont-Blanc, est coauteur de cet article.

The Conversation

Thibault Jaubert a reçu des financements de Fondation ARHM et Chaire BEST Santé Mentale.

Arnaud Carre a reçu des financements de la Fondation Université Savoie Mont Blanc.

Annique Smeding ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Santé mentale : en finir avec la stigmatisation des troubles psychiques – https://theconversation.com/sante-mentale-en-finir-avec-la-stigmatisation-des-troubles-psychiques-266436

De Byzance à nos tables : l’étonnante histoire de la fourchette, entre moqueries, scandales et châtiment divin

Source: The Conversation – in French – By Darius von Guttner Sporzynski, Historian, Australian Catholic University

Banquet du duc de Lancaster Jean de Gand (1340-1399), prétendant au trône de Castille, (à gauche) et du roi de Portugal et de l’Algarve Jean&nbsp;I<sup>er</sup> (1385-1433) (au centre), lors des négociations qui aboutiront au traité de Windsor (_Chronique d’Angleterre_, vol. 3, fin du XIVᵉ siècle). Wikimedia Commons

Née dans l’Empire byzantin, adoptée en Italie puis diffusée en Europe grâce à des mariages royaux et à l’influence de grandes reines, comme Bonne Sforza (1494-1557) ou Catherine de Médicis (1519-1589), la fourchette est devenue au fil des siècles un symbole de propreté, de civilité et de raffinement.


Aujourd’hui, on prend à peine conscience de saisir une fourchette. Elle fait partie d’un service de couverts standard, aussi indispensable que l’assiette elle-même. Mais il n’y a pas si longtemps, cet ustensile désormais bien banal était accueilli avec méfiance et moquerie, allant jusqu’à causer un scandale.

Il a fallu des siècles, des mariages royaux et une pointe de rébellion culturelle pour que la fourchette passe des cuisines de Constantinople (l’actuelle Istanbul) aux tables d’Europe.

Un ustensile scandaleux

Les premières versions de la fourchette ont été retrouvées dans la Chine de l’âge du bronze et dans l’Égypte antique, bien qu’elles aient probablement servi surtout à la cuisson et au service des aliments. Les Romains disposaient de fourchettes élégantes en bronze et en argent, mais là encore principalement pour la préparation des repas.

Une fourchette verte à deux dents
Fourchette de service en bronze de la Rome antique, vers le IIᵉ et le IIIᵉ siècle de notre ère.
Metropolitan Museum of Art

Manger avec une fourchette – surtout une petite fourchette personnelle – restait rare. Au Xe siècle, les élites byzantines l’utilisaient librement, choquant leurs invités venus d’Europe occidentale. Et vers le XIe siècle, la fourchette de table commença à faire son apparition lors des repas à travers l’Empire byzantin.

Fourchettes en bronze fabriquées en Perse (VIIIᵉ-IXᵉ siècles).
Wikimedia

En 1004, Maria Argyropoulina (985–1007), sœur de l’empereur Romanos III Argyros, épousa le fils du Doge de Venise et provoqua un scandale en refusant de manger avec ses doigts. Elle se servait d’une fourchette en or. Plus tard, le théologien Pierre Damien (1007–1072) déclara que la vanité de Maria, qui utilisait des « fourchettes en métal artificiel » au lieu des doigts donnés par Dieu, avait provoqué le châtiment divin de sa mort prématurée, survenue dans sa vingtaine.

Pourtant, au XIVe siècle, la fourchette était devenue courante en Italie, en partie grâce à l’essor des pâtes. Il était beaucoup plus facile de manger des filaments glissants avec un instrument à dents qu’avec une cuillère ou un couteau. L’étiquette italienne adopta rapidement la fourchette, surtout parmi les riches marchands. Et c’est par cette classe aisée que la fourchette fut introduite dans le reste de l’Europe au XVIe siècle, grâce à deux femmes.

Le rôle de Bonne Sforza

Née dans les puissantes familles Sforza de Milan et d’Aragon de Naples, Bonne Sforza (1494–1557) grandit dans un monde où les fourchettes étaient utilisées et, mieux encore, à la mode. Sa famille était rompue aux raffinements de l’Italie de la Renaissance : l’étiquette de cour, le mécénat artistique, l’habillement ostentatoire pour hommes et femmes, et les repas élégants.

Lorsqu’elle épousa Sigismond Iᵉʳ, roi de Pologne et grand-duc de Lituanie en 1518, devenant reine, elle arriva dans une région où les usages à table étaient différents. L’usage des fourchettes y était largement inconnu.

Fourchettes, cuillères et bols fabriqués à Venise, au XVIᵉ siècle.
The Trustees of the British Museum, CC BY-NC-SA

Dans les cours de Lituanie et de Pologne, l’usage des couverts restait limité. Cuillères et couteaux servaient pour les soupes, les ragoûts et la découpe de la viande, mais la plupart des aliments étaient consommés avec les mains, aidés de pain ou de « tranchoirs » – de grosses tranches de pain rassis servant à absorber les jus des plats.

Cette méthode, à la fois économique et profondément ancrée dans les traditions culinaires de la noblesse, reflétait une étiquette sociale où les plats communs et le repas partagé étaient la norme. La cour de Bonne introduisit les manières italiennes dans la région, apportant davantage de légumes, du vin italien et, surtout, la fourchette de table.

Si son usage était probablement limité au départ aux occasions formelles ou aux cérémonies de cour, il fit forte impression. Au fil du temps, et surtout à partir du XVIIe siècle, la fourchette se généralisa parmi la noblesse de Lituanie et de Pologne.

Catherine de Medicis et la France

Catherine de Médicis (1519–1589) naquit au sein de la puissante famille florentine des Médicis, nièce du pape Clément VII. En 1533, à l’âge de 14 ans, elle épousa le futur Henri II de France dans le cadre d’une alliance politique entre la France et la papauté, quittant ainsi l’Italie pour rejoindre la cour de France.

Catherine de Médicis introduisit les fourchettes en argent et les usages culinaires italiens à la cour.

Comme pour Bonne Sforza, ces nouveautés faisaient partie de son trousseau. Elle arriva d’Italie avec des cuisiniers, des pâtissiers, des parfumeurs, mais aussi des artichauts, des truffes et une vaisselle raffinée. Son sens culinaire contribua à transformer les repas de cour en véritables spectacles.

Si la légende a sans doute amplifié son influence, de nombreux plats aujourd’hui considérés comme emblématiques de la cuisine française trouvent en réalité leur origine dans sa table italienne : la soupe à l’oignon, le canard à l’orange ou encore le sorbet.

Une fourchette italienne du XVᵉ siècle.
The Met

La « bonne façon » de manger

Voyageur insatiable, Thomas Coryate (1577–1617) rapporta au début du XVIIe siècle des récits d’Italiens utilisant des fourchettes, une pratique qui paraissait encore ridiculement affectée dans son pays.

En Angleterre, l’usage de la fourchette au début du XVIIe siècle passait pour un signe de prétention. Même au XVIIIe siècle, on considérait qu’il était plus viril et plus honnête de manger avec un couteau et les doigts.

Mais à travers l’Europe, le changement était en marche. La fourchette commença à être perçue non seulement comme un ustensile pratique, mais aussi comme un symbole de propreté et de raffinement.

En France, elle devint un reflet de la civilité de cour. En Allemagne, les fourchettes spécialisées se multiplièrent aux XVIIIe et XIXe siècles : pour le pain, les cornichons, la glace ou le poisson.

En Angleterre, son usage finit par devenir un marqueur social : la « bonne façon » de la tenir distinguait les gens polis des malappris.

Vieil homme assis sur un tabouret avec une poêle et une fourchette (1888), du peintre belge Jos Ratinckx (1860-1937).
Rijksmuseum

Avec l’essor de la production de masse au XIXe siècle, l’acier rendit les couverts abordables et la fourchette devint omniprésente. À cette époque, le débat ne portait plus sur la question d’en utiliser une, mais sur la manière correcte de s’en servir. Les manuels de savoir-vivre dictaient désormais les règles : pas question de ramasser les aliments comme avec une cuillère, ni de les piquer sauvagement, et toujours tenir la fourchette dents vers le bas.

Il fallut des scandales, des toquades royales et des siècles de résistance pour que la fourchette s’impose à table. Aujourd’hui, il est presque impossible d’imaginer manger sans elle.

The Conversation

Darius von Guttner Sporzynski ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. De Byzance à nos tables : l’étonnante histoire de la fourchette, entre moqueries, scandales et châtiment divin – https://theconversation.com/de-byzance-a-nos-tables-letonnante-histoire-de-la-fourchette-entre-moqueries-scandales-et-chatiment-divin-266608

Népal : La génération Z prend la rue et réinvente la contestation

Source: The Conversation – in French – By Elodie Gentina, Professeur à IESEG School of Management, Univ. Lille, CNRS, UMR 9221 – LEM – Lille, IÉSEG School of Management

À l’automne 2025, face à la censure numérique imposée par un régime népotique, des milliers de jeunes manifestants ont investi les rues de Katmandou, capitale du Népal. La répression a été brutale : au moins 72 morts, des dizaines de blessés. Porté par les réseaux sociaux, ce soulèvement s’inscrit dans une vague mondiale où les jeunesses connectées – du Maroc à Madagascar – réinventent la démocratie hors des cadres traditionnels et exigent d’être entendues.


Au Népal, l’histoire politique pourrait bien prendre un nouveau tournant. Dans ce pays de quelque 30 millions d’habitants accroché aux flancs de l’Himalaya, encore marqué par les cicatrices d’une guerre civile (1996-2006) qui a abouti à la mise en place d’une démocratie imparfaite et instable, une génération née après les combats s’affirme aujourd’hui.

Elle ne se range sous aucune bannière partisane, n’attend l’aval d’aucun chef et refuse les mots d’ordre venus d’en haut. Elle trace sa propre voie, connectée, autonome, soudée autour de ses codes et de ses écrans. Et cet automne 2025, cette jeunesse – la fameuse génération Z (personnes nées entre la fin des années 1990 et le début des années 2010) – a investi les rues, prenant tout le monde de court, à commencer par les dirigeants.

D’un royaume meurtri à une démocratie fragile

Pour mesurer ce qui se joue aujourd’hui, il faut d’abord se tourner vers le passé. Entre 1996 et 2006, le Népal a traversé une décennie de guerre civile d’une rare intensité, opposant les insurgés maoïstes au pouvoir monarchique. Ce conflit, qui a coûté la vie à plus de 13 000 personnes, s’est soldé par l’effondrement de la royauté et la naissance d’une République en 2008. Beaucoup y ont vu l’aube d’un nouvel avenir, fondé sur la justice, la stabilité et le développement.

Mais la réalité fut bien plus chaotique. En quinze ans, le pays a connu une succession de gouvernements sans lendemain, des institutions toujours fragiles et un pouvoir resté entre les mains des mêmes familles. La corruption, le favoritisme et l’absence d’horizons économiques ont peu à peu creusé un profond sentiment de désillusion. Jusque-là, la contestation prenait des formes attendues : syndicats, mouvements étudiants affiliés aux partis, mobilisations rurales ou actions maoïstes. Rien ne laissait imaginer l’irruption d’un soulèvement d’un tout autre visage.

Gen Z contre les « nepo kids » : la révolte d’une génération contre l’héritage du pouvoir

Environ 500 000 jeunes rejoignent chaque année la population active, bien plus que le nombre d’emplois disponibles. Le chômage des jeunes âgés de 15 à 24 ans au Népal est évalué à 20,8 %. Dans ces conditions, les opportunités sont rares, et des centaines de milliers de Népalais sont contraints de s’expatrier pour trouver du travail en Inde ou dans les pays du Moyen-Orient. L’idée d’un avenir meilleur dans leur propre pays leur semble de plus en plus inaccessible.




À lire aussi :
Ce que la migration au Qatar signifie pour les travailleurs népalais


Quelques jours avant que les rues ne s’embrasent, un flot d’images a envahi les réseaux sociaux népalais : on y voyait les enfants de responsables politiques exhiber voitures de luxe, séjours à l’étranger et train de vie fastueux. Ces publications, largement partagées sous les hashtags #NepoKid ou #NepoBaby, ont fait l’effet d’une étincelle dans un pays déjà traversé par une profonde frustration. Elles mettaient crûment en lumière le fossé qui sépare les élites de la population, révélant un système où privilèges et passe-droits semblent se transmettre de génération en génération.

Dans un contexte de chômage massif et d’exil forcé pour une grande partie de la jeunesse, ces images sont vite devenues le symbole d’un pouvoir déconnecté et d’une injustice profondément enracinée. Le mouvement né sur les écrans s’est alors transformé en colère dans les rues, accélérant l’éclatement d’un soulèvement populaire. Le mouvement au Népal a souvent été présenté comme une révolte de la Gen Z contre les « nepo-babies » qui s’est intensifiée à la suite de l’interdiction des réseaux sociaux et d’une répression sanglante.

La vague de vidéos dénonçant les « nepo-kids » a exprimé une colère populaire face à des décennies de népotisme enraciné au Népal. Héritage de la dynastie autoritaire des Rana (1846-1951), ce système s’est perpétué malgré la démocratisation amorcée en 1990 : les partis n’ont pas su instaurer des institutions équitables ni représentatives. Le pouvoir reste ainsi concentré entre quelques familles influentes et alliances claniques (la famille Koirala, la dynastie Rala et les dynasties « claniques »), qui continuent de contrôler partis, ressources et postes clés.

Les jeunes citoyens exigent la fin de la corruption, une gouvernance plus juste et une véritable équité économique. Fait inédit dans l’histoire politique du pays : le 9 septembre 2025, le premier ministre Khadga Prasad Sharma Oli a présenté sa démission, avant d’être remplacé par Sushila Karki, ancienne présidente de la Cour suprême, à l’issue d’un vote… organisé sur la plateforme Discord. Elle est à la tête d’une équipe transitoire chargée de préparer les élections prévues pour mars 2026.

Le manga « One Piece », emblème de révolte de la génération Z

Cette révolte est horizontale, spontanée, mouvante, en l’absence de leaders reconnus ou autoproclamés. Les messages circulent en ligne, les décisions se construisent collectivement, presque en temps réel. La culture de cette génération imprègne aussi le mouvement. Sur les pancartes, on voit des mèmes, des clins d’œil à des séries ou à des mangas. Le drapeau des Straw Hat Pirates de One Piece, symbole de liberté et de résistance, flotte parmi les manifestants. La colère s’exprime avec humour, ironie et inventivité. Loin des discours idéologiques d’antan, cette jeunesse parle un langage qui lui ressemble.

Ce symbole One Piece n’a rien d’anodin : dans l’univers du célèbre manga, Luffy incarne la lutte contre l’oppression et le rêve d’un monde plus juste. Hors des pages de fiction, ce drapeau est devenu un véritable marqueur générationnel à travers toute l’Asie. Il suffit d’y inscrire quelques mots d’ordre pour qu’il se transforme en cri de ralliement. « La génération Z ne se taira pas » ou encore « Votre luxe, notre misère », pouvaient ainsi se lire sur les banderoles brandies par des milliers de jeunes Népalais début septembre 2025, après la suspension de plates-formes comme Facebook, X ou YouTube.

Mais les revendications de la génération Z au Népal vont bien au-delà de la seule question de la censure. Elles s’attaquent à un système politique verrouillé, gangrené par les privilèges héréditaires et incapable d’offrir un avenir. Elles réclament des emplois, de la transparence, une démocratie réelle et vivante. Elles exigent surtout une chose : que leur voix compte enfin.

Une rupture générationnelle qui dépasse le Népal

La jeunesse népalaise a provoqué un séisme politique. Et cela, sans chef, sans parti, sans programme détaillé.

Reste à savoir ce que ce soulèvement va devenir. Au Népal, le gouvernement en place a même été contraint de céder, remplacé par une équipe transitoire chargée de préparer les élections prévues pour mars 2026. L’histoire montre que les mouvements sans organisation claire peuvent vite s’essouffler ou être récupérés. Reste à savoir si la jeunesse mobilisée choisira d’entrer dans l’arène électorale en présentant ses propres candidats – une perspective qui pourrait marquer un tournant majeur dans la vie politique du pays.

La nouvelle génération a pris conscience de sa force collective. Elle sait désormais qu’elle peut se mobiliser rapidement, en dehors des cadres traditionnels, et obliger le pouvoir à réagir. Elle a aussi redéfini le vocabulaire de la contestation : culture numérique, humour, pop culture, créativité… autant d’armes nouvelles pour faire passer des messages politiques.

Ce qui se joue au Népal n’est d’ailleurs pas un cas isolé. De l’Indonésie au Chili, de l’Iran aux États-Unis, ces jeunes « digital natives », nés pendant l’ère d’Internet, contestent les structures établies avec les mêmes outils et les mêmes réflexes. Le Népal s’inscrit dans ce vaste mouvement mondial d’une génération qui ne veut plus attendre et qui contribue à réinventer la démocratie à l’ère du numérique. La politique telle que nous la connaissions – organisée autour de partis, de leaders et de structures hiérarchiques – est de moins en moins adaptée aux formes d’engagement des nouvelles générations. Pour elles, la politique est une pratique fluide, horizontale, souvent ludique, toujours connectée.

The Conversation

Elodie Gentina ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Népal : La génération Z prend la rue et réinvente la contestation – https://theconversation.com/nepal-la-generation-z-prend-la-rue-et-reinvente-la-contestation-266944

Do British people want to leave the ECHR? What a decade of polls reveals

Source: The Conversation – UK – By Jacques Hartmann, Professor of International Law and Human Rights, University of Dundee

Withdrawing the UK from the European Convention on Human Rights (ECHR), once a fringe idea, has become a defining issue for political parties. Conservative leader Kemi Badenoch, who previously opposed leaving, has now said the Conservatives will take the UK out of the convention if they win an election.

Nigel Farage’s Reform UK has arguably made an ECHR exit central to its political identity. Even the Labour government has said it could reform the convention, or change how UK courts interpret the law.

The case for leaving is often framed as one of “sovereignty”, particularly in relation to immigration laws and deportation powers.

Politicians argue that the Strasbourg-based European Court of Human Rights, which enforces the ECHR, overrides “the will of the British people” and that democratic legitimacy demands withdrawal.

But evidence shows that “the people” don’t actually want to leave.

We examined more than a dozen opinion polls conducted by polling agencies, such as YouGov, since 2013. The first, that year, found 48% in favour of withdrawal and 35% in favour of remaining in the ECHR. A year later, the public was evenly split (41% leave, 38% stay), and by 2016, following the Brexit referendum, 42% said Britain should stay in the ECHR while 35% wanted to leave. Since then, the balance has shifted steadily towards remain.

By 2023, half of respondents said the UK should remain a member, while only around a quarter favoured leaving the ECHR. A poll from June 2025 produced similar results: 51% in favour of staying, 27% for leaving and 22% unsure.

The most recent YouGov data, published October 8, found that 46% of the public are opposed to leaving the ECHR, and 29% say the UK should withdraw.

Even when polls tie the ECHR to issues such as deportations to Rwanda, support for withdrawal among the general public has not exceeded 38% since 2014.

Conversely, when respondents were given more nuanced options, support for withdrawal fell. In a 2024 survey, outright support for leaving was just 16% when respondents were offered alternatives such as “always abide by the ECHR even if that frustrates Parliament” or “remain committed to the ECHR but give Parliament the final word”. With such options, 66% supported some form of continued engagement with the ECHR.

What is also clear from the polling is that Conservative and Reform voters are much more in favour of leaving the ECHR than Labour and Liberal Democrats voters. In the June YouGov poll on this issue, 54% of Conservative voters and 72% of Reform voters were in favour of leaving the ECHR while 75% of Labour and Liberal Democrats voters were against leaving.

The general results from polling are reinforced by parliamentary petitions. Since 2023, at least seven petitions have called for withdrawal from the ECHR or a referendum on membership. None has come close to the 100,000 signatures required for debate.

The most recent, which remains open until January 2026, had fewer than 19,000 signatures at the time of writing. By contrast, a petition against digital ID cards quickly amassed 2.8 million signatures.

The evidence is clear: withdrawal commands neither majority support nor political urgency.

The paradox of popular democracy

For its critics, the ECHR embodies foreign interference. Strasbourg judges are cast as overriding Westminster’s authority and undermining sovereignty. That framing is powerful in political campaigns, particularly when attached to emotive issues like asylum or terrorism.

But if democracy means following “the will of the people”, the evidence does not support the claim. At most, over the past decade, only a quarter of the electorate has supported leaving the ECHR.

And even if public opinion did shift, there is a deeper question: should such constitutional decisions rest on fluctuating majorities at all?

The ECHR was created after the second world war precisely to prevent democracy from collapsing into unchecked majority rule. Britain played a leading role in drafting it, ensuring that popular sovereignty would be balanced by entrenched rights.




Read more:
Treaties like the ECHR protect everyone in the UK, not just migrants


That is why human rights protections are deliberately counter-majoritarian, safeguarding individuals and minorities from the excesses of majority impulses.

Yet today’s political rhetoric often inverts that logic. By invoking the language of popular sovereignty to justify withdrawing from the ECHR – despite evidence that the public does not support it – politicians risk undermining the very stability those rights were designed to protect. This is an especially serious concern for the UK, which lacks the constitutional safeguards found in many other democracies.

An empty dinghy sits on a beach in Kent
The ECHR is often discussed in relation to the government’s ability to deport people who arrive in the UK illegally.
Sean Aidan Calderbank/Shutterstock

A large share of respondents to the polls examined were “unsure” about withdrawal – ranging from 15 to 25% across the surveys. It’s therefore possible that true support for remaining in the ECHR may be higher than headline polls imply.

The latest YouGov survey asked respondents how much they know about the ECHR, and found just 5% of respondents claimed to know “a great deal” about the convention, while 49% said they do not know very much, and 15% said they know nothing at all.

Research shows that attitudes towards human rights grow more positive as knowledge of human rights increases. A Scottish Human Rights Commission study in 2018 found that indifference often masks confusion rather than hostility.

The Independent Review of the Human Rights Act in 2021 reached a similar conclusion, stressing that greater public understanding of human rights institutions strengthens support.

This is why it is important for people and politicians to understand that conventions like the ECHR are not just about migrants and asylum seekers. They protect the rights of everyone in matters that affect us all – from privacy at home and fair treatment in court, to freedom of speech, protection from discrimination and dignity in care.

The growing political momentum for withdrawal from the ECHR is not matched by popular demand. Instead, politicians are proposing to amend Britain’s constitutional order in the name of “the people” while ignoring what a majority of people actually want, undoing constitutional safeguards and democratic institutions in the process.

The lesson of postwar Europe is clear: constitutional safeguards against majority rule are not an obstacle to democracy, but one of its foundations. To abandon them would not only place the UK alongside Russia and Belarus – the only European states outside the ECHR – but also risk repeating the very errors the convention was created to prevent.

The Conversation

Jacques Hartmann has received external research funding from a range of government and charitable sources, including the European Commission (Horizon 2020), NordForsk, the British Academy, and private foundations such as Dreyer’s Trust and the Max Sørensen Foundation. None of these funders had any role in the conception, research, or writing of this article, which was undertaken independently and without specific project funding.

Dr Edzia Carvalho has received funding from the British Academy, the Scottish Government, the Carnegie Foundation, and FIDH. None of these funders had any role in the conception, research, or writing of this article, which was undertaken independently and without specific project funding.

Dr Samuel White has previously received funding from the Carnegie Trust for the Universities of Scotland and the Royal Society of Edinburgh. He represents the Law Society of Scotland on the Scottish Government’s Human Rights Incorporation and Implementation Oversight Board; this article is written in a personal capacity.

ref. Do British people want to leave the ECHR? What a decade of polls reveals – https://theconversation.com/do-british-people-want-to-leave-the-echr-what-a-decade-of-polls-reveals-266682

Without proper support, a diagnosis of dyslexia risks being just a label

Source: The Conversation – UK – By Penelope Hannant, Assistant Professor in Educational Inclusion, University of Birmingham

PeopleImages/Shutterstock

Whether and when to use the label “dyslexia” has been a perennial debate in education.

Some experts and academics argue that there is too much focus on the diagnosis of dyslexia, rather than on providing support for all children who struggle to learn to read. Others argue that children with the most significant difficulties have to fight to get the recognition they need.

Public figures, including celebrity chef Jamie Oliver, have called for all children to receive early screening for dyslexia.

We work together as researchers in psychology and education, with expertise in how children learn to read, dyslexia, neurodiversity, and how children with special educational needs should be supported. While calls for universal dyslexia screening are well intentioned, we believe this approach could lead to more problems than solutions.

One concern is the lack of accuracy in many screening tools, which can result in unclear or misleading outcomes.

Literacy difficulties are complex. Dyslexia is just one of many possible reasons a child might struggle with reading and writing. Focusing too narrowly on dyslexia risks missing other important learning needs.

Screening also has other limitations. A dyslexia screener is a tool used to flag potential indicators of dyslexia, which may involve one or more approaches such as teacher observations, structured audits, questionnaires or digital assessments. It offers only a brief snapshot of a child’s abilities, rather than a full picture of how they learn.

Small children raising hands in class
A range of factors influence how children learn.
PeopleImages/Shutterstock

Another crucial issue is what happens after screening. Without enough resources to follow up on screening results, teachers, parents and children may be left feeling frustrated and unsupported.

If there’s no clear plan for what happens next, it can raise expectations without delivering real help. This can leave families and educators disillusioned and children without the support they need to succeed.

We both strongly believe in the value of a dyslexia diagnosis in the right context. One of us (Julia Carroll) recently led a project to gain consensus about the most appropriate definition of dyslexia and the best approach to assessment.

On the basis of this research, we believe a multi-phase process should be used. For younger children, the focus should be on needs rather than diagnosis. Extra help should be available for any children starting to fall behind. Some of these children will progress well. Others will continue to struggle, and an assessment for dyslexia may be warranted.

This approach relies on a thorough understanding of a child’s needs, rather than prematurely categorising young children.

Holistic approaches

One of us (Penny Hannant) has developed a broad-based questionnaire to measure and aid development in early schooling. By gathering information about a child’s development, such as how they respond to sounds, move their body, react to sensory input and process what they see, we can build a clearer picture of what kind of support they might need.

This approach allows for teachers to intervene before educational gaps emerge, offering a more refined and responsive foundation for learning.

A full profiling of strengths and weaknesses is also crucial to diagnostic assessment. Recent research indicates that developmental disorders such as dyslexia tend to have multiple causes, and that there is a great deal of overlap between different disorders.

Research suggests that a significant proportion of children with dyslexia also meet criteria for developmental language disorder or attention deficit hyperactivity disorder, which can significantly influence how dyslexia develops.

This means that any diagnostic process must take into account the whole child rather than relying on narrow or isolated criteria. To ensure this, schools need in-house specialists who are equipped to conduct holistic assessments and guide tailored support. A well-informed diagnosis not only helps children do better at school, but means they can continue to get the right support as they transition into adulthood.

The Conversation

Penelope Hannant is on the board of trustees with PATOSS, the dyslexia charity.

Julia M. Carroll receives funding from the Education Endowment Foundation and from the Economic and Social Research Council. She is on the board of trustees with PATOSS, the dyslexia charity.

ref. Without proper support, a diagnosis of dyslexia risks being just a label – https://theconversation.com/without-proper-support-a-diagnosis-of-dyslexia-risks-being-just-a-label-264153

Research suggests rich people tend to be more selfish – but why is that?

Source: The Conversation – UK – By Steve Taylor, Senior Lecturer in Psychology, Leeds Beckett University

North Monaco/Shutterstock

From Disney’s Scrooge McDuck and Cruella de Vil to DC Comics’ Lex Luthor to and Mr Burns in the Simpsons, there are plenty of examples of wealthy people using their money and power in evil ways. But is there any truth to the stereotype that rich people are mean?

There are many rich people who act benevolently, including philanthropists who give a lot of their money away. However, research in psychology has found a clear link between wealth and unethical behaviour, including an increased tendency to cheat and steal.

One study found that wealthy upper class people were more likely to have a selfish focus on their interests. Conversely, another study found that people from lower social classes were more likely to feel compassion for other people’s suffering.

Researchers have also established that drivers of expensive cars are less likely to behave altruistically than other drivers. They are less likely to slow down to let pedestrians cross or to let other drivers join the road.

They are also more likely to drive aggressively and disobey traffic rules. One study found that the likelihood of the drivers slowing down to let pedestrians cross the road decreased by 3% for every US$1,000 (£738.50) that their car was worth.

But it’s not just that these people are bad drivers. A study by Finnish psychologists found that owners of luxury cars had a higher prevalence of negative personality traits such as being disagreeable, stubborn and lacking in empathy.

In simple terms, it seems that rich people are less likely to be altruistic.

What could explain this link? Perhaps wealth turns people bad, isolating them from others and making them more selfish. Or is it that people who are already ruthless and selfish are more likely to become extremely wealthy?

One way of clarifying this is to think in terms of what psychologists refer as dark triad personalities. These are people who have combined traits of psychopathy, narcissism and machiavellianism (acting immorally to get power). These traits – which all involve selfishness and low empathy – almost always overlap and can be difficult to distinguish from one another. They exist on a continuum in the population as a whole.

Research shows that dark triad personalities tend to possess higher levels of status and wealth. A study following participants for 15 years found that people with dark triad traits gravitated towards the top of the organisational hierarchy and were wealthier.

Man portrait with evil look isolated on black background.
Research suggests financially successful people are more likely to have dark traits.
CebotariN/Shutterstock

In line with those findings, according to some estimates, the base rate for clinical levels of psychopathy is three times higher among corporate boards than in the overall population. Research also indicates that young people with dark triad traits are more highly represented on business courses at university or college.

Why do mean people seek wealth?

In my view, the correlation between wealth and nastiness is quite easy to explain. In my book The Fall, I suggest that some people experience a state of intense psychological separation. Their psychological boundaries are so strong that they feel disconnected from other people and the world, which can come with a lack of empathy or emotional connection.

One effect of this state of disconnection is a sense of psychological lack. People feel incomplete, as if something is missing. In turn, this generates an impulse to accumulate wealth, status and power, as a way of compensating.

On the flip side, people who feel a sense of connection others and to the world don’t feel a sense of incompleteness and so don’t tend to have a strong desire for power or wealth.

At the same time, a lack of empathy can make it easier to attain success. It means you can be ruthless in your pursuit of wealth and status, manipulating and exploiting others. If other people suffer as the result of your actions – and lose their livelihood or reputation – it doesn’t concern you as much. Without empathy, you can’t sense the suffering you cause.

So psychological disconnection has two disastrous effects: it generates a strong desire for wealth and status, together with the ruthlessness that makes wealth and success easily attainable.

Wealth and wellbeing

Of course, I’m not claiming that all wealthy people are mean. Some people become wealthy by accident, or because they have brilliant ideas, or even because they want to use their wealth to benefit others. But given the factors described above, it is not surprising that there is a high incidence of meanness among the wealthy.

The studies cited above imply that the link seems to be proportional, in that the more wealthy a person is, the more likely they are to possess dark triad traits. And we know that most dark traits, such as psychopathy are linked to similar or lower levels of happiness to others. An exception is a certain type of narcissism, called grandiose narcissism, which is linked to higher happiness.

A great deal of research in psychology has shown only a weak correlation between wealth and wellbeing. A 2010 study by Nobel laureate Daniel Kahneman and Angus Deaton found that happiness increased in line with income up to around US$75,000 (£54,9612) a year (equivalent to US$110,000 in 2025). However, this is where the correlation ended. According to the study, after US$110,000 a year, it doesn’t matter how rich you become; it won’t make you any happier.

Newer research, however, has found slightly different results. A recent study by Kahneman and colleagues indicated that happiness continues to increase with income for a proportion of rich people – but not for an unhappy minority. A 2022 study also found that the threshold at which happiness plateaus depends on the country – in societies with greater inequality, there was a higher threshold.

What’s more, another study by Kahneman and other colleagues found that, for people who were preoccupied with striving for financial success, life satisfaction actually decreased as income increased.

Overall though, evidence suggests that wealthy people are unlikely to attain the contentment they seek through money alone. Their wealth and status don’t take away their sense of incompleteness.

This might be another reason why extremely rich people tend to act unethically – as their sense of disconnection grows stronger. In contrast, research shows a strong link between altruism and wellbeing. So perhaps that is where we should focus our attention – not on becoming rich, but becoming kind.

The Conversation

Steve Taylor does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Research suggests rich people tend to be more selfish – but why is that? – https://theconversation.com/research-suggests-rich-people-tend-to-be-more-selfish-but-why-is-that-265794