Du chatbot du pape au canard de Vaucanson, les croyances derrière l’intelligence artificielle ne datent pas d’hier

Source: The Conversation – France in French (2) – By Michael Falk, Senior Lecturer in Digital Studies, The University of Melbourne

Le feu de Prométhée, un mythe qui explique en partie le succès du narratif entourant l’IA. Public domain, via Wikimedia Commons

Des mythes antiques à la tête parlante du pape, de Prométhée aux algorithmes modernes, l’intelligence artificielle (IA) puise dans notre fascination intemporelle pour la création et le pouvoir de la connaissance.


Il semble que l’engouement pour l’intelligence artificielle (IA) ait donné naissance à une véritable bulle spéculative. Des bulles, il y en a déjà eu beaucoup, de la tulipomanie du XVIIe siècle à celle des subprimes du XXIe siècle. Pour de nombreux commentateurs, le précédent le plus pertinent aujourd’hui reste la bulle Internet des années 1990. À l’époque, une nouvelle technologie – le World Wide Web – avait déclenché une vague d’« exubérance irrationnelle ». Les investisseurs déversaient des milliards dans n’importe quelle entreprise dont le nom contenait « .com ».

Trois décennies plus tard, une autre technologie émergente déclenche une nouvelle vague d’enthousiasme. Les investisseurs injectent à présent des milliards dans toute entreprise affichant « IA » dans son nom. Mais il existe une différence cruciale entre ces deux bulles, qui n’est pas toujours reconnue. Le Web existait. Il était bien réel. L’intelligence artificielle générale, elle, n’existe pas, et personne ne sait si elle existera un jour.

En février, le PDG d’OpenAI, Sam Altman, écrivait sur son blog que les systèmes les plus récents commencent tout juste à « pointer vers » l’IA dans son acception « générale ». OpenAI peut commercialiser ses produits comme des « IA », mais ils se réduisent à des machines statistiques qui brassent des données, et non des « intelligences » au sens où on l’entend pour un être humain.

Pourquoi, dès lors, les investisseurs sont-ils si prompts à financer ceux qui vendent des modèles d’IA ? L’une des raisons tient peut-être au fait que l’IA est un mythe technologique. Je ne veux pas dire par là qu’il s’agit d’un mensonge, mais que l’IA convoque un récit puissant et fondateur de la culture occidentale, celui des capacités humaines de création. Peut-être les investisseurs sont-ils prêts à croire que l’IA est pour demain, parce qu’elle puise dans des mythes profondément ancrés dans leur imaginaire ?

Le mythe de Prométhée

Le mythe le plus pertinent pour penser l’IA est celui de Prométhée, issu de la Grèce antique. Il en existe de nombreuses versions, mais les plus célèbres se trouvent dans les poèmes d’Hésiode, la Théogonie et les Travaux et les Jours, ainsi que dans la pièce Prométhée enchaîné, traditionnellement attribuée à Eschyle.

Prométhée était un Titan, un dieu du panthéon grec antique. C’était aussi un criminel, coupable d’avoir dérobé le feu à Héphaïstos, le dieu forgeron. Dissimulé dans une tige de fenouil, le feu fut apporté sur Terre par Prométhée, qui l’offrit aux humains. Pour le punir, il fut enchaîné à une montagne, où un aigle venait chaque jour lui dévorer le foie.

Le don de Prométhée n’était pas seulement celui du feu ; c’était celui de l’intelligence. Dans Prométhée enchaîné, il affirme qu’avant son don, les humains voyaient sans voir et entendaient sans entendre. Après celui-ci, ils purent écrire, bâtir des maisons, lire les étoiles, pratiquer les mathématiques, domestiquer les animaux, construire des navires, inventer des remèdes, interpréter les rêves et offrir aux dieux des sacrifices appropriés.

Le mythe de Prométhée est un récit de création d’un genre particulier. Dans la Bible hébraïque, Dieu ne confère pas à Adam le pouvoir de créer la vie. Prométhée, en revanche, transmet aux humains une part du pouvoir créateur des dieux.

Hésiode souligne cet aspect du mythe dans la Théogonie. Dans ce poème, Zeus ne punit pas seulement Prométhée pour le vol du feu ; il châtie aussi l’humanité. Il ordonne à Héphaïstos d’allumer sa forge et de façonner la première femme, Pandore, qui déchaîne le mal sur le monde. Or le feu qu’Héphaïstos utilise pour créer Pandore est le même que celui que Prométhée a offert aux humains.

Prométhée façonnant le premier homme, dans une gravure du XVIIIᵉ siècle
Prométhée façonnant le premier homme, dans une gravure du XVIIIᵉ siècle.
Wikimedia

Les Grecs ont avancé l’idée que les humains sont eux-mêmes une forme d’intelligence artificielle. Prométhée et Héphaïstos recourent à la technique pour fabriquer les hommes et les femmes. Comme le montre l’historienne Adrienne Mayor dans son ouvrage Gods and Robots, les Anciens représentaient souvent Prométhée comme un artisan, utilisant des outils ordinaires pour créer des êtres humains dans un atelier tout aussi banal.

Si Prométhée nous a donné le feu des dieux, il semble logique que nous puissions utiliser ce feu pour fabriquer nos propres êtres intelligents. De tels récits abondent dans la littérature grecque antique, de l’inventeur Dédale, qui créa des statues capables de prendre vie, à la magicienne Médée, qui savait rendre la jeunesse et la vigueur grâce à ses drogues ingénieuses. Les inventeurs grecs ont également conçu des calculateurs mécaniques pour l’astronomie ainsi que des automates remarquables, mues par la gravité, l’eau et l’air.

Le pape et le chatbot

Deux mille sept cents ans se sont écoulés depuis qu’Hésiode a consigné pour la première fois le mythe de Prométhée. Au fil des siècles, ce récit a été repris sans relâche, en particulier depuis la publication, en 1818, de Frankenstein ; ou le Prométhée moderne de Mary Shelley.

Mais le mythe n’est pas toujours raconté comme une fiction. Voici deux exemples historiques où le mythe de Prométhée semble s’être incarné dans la réalité.

Gerbert d’Aurillac fut le Prométhée du Xe siècle. Né au début des années 940 de notre ère, il étudia à l’abbaye d’Aurillac avant de devenir moine à son tour. Il entreprit alors de maîtriser toutes les branches du savoir connues de son temps. En 999, il fut élu pape. Il mourut en 1003 sous son nom pontifical de Sylvestre II.

Des rumeurs sur Gerbert se répandirent rapidement à travers l’Europe. Moins d’un siècle après sa mort, sa vie était déjà devenue légendaire. L’une des légendes les plus célèbres, et la plus pertinente à l’ère actuelle de l’engouement pour l’IA, est celle de la « tête parlante » de Gerbert. Cette légende fut racontée dans les années 1120 par l’historien anglais Guillaume de Malmesbury dans son ouvrage reconnu et soigneusement documenté, la Gesta Regum Anglorum (Les actions des rois d’Angleterre).

Gerbert possédait des connaissances approfondies en astronomie, une science de la prévision. Les astronomes pouvaient utiliser l’astrolabe pour déterminer la position des étoiles et prévoir des événements cosmiques, comme les éclipses. Selon Guillaume, Gerbert aurait mis son savoir en astronomie au service de la création d’une tête parlante. Après avoir observé les mouvements des étoiles et des planètes, il aurait façonné une tête en bronze capable de répondre à des questions par « oui » ou par « non ».

Gerbert posa d’abord la question : « Deviendrai-je pape ? »

« Oui », répondit la tête.

Puis il demanda : « Mourrai-je avant d’avoir célébré la messe à Jérusalem ? »

« Non », répondit la tête.

Dans les deux cas, la tête avait raison, mais pas comme Gerbert l’avait prévu. Il devint bien pape et évita judicieusement de partir en pèlerinage à Jérusalem. Un jour cependant, il célébra la messe à la basilique Sainte-Croix-de-Jérusalem à Rome. Malheureusement pour lui, la basilique était alors simplement appelée « Jérusalem ».

Gerbert tomba malade et mourut. Sur son lit de mort, il demanda à ses serviteurs de découper son corps et de disperser les morceaux, afin de rejoindre son véritable maître, Satan. De cette manière, il fut, à l’instar de Prométhée, puni pour avoir volé le feu.

Le pape Sylvestre II et le Diable.
Wikimedia

C’est une histoire fascinante. On ne sait pas si Guillaume de Malmesbury y croyait vraiment. Mais il s’est bel et bien efforcé de persuader ses lecteurs que cela était plausible. Pourquoi ce grand historien, attaché à la vérité, aurait-il inséré une légende fantaisiste sur un pape français dans son histoire de l’Angleterre ? Bonne question !

Est-ce si extravagant de croire qu’un astronome accompli puisse construire une machine de prédiction à usage général ? À l’époque, l’astronomie était la science de la prédiction la plus puissante. Guillaume, sobre et érudit, était au moins disposé à envisager que des avancées brillantes en astronomie pourraient permettre à un pape de créer un chatbot intelligent.

Aujourd’hui, cette même possibilité est attribuée aux algorithmes d’apprentissage automatique, capables de prédire sur quelle publicité vous cliquerez, quel film vous regarderez ou quel mot vous taperez ensuite. Il est compréhensible que nous tombions sous le même sortilège.

L’anatomiste et l’automate

Le Prométhée du XVIIIe siècle fut Jacques de Vaucanson, du moins si l’on en croit Voltaire :

Le hardi Vaucanson, rival de Prométhée,
Semblait, de la nature imitant les ressorts
Prendre le feu des cieux pour animer les corps.

Jacques de Vaucanson, par Joseph Boze (1784).
Wikimedia

Vaucanson était un grand mécanicien, célèbre pour ses automates, des dispositifs à horlogerie reproduisant de manière réaliste l’anatomie humaine ou animale. Les philosophes de l’époque considéraient le corps comme une machine – alors pourquoi un mécanicien n’aurait-il pu en construire une ?

Parfois, les automates de Vaucanson avaient aussi une valeur scientifique. Il construisit par exemple un « Flûteur automate » doté de lèvres, de poumons et de doigts, capable de jouer de la flûte traversière de façon très proche de celle d’un humain. L’historienne Jessica Riskin explique dans son ouvrage The Restless Clock que Vaucanson dut faire d’importantes découvertes en acoustique pour que son flûtiste joue juste.

Parfois, ses automates étaient moins scientifiques. Son « Canard digérateur » connut un immense succès, mais se révéla frauduleux. Il semblait manger et digérer de la nourriture, mais ses excréments étaient en réalité des granulés préfabriqués dissimulés dans le mécanisme.

Vaucanson consacra des décennies à ce qu’il appelait une « anatomie en mouvement ». En 1741, il présenta à l’Académie de Lyon un projet visant à construire une « imitation de toutes les opérations animales ». Vingt ans plus tard, il s’y remit. Il obtint le soutien du roi Louis XV pour réaliser une simulation du système circulatoire et affirma pouvoir construire un corps artificiel complet et vivant.

Trois automates de Vaucanson, le Flûteur automate, le Canard digérateur et le Berger provençal.
Wikimedia

Il n’existe aucune preuve que Vaucanson ait jamais achevé un corps entier. Finalement, il ne put tenir la promesse que soulevait sa réputation. Mais beaucoup de ses contemporains croyaient qu’il en était capable. Ils voulaient croire en ses mécanismes magiques. Ils souhaitaient qu’il s’empare du feu de la vie.

Si Vaucanson pouvait fabriquer un nouveau corps humain, ne pourrait-il pas aussi en réparer un existant ? C’est la promesse de certaines entreprises d’IA aujourd’hui. Selon Dario Amodei, PDG d’Anthropic, l’IA permettra bientôt aux gens « de vivre aussi longtemps qu’ils le souhaitent ». L’immortalité semble un investissement séduisant.

Sylvestre II et Vaucanson furent de grands maîtres de la technologie, mais aucun des deux ne fut un Prométhée. Ils ne volèrent nul feu aux dieux. Les aspirants Prométhée de la Silicon Valley réussiront-ils là où leurs prédécesseurs ont échoué ? Si seulement nous avions la tête parlante de Sylvestre II, nous pourrions le lui demander.

The Conversation

Michael Falk a reçu des financements de l’Australian Research Council.

ref. Du chatbot du pape au canard de Vaucanson, les croyances derrière l’intelligence artificielle ne datent pas d’hier – https://theconversation.com/du-chatbot-du-pape-au-canard-de-vaucanson-les-croyances-derriere-lintelligence-artificielle-ne-datent-pas-dhier-272357

Soin des cheveux, des dents… Ce que les traces biochimiques laissées par les lecteurs de la Renaissance disent de la médecine de l’époque

Source: The Conversation – France in French (3) – By Stefan Hanß, Professor of Early Modern History, University of Manchester

Grâce à une technique de pointe, les chercheurs ont pu analyser les traces biologiques laissées par les lecteurs en annotant les livres. Wellcome Collection

Les livres médicaux de la Renaissance ne sont pas seulement des textes anciens : ils portent aussi les traces invisibles de ceux qui les ont manipulés. Des chercheurs ont découvert des protéines et autres indices biologiques qui révèlent les pratiques et expérimentations médicales du XVIᵉ siècle.


Et si le papier des pages d’un vieux livre pouvait nous dire qui les a touchées, quels remèdes furent préparés et même comment les corps réagirent aux traitements ?

Les livres de recettes médicales de la Renaissance regorgent de notes manuscrites laissées par des lecteurs qui ont testé des remèdes contre des problèmes allant de la calvitie au mal de dents. Pendant des années, les historiens ont étudié ces annotations pour comprendre comment on expérimentait la médecine autrefois. Nos recherches récentes vont plus loin. Avec mes collègues, nous avons mis au point une méthode permettant de lire non seulement les mots inscrits sur ces pages, mais aussi les traces biologiques invisibles laissées par les personnes qui les ont utilisées.

Des milliers de manuscrits et de livres imprimés ont survécu de l’Europe de la Renaissance, consignant des recettes médicales employées dans la vie quotidienne. Il ne s’agissait pas de volumes rares ou réservés à une élite. Beaucoup étaient des « best-sellers » médicaux, largement diffusés, puis personnalisés par des lecteurs qui ajoutaient des notes dans les marges. Quelles recettes fonctionnaient le mieux ? Quels ingrédients pouvaient être remplacés ou améliorés ? Loin d’être des textes figés, ces livres étaient des documents de travail. La Renaissance fut une période d’innovation médicale, nourrie par des expérimentations pratiques maintes fois répétées.

Pour la première fois, nous avons pu prélever et analyser des protéines invisibles laissées sur les pages de ces livres par les personnes qui les ont manipulés.

Ce travail relève d’une véritable enquête biochimique. Chaque fois qu’un lecteur du XVIᵉ siècle touchait une page, il y déposait de minuscules traces d’acides aminés, les éléments constitutifs des protéines. Ces traces peuvent aujourd’hui être prélevées grâce à des films spécialisés produits par SpringStyle Tech Design, qui soulèvent délicatement la matière à la surface du papier sans l’endommager. Nous avons échantillonné des livres médicaux allemands du XVIᵉ siècle, aujourd’hui conservés à la bibliothèque John-Rylands de l’Université de Manchester. Les échantillons de protéines ont été analysés dans des laboratoires des universités de York et d’Oxford tandis que le laboratoire d’imagerie de la Rylands a utilisé des techniques avancées pour restituer des textes effacés ou devenus illisibles.

Se concentrer sur des livres est essentiel. Comme ces volumes ont été produits en plusieurs exemplaires, il est possible de comparer les traces biochimiques entre des textes similaires, ce qui nous aide à distinguer ce que le livre prescrivait de ce que les lecteurs faisaient réellement avec lui.

Cette approche combinée nous a permis de recueillir des informations remarquables sur les personnes qui utilisaient ces livres, les substances qu’elles manipulaient et les remèdes qu’elles préparaient. Lue en parallèle des sources d’archives, elle offre un éclairage nouveau sur le fonctionnement concret de la médecine de la Renaissance dans la vie quotidienne.

Sur des pages recommandant des remèdes précis, nous avons identifié des traces protéiques provenant justement des ingrédients mentionnés dans les recettes. On trouve des traces de cresson de fontaine, de hêtre européen et de romarin à côté d’instructions visant à traiter la perte de cheveux ou à stimuler la croissance des cheveux et de la barbe.

Cette attention portée aux cheveux n’a rien de surprenant. Avec l’essor du portrait et l’expansion du commerce des peignes et des miroirs, les barbes et les nouvelles coiffures sont devenues à la mode à la Renaissance. Les cheveux étaient alors très visibles, chargés de sens social et étroitement liés aux conceptions de la santé et de la masculinité.

Recettes répugnantes

Certaines découvertes se sont révélées plus déroutantes. À proximité d’une recette proposant un traitement extrême contre la calvitie, nous avons détecté des traces d’excréments humains.

Cela correspond étroitement aux conceptions de la Renaissance sur les cheveux. Dans la pensée médicale médiévale et du début de l’époque moderne, les cheveux étaient considérés comme une excrétion du corps, au même titre que la sueur, les matières fécales ou les ongles. Comme l’ont formulé crûment certains chercheurs, « les cheveux, c’était de la merde ». Dans cette perspective, utiliser des déchets humains pour traiter les cheveux n’avait rien de grotesque, mais relevait d’une logique cohérente.

Nous avons également identifié des protéines provenant de plantes à fleurs jaune vif à proximité de recettes destinées à teindre les cheveux en blond. Ces plantes ne figuraient pas parmi les ingrédients mentionnés par écrit. Leur présence suggère que les lecteurs expérimentaient au-delà des instructions figurant sur la page, guidés par le symbolisme des couleurs et par des propriétés médicinales supposées. Ici, l’expérimentation devient visible non seulement dans les notes marginales, mais aussi dans l’archive biologique elle-même.

D’autres traces protéiques indiquent l’utilisation de lézards dans des remèdes capillaires. Dans la philosophie naturelle de la Renaissance, les lézards étaient classés parmi les animaux poïkilothermes, c’est-à-dire dont la température corporelle varie en fonction de l’environnement. On pensait que la croissance des cheveux dépendait de la chaleur interne du corps. Une augmentation de cette chaleur était censée stimuler la pousse des cheveux, tandis qu’un excès pouvait les détruire. La présence de protéines de lézard suggère que les praticiens testaient activement ces théories concurrentes en transformant des matières animales en remèdes.

Des dents d’hippopotame

Citons ensuite l’hippopotame. Nous avons retrouvé des protéines correspondant à des éléments provenant d’hippopotames sur des pages traitant de problèmes dentaires. Dans les marges, les lecteurs se plaignaient de dents malodorantes, de maux de dents et de pertes dentaires. Dans la médecine de la Renaissance, l’os d’hippopotame était censé renforcer les dents et les gencives et était parfois utilisé pour fabriquer des dentiers. Sa présence suggère que les lecteurs allemands des XVIᵉ et XVIIᵉ siècles avaient accès à des matériaux médicaux exotiques, échangés sur de longues distances.

Nos méthodes combinent une lecture historique approfondie avec l’analyse en laboratoire, permettant aux historiens d’étudier la pratique médicale d’une manière jusqu’alors impossible. Elles réunissent des formes de preuves habituellement séparées : textes, corps et matériaux.

Peut-être plus intrigant encore, nous avons identifié des protéines aux fonctions antimicrobiennes, y compris des molécules couramment impliquées dans les réponses immunitaires humaines, telles que celles liées à l’inflammation et à la défense contre les bactéries. Ces protéines aident le corps à lutter contre les infections. Leur présence suggère que les personnes manipulant ces livres ne se contentaient pas de préparer des remèdes, mais étaient elles-mêmes en train de tomber malades ou de guérir, laissant derrière elles des traces d’activité immunitaire.

Dans ce sens, il est possible d’entrevoir des systèmes immunitaires réagissant à la maladie et au traitement directement sur les pages. Nous commençons à peine à comprendre ce que ces preuves peuvent révéler, mais ce travail ouvre des voies entièrement nouvelles pour étudier la manière dont la médecine de la Renaissance était pratiquée, testée et vécue.

The Conversation

Cette recherche a été financée par une bourse pilote du John Rylands Research Institute 2020–21 (chercheur principal : Stefan Hanß) et résulte de discussions interdisciplinaires initiées lors de l’événement financé par la British Academy « Microscopic Records : The New Interdisciplinarity of Early Modern Studies, c. 1400–1800 » (British Academy Rising Star Engagement Award BARSEA 19190084, chercheur principal : Stefan Hanß.

ref. Soin des cheveux, des dents… Ce que les traces biochimiques laissées par les lecteurs de la Renaissance disent de la médecine de l’époque – https://theconversation.com/soin-des-cheveux-des-dents-ce-que-les-traces-biochimiques-laissees-par-les-lecteurs-de-la-renaissance-disent-de-la-medecine-de-lepoque-272585

Les violences sexuelles sur les campus universitaires ne diminuent pas. Voici ce qu’il faut faire

Source: The Conversation – in French – By Isabelle Daigneault, M.Ps., Ph. D., professeure titulaire et psychologue, Université de Montréal

Agressions, coercition, harcèlement… Les violences sexuelles sont toujours présentes sur les campus universitaires, et les taux ne diminuent guère, même si on en parle davantage. Comment les diminuer de manière substantielle ?

Un des problèmes est le manque de prévention. Celle-ci reste tardive, fragmentée et souvent peu efficace.

C’est ce que nous avons constaté dans une étude que notre groupe de recherche affilié à la Chaire sur les violences sexistes et sexuelles en milieu d’enseignement supérieur, de l’UQAM, a mené auprès de 704 femmes entrant à l’université et représentatives d’une population québécoise de plus de 36 000 étudiantes.

Un constat préoccupant

Notre étude nous a permis de constater que près de la moitié des femmes interrogées n’avaient reçu aucun message de prévention avant leur arrivée.

Parmi celles qui y avaient été exposées au cours de leur vie, l’information provenait de moins de deux sources, principalement de proches ou des réseaux sociaux. Les effets étaient tout aussi limités : une légère hausse de moins de 2 % du sentiment d’efficacité à faire face à un agresseur potentiel, mais aucun impact mesurable sur les mythes du viol, le blâme des victimes, la perception du risque ou la connaissance de stratégies de résistance efficaces.

Le problème est plus large. Au Québec, l’Institut de la statistique du Québec (ISQ) a annulé l’enquête qui devait actualiser les données, privant la province d’indicateurs essentiels pour suivre l’évolution des violences sexuelles en milieu postsecondaire.

L’annulation découle probablement en partie de compressions budgétaires qui plombent actuellement le milieu de l’enseignement supérieur et du choix de s’en remettre à l’Enquête sur la santé mentale étudiante, que le ministère croyait suffisante. Or, ses questions beaucoup plus limitées n’ont été posées qu’à une fraction des personnes répondantes et avec un taux de réponse trop faible, rendant les données peu utiles.

Cette absence de données contraste avec le fait que les universités produisent elles-mêmes une recherche solide, qu’elles utilisent encore trop peu pour guider leurs pratiques préventives.

La recherche existe, mais elle n’est guère appliquée dans des programmes de prévention.

Trois stratégies

La littérature internationale, notamment la synthèse de plusieurs expertes en prévention de l’agression sexuelle en Amérique du Nord, en 2020, recommande d’articuler trois stratégies complémentaires au collège et à l’université :

  • Programmes de résistance et d’autodéfense féministe affirmative pour les femmes ;

  • Programmes visant les normes sociales masculines ;

  • Formations de témoins actifs.

Ces approches ne sont efficaces que si elles sont cohérentes, ciblées et intensives. Lorsque la prévention est tardive, brève et limitée à des messages généraux, les effets restent faibles.

À l’inverse, des programmes intensifs (jusqu’à 12 heures au cours d’un semestre), structurés et ancrés dans la pratique, comme ceux proposés par un groupe de chercheures à l’Université de Windsor, dont la plus récente remonte à 2023, ont démontré qu’ils peuvent réduire les agressions sexuelles subies par les étudiantes, même lorsqu’ils sont offerts à l’université avec peu d’expositions préalables.




À lire aussi :
A-t-on les bons outils pour prévenir les violences sexuelles sur les campus ?


Une prévention universitaire qui n’arrive pas à compenser les lacunes

Parmi nos participantes, 271 ont été suivies durant leur première année universitaire. Leur exposition aux messages de prévention sur les campus était limitée : 93 % des personnes exposées le sont moins de trois heures, principalement via des formations en ligne, et moins de 10 % ont été exposées à du contenu d’autodéfense – alors que les programmes efficaces reposent précisément sur des activités en personne, de plus de trois heures et intégrant un volet d’autodéfense féministe.

Après douze mois, certains résultats sont préoccupants. Nous nous attendions à voir des progrès plus marqués. Or, un seul effet positif existe, mais il est minime : une hausse de 1 à 3 % du sentiment d’efficacité à réagir face à un agresseur. Concrètement, il faut deux sources préventives supplémentaires pour que les participantes augmentent leur sentiment d’efficacité à faire face à un agresseur potentiel d’un seul point sur une échelle de 63 points. Un effet aussi faible a peu de signification pratique.

Deux effets néfastes dominent toutefois. D’abord, les participantes sont moins nombreuses à rapporter qu’elles utiliseraient au moins une stratégie de résistance verbale ou physique ferme (44 %), comme celles enseignées dans les formations d’autodéfense féministes, qu’au début de l’étude (80 %). Cette baisse importante n’est légèrement atténuée que chez les 7 % de participantes ayant reçu trois heures ou plus de prévention sur le campus.

Ensuite, la perception du risque personnel évolue dans une direction contraire à celle recherchée. Les étudiantes très peu exposées (moins d’une heure) développent une perception du risque légèrement plus juste, mieux alignée avec la réalité des violences sexuelles sur les campus.

À l’inverse, celles exposées trois heures ou plus voient leur perception du risque diminuer, illustrant un biais d’optimisme : l’idée que « Cela n’arrive qu’aux autres ».

Ces résultats indiquent qu’en l’absence d’interventions intensives, qui soient ciblées, structurées et adaptées, la prévention universitaire ne compense pas le manque de prévention préalable et peut même conduire à des reculs sur des éléments clés.

Une expertise scientifique disponible, mais sous-utilisée

Dans une perspective de santé publique, la prévention devrait être présente du préscolaire, du primaire et du secondaire jusqu’aux cégeps et aux universités.

Chaque niveau contribue à renforcer les connaissances, à modifier les normes sociales, à développer des stratégies de résistance et à soutenir l’intervention des témoins. Quand ce continuum est absent ou incomplet, les interventions collégiales et universitaires doivent compenser des années de prévention insuffisante.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Les équipes de recherche universitaires produisent des connaissances rigoureuses sur les programmes efficaces, mais ces données sont encore peu intégrées aux politiques internes, à la programmation de prévention et aux communications institutionnelles.

Le fossé entre la science et l’action demeure un obstacle majeur.




À lire aussi :
« Elle l’a bien cherché » : que disent les incels de la série Adolescence ?


Des balises connues, mais insuffisamment implantées

L’Institut national de la Santé publique du Québec, ainsi que les experts nationaux et internationaux, convergent vers la même conclusion : la prévention doit être multiniveaux, répétée, intensive, ciblée et évaluée en continu.

L’annulation de l’enquête de l’Institut de la Statistique du Québec limite par ailleurs la capacité de mesurer l’impact des politiques mises en place au Québec, comme la Loi visant à prévenir et à combattre les violences à caractère sexuel dans les établissements d’enseignement supérieur, et d’assurer la reddition de comptes des établissements.

Pour un véritable leadership institutionnel

Les universités sont idéalement positionnées pour montrer la voie : infrastructures de recherche, réseaux d’expertise, accès aux données, capacité d’évaluation, mandat social. Elles pourraient être des leaders dans l’élaboration d’une programmation de prévention solide et continue.

Le constat est clair : la stagnation des taux de violence ne découle pas d’un manque de connaissances, mais d’un manque d’implantation, de cohérence et de continuité. Des solutions existent déjà, ont été testées et sont efficaces. Le défi est désormais de les appliquer de manière systémique et durable, en combinant autodéfense féministe, interventions sur les normes sociales et formations de témoins actifs, afin de protéger véritablement les filles, les jeunes femmes et l’ensemble des communautés.

La Conversation Canada

Membre du comité des partenaires en violence sexuelle du Secrétariat à la condition féminine du gouvernement du Québec, Isabelle Daigneault est membre de l’Ordre des psychologues du Québec et dirige le laboratoire de recherche sur les trajectoires de santé et de résilience des jeunes agressés sexuellement (TRAJETS). Elle est chercheuse membre régulière au Centre de recherche interdisciplinaire sur les problèmes conjugaux et l’agression sexuelle (CRIPCAS), à l’Équipe violence sexuelle et santé (ÉVISSA), financés par les fonds de recherche du Québec, ainsi qu’à la Chaire de recherche sur les violences sexistes et sexuelles en milieu d’enseignement supérieur (VSSMES). Elle a reçu des financements des Instituts de recherche en santé du Canada, du Conseil de recherches en sciences humaines du Canada, du Ministère de l’enseignement supérieur du Québec et de l’Université de Montréal.

Membre du Conseil du statut de la femme pour le gouvernement du Québec et de l’Ordre des psychoéducateurs et des psychoéducatrices du Québec, Geneviève Paquette dirige le Groupe de recherche et d’intervention sur les adaptations sociales de l’enfance financé par l’Université de Sherbrooke et l’Équipe de recherche sur l’adaptation positive et la santé mentale des jeunes exposés à un risque accru d’adversité familiale ou sociale financée par le Fonds de recherche du Québec – Société et culture (FRQSC). Elle est chercheuse membre régulière au Centre de recherche interdisciplinaire sur les problèmes conjugaux et l’agression sexuelle (CRIPCAS) et à la Chaire de recherche sur les violences sexistes et sexuelles en milieu d’enseignement supérieur. Elle a obtenu des financements de recherche provenant des Instituts de recherche en santé du Canada, du Conseil de recherches en sciences humaines du Canada, du FRQSC et du ministère de l’Enseignement supérieur du Québec.

Jacinthe Dion est titulaire de la Chaire de recherche du Canada sur la violence sexuelle chez les jeunes vulnérables, surnommée Aquarelle, et co-titulaire de la Chaire de recherche VISAJ sur la vie et la santé des jeunes. Psychologue et professeure titulaire au Département de psychologie de l’Université du Québec à Trois-Rivières, elle est également membre du Comité scientifique et de gouvernance du Centre de recherche interdisciplinaire sur les problèmes conjugaux et l’agression sexuelle (CRIPCAS) et membre régulière de l’équipe Violence sexuelle et santé (ÉVISSA) et de l’Équipe de recherche sur l’adaptation positive et la santé mentale des jeunes exposés à un risque accru d’adversité familiale ou sociale, financés par le Fonds de recherche du Québec – Société et culture (FRQSC). Elle est aussi membre du Centre d’études interdisciplinaires sur le développement de l’enfant et la famille (CEIDEF). Ses recherches sont financées par le programme de Chaires de recherche du Canada, le Conseil de recherches en sciences humaines, les Instituts de la recherche en santé du Canada (CRSH), l’Agence de la santé publique du Canada, le Secrétariat à la condition féminine du Québec et le Ministère de l’éducation du Québec.

Martine Hébert est titulaire de la Chaire de recherche du Canada sur les traumas interpersonnels et la résilience et cotitulaire de la Chaire interuniversitaire Marie-Vincent sur les agressions sexuelles envers les enfants. Elle dirige l’équipe Violence sexuelle et santé (ÉVISSA) financée par le Fonds de recherche du Québec – Société et culture et elle est chercheuse membre régulière au Centre de recherche interdisciplinaire sur les problèmes conjugaux et l’agression sexuelle (CRIPCAS). Elle est également membre de la Chaire de recherche sur les violences sexistes et sexuelles en milieu d’enseignement supérieur (VSSMES) et de la Chaire de recherche Sécurité et intégrité en milieu sportif (SIMS). Ses recherches sont financées par le programme des Chaires de recherche du Canada, des Instituts de recherche en santé du Canada (IRSC) et de l’Agence de santé publique du Canada (ASPC).

ref. Les violences sexuelles sur les campus universitaires ne diminuent pas. Voici ce qu’il faut faire – https://theconversation.com/les-violences-sexuelles-sur-les-campus-universitaires-ne-diminuent-pas-voici-ce-quil-faut-faire-271251

Où vit-on le plus vieux ? Ce que la géographie dit d’une Europe de plus en plus fragmentée

Source: The Conversation – France in French (3) – By Florian Bonnet, Démographe et économiste, spécialiste des inégalités territoriales, Ined (Institut national d’études démographiques)

On peut encore gagner des années d’espérance de vie en Europe : les régions pionnières en matière de longévité en apportent la preuve, année après année. Pourtant, depuis le milieu des années 2000, tandis que certaines régions avancent, d’autres décrochent. Dans ces dernières, l’allongement de l’espérance de vie est freiné par une mortalité autour de 65 ans qui ne recule plus, voire réaugmente.


Depuis plus d’un siècle et demi, l’espérance de vie progresse régulièrement dans les pays riches. Les gains ont été spectaculaires au XXe siècle, grâce au recul des maladies infectieuses puis aux progrès de la médecine cardiovasculaire.

Cependant, depuis quelques années, une question obsède les experts : et si cette formidable mécanique s’essoufflait ? Dans plusieurs pays occidentaux, les gains d’espérance de vie sont devenus modestes, voire inexistants.

Certains chercheurs y voient le signe que nous approchons d’un « plafond » biologique de la longévité humaine. D’autres, au contraire, estiment que des marges de progression existent encore.

Pour trancher, il ne suffit pas de regarder les chiffres nationaux. En effet, derrière la moyenne d’un pays se cachent des réalités régionales très contrastées. C’est ce que nous avons montré dans une étude tout juste publiée dans Nature Communications. Analysant des données collectées entre 1992 et 2019, elle a porté sur 450 régions d’Europe occidentale regroupant près de 400 millions d’habitants.

Une étude européenne d’une ampleur inédite

Pour mener à bien nos travaux, nous avons rassemblé des données de mortalité et de population en provenance d’instituts statistiques nationaux de 13 pays d’Europe occidentale, de l’Espagne au Danemark, du Portugal à la Suisse.

À partir de ces données originales, nous avons d’abord mené un large travail d’harmonisation, crucial parce que les régions ne sont pas toutes de taille équivalente, et que les données étaient plus ou moins détaillées selon les pays.

Nous avons ensuite reconstitué, entre 1992 et 2019, pour chaque région, l’évolution annuelle de l’espérance de vie à la naissance, un indicateur qui reflète la mortalité à tous les âges. Grâce à des méthodes statistiques avancées, nous avons pu dégager les grandes tendances de fond, au-delà des fluctuations de court terme entraînées par des épisodes tels que la canicule de 2003, ou des épidémies virulentes de grippe saisonnière telle que celle de 2014-2015. Nous arrêtons nos analyses à l’année 2019, car il est aujourd’hui encore trop tôt pour savoir si la pandémie de Covid-19 a impacté ces tendances sur le long terme, ou uniquement entre 2020 et 2022.

Le résultat obtenu nous donne un panorama inédit des trajectoires régionales de longévité en Europe sur près de trente ans, duquel nous pouvons tirer trois enseignements.

Premier enseignement : la longévité humaine n’a pas atteint ses limites

Le premier message fort de notre étude est le suivant : les limites de la longévité humaine ne sont pas encore atteintes. En effet, en nous concentrant sur les régions pionnières qui affichent les niveaux d’espérance de vie les plus élevés (en bleu sur le graphique ci-dessous), nous ne constatons aucune décélération des progrès.

Évolution de l’espérance de vie dans les régions pionnières et en retard d’Europe occidentale, 1992–2019. La ligne rouge (respectivement bleue) représente la moyenne de l’espérance de vie à la naissance des régions appartenant au décile supérieur (respectivement inférieur) de la distribution. La ligne noire indique la moyenne pour l’ensemble des 450 régions. Les valeurs minimale et maximale sont représentées par des symboles distincts, correspondant aux régions concernées.
Florian Bonnet, Fourni par l’auteur

Les régions concernées continuent à gagner environ deux mois et demi d’espérance de vie par an pour les hommes, et un mois et demi pour les femmes, un rythme équivalent à celui observé durant les décennies précédentes. Parmi elles figuraient en 2019 les régions du nord de l’Italie, de la Suisse tout comme certaines provinces espagnoles.

Pour la France, on y retrouve des départements tels que Paris, les Hauts-de-Seine ou les Yvelines (aussi bien pour les hommes que pour les femmes), et les départements autour de l’Anjou et de la frontière suisse (uniquement pour les femmes). En 2019, l’espérance de vie y atteignait près de 83 ans pour les hommes, et 87 pour les femmes.

Autrement dit, malgré les inquiétudes récurrentes, rien n’indique à ce jour que la progression de la durée de vie ait atteint un plafond de verre ; l’allongement de l’espérance de vie reste possible. C’est un résultat fondamental, qui nuance les discours alarmistes : il existe encore un potentiel d’amélioration.

Deuxième enseignement : des situations régionales divergentes depuis le milieu des années 2000

Le tableau devient plus sombre quand on se penche sur les régions en retard, indiquées en rouge sur la figure ci-dessus. Dans les années 1990 et au début des années 2000, ces régions connaissaient des gains rapides d’espérance de vie. Les progrès y étaient même plus rapides qu’ailleurs, conduisant à une convergence des espérances de vie régionales en Europe.

Cet âge d’or, cumulant hausse rapide de l’espérance de vie en Europe et réduction des disparités régionales, a pris fin vers 2005. Dans les régions les plus en difficulté, qu’il s’agisse de l’est de l’Allemagne, de la Wallonie en Belgique, ou de certaines parties du Royaume-Uni, les gains d’espérance de vie ont fortement ralenti, atteignant des niveaux quasiment nuls. On ne retrouve pas de départements français parmi ces régions pour les femmes, mais en ce qui concerne les hommes, les départements de la région Hauts-de-France y figurent.

Au final, l’Europe de la longévité est de plus en plus coupée en deux. D’un côté, des régions pionnières qui poursuivent leur progression ; de l’autre, des régions en retard où la dynamique s’essouffle, voire s’inverse. Nous vivons donc une véritable divergence régionale, qui contraste avec l’élan de rattrapage des années 1990.

Troisième enseignement : le rôle décisif de la mortalité entre 55 et 74 ans

Pourquoi un tel basculement ? Au-delà de l’espérance de vie par âge, nous avons cherché à mieux comprendre ce changement spectaculaire en analysant l’évolution des taux de mortalité par âge.

Nous pouvons affirmer que cette divergence régionale ne s’explique ni par l’évolution de la mortalité infantile (qui reste très faible) ni par l’évolution de la mortalité au-delà de 75 ans (qui continue de reculer un peu partout). Elle vient principalement de la mortalité autour de 65 ans.

Dans les années 1990, celle-ci reculait rapidement, grâce à la diffusion des traitements cardiovasculaires et à des changements dans les comportements à risque. Mais depuis les années 2000, ce progrès s’est ralenti. Dans certaines régions, le risque de mourir entre 55 et 74 ans a même commencé à augmenter à nouveau ces dernières années, comme le montrent les cartes ci-dessous.

Variation annuelle en pourcentage de la probabilité de décéder entre 55 et 74 ans chez les hommes (à gauche) et les femmes (à droite) dans 450 régions d’Europe occidentale, entre 2018 et 2019.
Florian Bonnet, Fourni par l’auteur

C’est notamment le cas de la plupart des départements du pourtour méditerranéen français pour les femmes, qui apparaissent en rose clair. C’est aussi le cas d’une grande partie de l’Allemagne. Or ces âges intermédiaires sont cruciaux dans la dynamique des gains d’espérance de vie, car un grand nombre de décès s’y concentrent. Une stagnation ou une hausse de la mortalité entre 55 et 74 ans suffit à briser la dynamique d’ensemble.

Même si notre étude ne permet pas de cerner les causes précises expliquant ces évolutions préoccupantes, la littérature récente nous permet d’avancer quelques pistes, qui devront être testées scientifiquement à l’avenir. Parmi elles, on retrouve les comportements à risque, notamment le tabagisme, mais aussi la consommation d’alcool, la mauvaise alimentation, ou le manque d’activité physique, qui sont autant de facteurs qui se concrétisent à ces âges.

Par ailleurs, la crise économique de 2008 a accentué les inégalités territoriales en Europe. Certaines régions ont souffert durablement, fragilisant la santé des populations y vivant, tandis que la croissance est à nouveau vigoureuse dans d’autres régions où les emplois fortement qualifiés se concentrent. Ces facteurs nous rappellent que la longévité n’est pas seulement une affaire de progrès de la médecine, mais qu’elle s’explique aussi par des facteurs économiques et sociaux.

Et demain ?

Notre étude délivre un double message. Oui, il reste possible d’allonger l’espérance de vie. Les régions pionnières en Europe en donnent la preuve : elles continuent à progresser régulièrement, sans signe de plafonnement. Cependant, cette progression n’est pas partagée par tous. Depuis quinze ans, une partie de l’Europe décroche, en particulier à cause de l’évolution de la mortalité autour de 65 ans.

L’avenir de la longévité humaine semble, encore aujourd’hui, moins dépendre de l’existence d’un hypothétique plafond biologique que de notre capacité collective à réduire les écarts d’espérance de vie. En extrapolant les tendances récentes, on peut craindre qu’une Europe à deux vitesses ne se crée, opposant une minorité de territoires qui continuent à repousser les frontières de la longévité, et une majorité de territoires où les progrès s’étiolent.

En clair, la question n’est plus seulement de savoir jusqu’où l’espérance de vie peut grimper, mais surtout quels sont les territoires qui pourront en bénéficier.


Pour aller plus loin :

Nos résultats détaillés, région par région, sont disponibles dans une application interactive en ligne.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Où vit-on le plus vieux ? Ce que la géographie dit d’une Europe de plus en plus fragmentée – https://theconversation.com/ou-vit-on-le-plus-vieux-ce-que-la-geographie-dit-dune-europe-de-plus-en-plus-fragmentee-274375

From Hamburg to Uganda: how an NGO learned to reinvent itself

Source: The Conversation – France (in French) – By Carolin Waldner, Assistant Professor of Sustainability Management, ESCP Business School

Development aid is often provided by large, international NGOs based in the Global North. These globally operating NGOs are under growing pressure to adapt the nature of their work – including administrative tasks – to the places where it occurs. However, this process of localisation is rarely straightforward. It’s not just about transferring responsibilities or adjusting ways of working to fit local contexts. It’s the contradictions within organisations that can distort or stall this process, which get left out.

Our article on Organization Studies takes a unique, long-term look at this question. We tracked the expansion of Viva con Agua (VCA) – a German NGO that launches and supports water, sanitation and hygiene (WASH) initiatives – over a 15-year period from its headquarters in Hamburg, Germany, to Uganda. Through 74 interviews, 272 hours of observation, and over 100 internal and public documents, we show how localising development work not only requires NGOs to reconsider what they do and how they do it, but also raises questions about organisational identity, such as “who are we?”, “what are our core values?” and “what distinguishes us from other NGOs?”.

From Hamburg to Kampala: a distinctive identity meets a new context

VCA emerged in the early 2000s from the creative and activist culture of Hamburg’s St. Pauli District. Its founding identity was shaped by inclusiveness, anti-racism, cultural openness, and civic engagement – expressed through partnerships with artists, football fans, and musicians. The most emblematic partnership is the one with football club FC St. Pauli, which is also known for its activist culture. When VCA started to work in Uganda in 2007, this energy helped the organisation build rapport and find local collaborators with similar values.

However, it soon became clear that cultural alignment wasn’t enough. For example, WASH infrastructure that worked in other countries didn’t always fit Ugandan realities. One early challenge involved latrines built by VCA for local communities in northern Uganda. Soon after building the latrines, staff realised that the facilities were not used by many villagers due to local norms and traditions – such as the fact that a father-in-law and his daughter-in-law are not allowed to share facilities.

Maybe replace “WASH” with “water, sanitation & hygiene” to avoid too many abbreviations?

When adapting programmes reveals deeper tensions

To improve local engagement, VCA developed culturally resonant initiatives such as Football4WASH and Dance4WASH, which are education-through-sport programmes, and other participatory formats. These efforts succeeded in creating more meaningful local traction. For example, a few weeks after VCA organised a Dance4WASH choreography with primary school pupils in a rural school north of Kampala, the school principal told us that during parent-teacher day, parents talked about the dance routine and performed the typical featured gestures (which reflected the World Health Organization’s handwashing guidelines. Children were showing the handwash dance to their parents, brothers, sisters, and other community members, and thus, the information spread.

However, these efforts also raised new questions: Who defines what VCA stands for? Where are decisions made? And how much autonomy can be given to the Ugandan team without losing organisational cohesion?

maybe add “localised” between “these” and “efforts” -> “these localised efforts” to make it clearer

In our study, we identified two entangled organisational tensions: the need to scale globally while adapting locally, called global–local paradox,and the need to evolve identity while maintaining continuity, called identity elasticity paradox.

What emerged was not just a series of dilemmas that could be resolved easily by organisational decisions, but a knotted dynamic of complex, interconnected, and irresolvable challenges. Addressing one tension – such as adapting projects to the Ugandan context – made the identity questions more urgent. This interplay, which we call an “asymmetric paradox knot”, meant that VCA’s efforts to adapt their business to local life were deeply intertwined with questions of internal legitimacy, leadership, and coherence. In a 2020 interview, a VCA founder highlighted the challenges he and his team faced due to the increasing VCA network, including local supporters in Kampala and elsewhere. He emphasised that the question of “who we are as an organisation?” is present in the NGO’s daily work and something they reflect on in strategy meetings. “It’s the same family,” he said, “with the stoned son and the rock ‘n’ roll daughter, but everything has a very similar DNA. And that’s what Viva con Agua does in the end, keeping it together. »

What allowed the organisation to move forward?

In our study, we identified two key “knotting mechanisms” that helped VCA manage tensions in practice. The first mechanism was stretching identity by integrating Ugandan staff into the NGO’s strategy and representation. For example, VCA actively supported local staff to build their own branch of VCA and gradually increased their responsibility for local WASH projects. Stretching identity also meant creating space for new ways of “being VCA” that aligned with core values and local context, such as a new collaboration with a social enterprise to provide affordable water filters from natural materials for rural communities – cross-subsidised by an artistic, “lifestyle” version of the same filters aimed at wealthier consumers. This project was one of the first initiatives of the Ugandan VCA staff that was independent of Western donations.

VCA also helped manage tensions by contextualising activities. This involved redesigning programme content and delivery methods to reflect local knowledge, norms and social rhythms. For instance, VCA members realised that some teachers they collaborated with for Football4WASH programmes kept the provided footballs, instead of giving them to the children to practise the hygiene exercises. So the local crew came up with a school competition: they showed the pupils and teachers specific Football4WASH drills and tricks, and only the best schools were rewarded. This way, they ensured that the teachers were committed to the idea, and led practice sessions with the children using the footballs.

Everyday practices

It is interesting to note that small, everyday practices reinforced VCA’s shift. For example, field visits were traditionally planned by the German team, which flew to 1-2 project sites and the local office in Kampala. In March 2019, the local crew organised the field trips for a German delegation for the first time. They rented a bus so that more project sites, all over the country, could be visited, and they invited various Ugandan artists, musicians, and dancers to join the trip with local and German VCA members. They had concerts and workshops along the way, raising awareness of the organisation and the programmes.

According to VCA representative interviewees, small shifts also encouraged more horizontal, trust-based communication. Ugandan staff voiced ideas and opinions more often, and challenged German team members in constructive ways.

In 2017, the Ugandan VCA team was formally registered as an independent chapter of the NGO. While the global organisation maintained support structures, decision-making authority increasingly shifted to local teams. Weekly calls between Hamburg and Kampala became not only coordination meetings, but spaces to continually renegotiate identity and alignment. One of the project coordinators from Germany explained in an interview that he talks to the local VCA crew in Kampala once a week to check in and “to evaluate how far their work is still based on the same basic ideas and principles as the work is in Germany”. These calls were aimed at empowering the local team to become creative and take responsibility, while also ensuring that they acted within the value system of VCA.

A broader insight for development actors

VCA’s experience is not offered as a blueprint, but as a diagnostic lens. It shows that one development organisation faced overlapping tensions that had to be navigated simultaneously. More specifically, we can see that the NGO’s localisation efforts could not be separated from identity work. Without deliberate efforts to manage internal contradictions, VCA’s well-intentioned initiatives may have continued to stall or backfire. As the aid sector continues to decentralise and evolve toward more hybrid models, our study provides a conceptual framework for how organisations can adapt without becoming fragmented.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. From Hamburg to Uganda: how an NGO learned to reinvent itself – https://theconversation.com/from-hamburg-to-uganda-how-an-ngo-learned-to-reinvent-itself-271886

Le vote RN est-il une affaire de générations ?

Source: The Conversation – in French – By Nonna Mayer, Directrice de recherche au CNRS/Centre d’études européennes, Sciences Po

Face à la montée de l’extrême droite et du conservatisme, observée tant aux États-Unis qu’en Europe, différentes théories ont été avancées. Certaines mettent le facteur générationnel au centre de l’analyse. Si cette focale apporte des clés de lecture utiles, elle révèle aussi des tendances contradictoires. Analyse.


Selon la thèse de la « déconsolidation démocratique », la montée de l’extrême droite et du conservatisme serait avant tout due aux millennials, les jeunes nés entre le début des années 1980 et la fin des années 1990, qui oscillent entre apathie politique et antipathie pour la démocratie. À l’inverse, selon la théorie du « cultural backlash » (ou « retour de bâton culturel »), ce seraient les générations les plus âgées qui, nostalgiques d’une époque révolue et critiques des valeurs post-matérialistes (libéralisation des mœurs, place accordée aux groupes minorisés), seraient les principales responsables de la montée de l’extrême droite, nourrie d’attitudes conservatrices et xénophobes.

Le cas de la France, avec l’essor spectaculaire du Rassemblement national (RN), qui a comptabilisé 41,4 % des voix au second tour de l’élection présidentielle de 2022, invite à remettre en question ces deux théories.

En s’appuyant sur l’enquête Youngelect (2022) et le baromètre annuel de la Commission nationale consultative des droits de l’homme ou CNCDH (depuis 1990), cet article révèle des dynamiques plus complexes.

La tolérance augmente, quelle que soit la génération. Les jeunes sont les plus progressistes et les plus en demande de démocratie. Pourtant, ils sont plus enclins à voter pour le RN. Comment comprendre ces tendances contradictoires ?

Une tolérance en hausse chez toutes les générations

Le baromètre de la CNCDH, qui mesure l’évolution de différentes attitudes culturelles dans le temps, atteste une hausse globale des positions progressistes concernant les opinions vis-à-vis des minorités sexuelles, raciales et religieuses, du rôle social des femmes et de la peine de mort. Il montre une tendance positive, quelle que soit la génération : si les cohortes les plus récentes sont plus tolérantes et libérales que celles qui les précèdent, les anciennes générations ne deviennent pas de plus en plus intolérantes et autoritaires, au contraire. Loin d’être hermétiques à l’évolution des mœurs, les valeurs des seniors se transforment avec la société.


Baromètres racisme CNCDH en face à face, Commission nationale consultative des droits de l’homme, « La lutte contre le racisme, l’antisémitisme et la xénophobie. Année 2023 », La documentation française., Fourni par l’auteur

Les données de l’enquête European Social Survey montrent une tendance similaire dans d’autres pays européens. Néanmoins, en menant des analyses permettant d’isoler l’effet propre de différents facteurs, on observe que la génération en tant que telle ne détermine pas l’ouverture à l’égard des minorités ethnoraciales et religieuses. D’autres dimensions, comme l’augmentation du niveau d’éducation, l’origine migratoire et la religion, sont davantage déterminantes.

Si les jeunes générations sont plus tolérantes, c’est moins dû à leur année de naissance que parce qu’elles présentent davantage de caractéristiques favorisant l’acceptation d’autrui, comme des niveaux de diplôme plus élevés, une moindre religiosité, une ascendance immigrée, etc. Concernant le rapport aux minorités sexuelles, les attitudes se révèlent également de plus en plus libérales. Chaque nouvelle cohorte est plus progressiste que la précédente ; et au fil des années, l’acceptation de l’homosexualité progresse même chez les seniors.

S’agissant de l’émancipation des femmes, l’évolution est aussi positive mais moins linéaire que pour l’homosexualité. Ce n’est pas les cohortes les plus récentes qui sont les plus ouvertes, mais les cohortes nées entre 1967 et 1976. De tels résultats suggèrent l’existence d’un retour de bâton chez les plus jeunes, et notamment parmi les jeunes hommes.

Rejet de l’autoritarisme et soutien à la démocratie

Au sujet de l’autoritarisme, mesuré à partir de l’opinion sur la peine de mort, l’effet générationnel est clair : entre 2004 et 2022, chaque nouvelle cohorte est davantage opposée à la peine capitale que la précédente. Et pour chaque génération, le rejet augmente de décennie en décennie. De même, le soutien à la démocratie représentative fait consensus, tant chez les personnes les plus jeunes que chez les plus âgées.


Nonna Mayer/Baromètre de la CNCDH sur le racisme, novembre 2023., Fourni par l’auteur

Certes les jeunes sont plus critiques à l’égard du fonctionnement de la démocratie, et davantage favorables à des modes de gouvernement alternatifs, plus technocratiques (gouvernement d’experts) ou participatifs (tirage au sort ou référendum populaire), mais pas dans leurs versions autoritaires – une différence générationnelle persiste même lorsque cette dimension est contrôlée par d’autres facteurs.

Tolérance, vote RN : un paradoxe générationnel ?

Comment ces attitudes culturelles et ce rapport à la démocratie se traduisent-ils dans les urnes, notamment au regard du vote RN ? Ce sont davantage les jeunes générations qui sont enclines à voter pour ce parti lors du premier tour de l’élection présidentielle de 2022. Plus la cohorte est âgée, plus la propension à voter pour Marine Le Pen plutôt que pour Emmanuel Macron diminue, à rebours de la thèse du « cultural backlash » chez les seniors. Mais la même dynamique s’observe avec le vote pour Jean-Luc Mélenchon. Les jeunes ont plus de chances que les générations plus âgées de voter pour le candidat de La France insoumise (LFI) que pour Emmanuel Macron.

Prendre le président sortant comme référence met en évidence que les jeunes privilégient tantôt le RN, tantôt LFI. Les logiques qui sous-tendent ces préférences ne sont toutefois pas les mêmes, un faible niveau d’éducation et le racisme sont déterminants dans le vote pour Marine Le Pen, le vote pour Jean-Luc Mélenchon étant à l’inverse davantage le fait de profils diplômés et tolérants. Néanmoins, les attitudes négatives envers la place sociale des femmes et l’homosexualité ou le fait de soutenir le rétablissement de la peine de mort n’augmentent pas la probabilité de voter pour Marine Le Pen plutôt que pour Emmanuel Macron. En outre, être favorable au tirage au sort, c’est-à-dire confier le pouvoir décisionnel à des citoyens ordinaires plutôt qu’aux élites dirigeantes, augmente la probabilité du vote RN.

Comment comprendre alors le paradoxe d’une jeunesse plus ouverte à l’égard des groupes minorisés et peu favorable aux alternatives autoritaires de gouvernement, mais encline à voter pour le RN ?

Premièrement, les cohortes, quelle que soit la génération, sont socialement et politiquement diverses : plusieurs variables doivent être prises en compte. De plus, selon le sociologue Vincent Tiberj, cela s’expliquerait par une politisation différenciée des valeurs selon les générations : chez les personnes plus âgées, les valeurs culturelles (sexisme, opinion sur l’homosexualité ou sur l’immigration) seraient moins politisées et orienteraient dès lors moins leur vote que chez les jeunes générations.

Ce paradoxe découle aussi possiblement des données mobilisées qui diffèrent au regard de la population sélectionnée : l’enquête de la CNCDH se fonde sur des échantillons représentatifs de la population adulte vivant en France (incluant les personnes immigrées étrangères), à l’inverse de l’enquête Youngelect qui cible uniquement des personnes inscrites sur les listes électorales.

Et si les jeunes votent davantage pour le RN, elles et ils se caractérisent avant tout par leur abstention, à l’inverse des personnes plus âgées qui se rendent massivement aux urnes. D’ailleurs, les analyses du vote « Macron », « Mélenchon » ou « Le Pen » ne tiennent pas compte de l’abstention (26 % au premier tour de l’élection présidentielle de 2022), accentuant l’impression trompeuse d’un vote massif pour l’extrême droite.

In fine, loin de se réduire à un vote générationnel, le vote RN séduit avant tout les segments les moins éduqués de l’électorat et les classes populaires. De surcroît, les écarts entre cohortes semblent s’estomper depuis les élections législatives anticipées de 2024. Ces dernières révèlent que le RN gagne en popularité auprès des seniors et des personnes retraitées jusqu’à présent hostiles à ce parti. Les municipales et la présidentielle à venir nous permettront de juger dans quelle mesure cette tendance se confirme, ou non.


Cet article est tiré de l’ouvrage French Democracy in Distress. Challenges and Opportunities in French Politics (Palgrave Macmillan, 2025), sous la direction d’Élodie Druez, Frédéric Gonthier, Camille Kelbel, Nonna Mayer, Felix-Christopher von Nostitz et Vincent Tiberj. Une conférence autour de cette publication est organisée à Sciences Po, le jeudi 29 janvier 2026, de 17 heures à 19 heures, 27 rue Saint-Guillaume, Paris (VIIᵉ).

The Conversation

Nonna Mayer est membre de la Commission nationale consultative des droits de l’Homme et coordonne son Baromètre annuel sur le racisme

Elodie Druez a reçu, en tant que chercheuse en postdoctorat, des financements de l’ANR, du FNRS (Fonds de la Recherche Scientifique belge), de l’ERC et de l’Institut Convergences Migrations (ICM). Elle membre de l’AFSP et de l’AFS.

Dans le cadre de ses postdoctorats, Mickaël Durand a reçu des financements de l’ANR, de l’Ined et du FNRS belge. Il a participé à l’enquête 2022 de la CNCDH sur l’hétérosexisme et les préjugés à l’égard des LGBTI. Il est membre du RT28 de l’Association française de sociologie.

ref. Le vote RN est-il une affaire de générations ? – https://theconversation.com/le-vote-rn-est-il-une-affaire-de-generations-272310

Qu’est-ce que l’intégrité scientifique aujourd’hui ?

Source: The Conversation – in French – By Catherine Guaspare, Sociologue, Ingénieure d’études, Centre national de la recherche scientifique (CNRS)

Dans un contexte où la production scientifique est soumise à des pressions multiples, où les théories pseudoscientifiques circulent sur les réseaux sociaux, l’intégrité scientifique apparaît plus que jamais comme l’un des piliers de la confiance dans la science. Nous vous proposons de découvrir les conclusions de l’ouvrage L’intégrité scientifique. Sociologie des bonnes pratiques, de Catherine Guaspare et Michel Dubois aux éditions PUF, en 2025.


L’intégrité scientifique est une priorité institutionnelle qui fait consensus. Par-delà la détection et le traitement des méconduites scientifiques, la plupart des organismes d’enseignement supérieur et de recherche partagent aujourd’hui un même objectif de promouvoir une culture des bonnes pratiques de recherche.

Il est tentant d’inscrire cette culture dans une perspective historique : la priorité accordée aujourd’hui à l’intégrité n’étant qu’un moment dans une histoire plus longue, celle des régulations qui s’exercent sur les conduites scientifiques. Montgomery et Oliver ont par exemple proposé de distinguer trois grandes périodes dans l’histoire de ces régulations : la période antérieure aux années 1970 caractérisée par l’autorégulation de la communauté scientifique, la période des années 1970-1990 caractérisée par l’importance accordée à la détection et la prévention des fraudes scientifiques et, depuis les années 1990 et la création de l’Office of Research Integrity, première agence fédérale américaine chargée de l’enquête et de la prévention des manquements à l’intégrité dans la recherche biomédicale financée sur fonds publics, la période de l’intégrité scientifique et de la promotion des bonnes pratiques.

Cette mise en récit historique de l’intégrité peut sans doute avoir une valeur heuristique, mais comme tous les grands récits, celui-ci se heurte aux faits. Elle laisse croire que la communauté scientifique, jusque dans les années 1970, aurait été capable de définir et de faire appliquer par elle-même les normes et les valeurs de la recherche. Pourtant, la régulation qui s’exerce par exemple sur la recherche biomédicale est très largement antérieure aux années 1970, puisqu’elle prend forme dès l’après-Seconde Guerre mondiale avec le Code de Nuremberg (1947), se renforce avec la Déclaration d’Helsinki (1964) et s’institutionnalise progressivement à travers les comités d’éthique et les dispositifs juridiques de protection des personnes.

Elle laisse ensuite penser que la détection des fraudes scientifiques comme la promotion des bonnes pratiques seraient autant de reculs pour l’autonomie de la communauté scientifique. Mais, à y regarder de plus près, les transformations institutionnelles – l’adoption de la charte nationale de déontologie des métiers de la recherche en 2015, la création de l’Office français de l’intégrité scientifique en 2017, l’entrée de l’intégrité dans la loi en 2020 –, sont le plus souvent portées par des représentants de la communauté scientifique. Et ce qui peut paraître, de loin, une injonction du politique faite au scientifique relève fréquemment de l’auto-saisine, directe ou indirecte, de la communauté scientifique. L’entrée en politique de l’intégrité scientifique démontre la capacité d’une partie limitée de la communauté scientifique à saisir des fenêtres d’opportunité politique. À l’évidence, pour la France, la période 2015-2017 a été l’une de ces fenêtres, où, à la faveur d’une affaire retentissante de méconduite scientifique au CNRS en 2015, du rapport porté par Pierre Corvol en 2016, de la lettre circulaire de Thierry Mandon en 2017, ces questions passent d’un débat professionnel à un objet de politique publique structuré.

Enfin, ce récit historique de l’intégrité semble suggérer qu’à la culture institutionnelle de détection des fraudes scientifiques, caractéristique des années 1970-1990, viendrait désormais se substituer une culture, plus positive, des bonnes pratiques et de la recherche responsable. Certes, l’innovation et la recherche responsables sont autant de mots-clés désormais incontournables pour les grandes institutions scientifiques, mais la question de la détection des méconduites demeure plus que jamais d’actualité, et ce d’autant qu’il s’est opéré ces dernières années un déplacement de la détection des fraudes scientifiques vers celle des pratiques discutables. La question de la qualification des méconduites scientifiques comme celle de leur mesure n’ont jamais été autant d’actualité.

Si le sociologue ne peut que gagner à ne pas s’improviser historien des sciences, il ne peut toutefois rester aveugle face aux grandes transformations des sciences et des techniques. En particulier, la communauté scientifique du XXIᵉ siècle est clairement différente de celle du siècle dernier. Dans son rapport 2021, l’Unesco rappelait qu’entre 2014 et 2018 le nombre de chercheurs a augmenté trois fois plus vite que la population mondiale, avec un total de plus de huit millions de chercheurs en équivalent temps plein à travers le monde.

Cette densification de la communauté scientifique n’est pas sans enjeu pour l’intégrité scientifique. Avec une communauté de plus en plus vaste, il faut non seulement être en mesure de parler d’une même voix, normaliser les guides et les chartes, mais s’assurer que cette voix soit entendue par tous. Même si l’institutionnalisation de l’intégrité est allée de pair avec une forme d’internationalisation, tous les pays ne sont pas en mesure de créer les structures et les rôles que nous avons eu l’occasion de décrire.

Par ailleurs, la croissance de la communauté scientifique s’accompagne mécaniquement d’une augmentation du volume des publications scientifiques qui met à mal les mécanismes traditionnels de contrôle. D’où d’ailleurs le développement d’alternatives au mécanisme de contrôle par les pairs. On a beaucoup parlé de la vague de publications liées à la crise de la Covid-19, mais la vague souterraine, peut-être moins perceptible pour le grand public, est plus structurelle : toujours selon les données de l’Unesco, entre 2015 et 2019, la production mondiale de publications scientifiques a augmenté de 21 %. Qui aujourd’hui est capable de garantir la fiabilité d’un tel volume de publications ?

Qui dit enfin accroissement du volume de la communauté scientifique, dit potentiellement densification des réseaux de collaborations internationales, à l’intérieur desquels les chercheurs comme les équipes de recherche sont autant d’associés rivaux. La multiplication des collaborations internationales suppose de pouvoir mutualiser les efforts et de s’assurer de la qualité de la contribution de chacun comme de sa reconnaissance. Nous avons eu l’occasion de souligner l’importance de considérer les sentiments de justice et d’injustice éprouvés par les scientifiques dans la survenue des méconduites scientifiques : une contribution ignorée, un compétiteur qui se voit récompensé tout en s’écartant des bonnes pratiques, des institutions scientifiques qui interdisent d’un côté ce qu’elles récompensent de l’autre, etc., autant de situations qui nourrissent ces sentiments.

« La recherche en danger », une discussion avec Stéphanie Balme/The Conversation France et Canalchat Grandialogue.

Par ailleurs, la multiplication des collaborations, dans un contexte où les ressources (financements, postes, distinctions, etc.) sont par principe contraintes, implique également des logiques de mise en concurrence qui peuvent être vécues comme autant d’incitations à prendre des raccourcis.

Outre la transformation démographique de la communauté scientifique, le sociologue des sciences ne peut ignorer l’évolution des modalités d’exercice du travail scientifique à l’ère numérique. La « datafication » de la science, à l’œuvre depuis la fin du XXᵉ siècle, correspond tout autant à l’augmentation du volume des données numériques de la recherche qu’à l’importance prise par les infrastructures technologiques indispensables pour leur traitement, leur stockage et leur diffusion. L’accessibilité et la diffusion rapide des données de la recherche, au nom de la science ouverte, ouvrent des perspectives inédites pour les collaborations scientifiques. Elles créent une redistribution des rôles et des expertises dans ces collaborations, avec un poids croissant accordé à l’ingénierie des données.

Mais, là encore, cette évolution technologique engendre des défis majeurs en termes d’intégrité scientifique. L’édition scientifique en ligne a vu naître un marché en ligne des revues prédatrices qui acceptent, moyennant paiement, des articles sans les évaluer réellement. Si les outils de l’intelligence artificielle s’ajoutent aux instruments traditionnels des équipes de recherche, des structures commerciales clandestines, les « paper mill » ou usines à papier, détournent ces outils numériques pour fabriquer et vendre des articles scientifiques frauduleux à des auteurs en quête de publications. Si l’immatérialité des données numériques permet une circulation accélérée des résultats de recherche, comme on a pu le voir durant la crise de la Covid-19, elle rend également possibles des manipulations de plus en plus sophistiquées. Ces transformations structurelles créent une demande inédite de vigilance à laquelle viennent répondre, chacun à leur manière, l’évaluation postpublication comme ceux que l’on appelle parfois les nouveaux détectives de la science et qui traquent en ligne les anomalies dans les articles publiés (images dupliquées, données incohérentes, plagiat) et ce faisant contribuent à la mise en lumière de fraudes ou de pratiques douteuses.




À lire aussi :
Ces détectives qui traquent les fraudes scientifiques : conversation avec Guillaume Cabanac


Plus fondamentalement, cette montée en puissance des données numériques de la recherche engendre des tensions inédites entre l’intégrité scientifique et l’éthique de la recherche. À l’occasion d’un entretien, un physicien, travaillant quotidiennement à partir des téraoctets de données générés par un accélérateur de particules, nous faisait remarquer, avec une pointe d’ironie, qu’il comprenait sans difficulté l’impératif institutionnel d’archiver, au nom de l’intégrité scientifique, l’intégralité de ses données sur des serveurs, mais que ce stockage systématique d’un volume toujours croissant de données entrait directement en contradiction avec l’éthique environnementale de la recherche prônée par ailleurs par son établissement. Intégrité scientifique ou éthique de la recherche ? Faut-il choisir ?

Éditions PUF, 2025.

On touche du doigt ici la diversité des dilemmes auxquels sont quotidiennement confrontés les scientifiques dans l’exercice de leurs activités. La science à l’ère numérique évolue dans un équilibre délicat entre l’intégrité scientifique et l’éthique de la recherche. Et l’un des enjeux actuels est sans doute de parvenir à maximiser les bénéfices des technologies numériques tout en minimisant leurs impacts négatifs. D’où la nécessité pour les institutions de recherche de promouvoir une culture de l’intégrité qui puisse dépasser la simple exigence de conformité aux bonnes pratiques, en intégrant les valeurs de responsabilité sociale auxquelles aspire, comme le montrent nos enquêtes, une part croissante de la communauté scientifique.


Le texte a été très légèrement remanié pour pouvoir être lu indépendamment du reste de l’ouvrage en accord avec les auteurs.

The Conversation

Catherine Guaspare et Michel Dubois sont les auteurs du livre L’intégrité scientifique dont cet article est tiré.

Michel Dubois a reçu des financements de l’Agence nationale de la recherche (ANR). Il est directeur de l’Office français de l’intégrité scientifique depuis septembre 2025.

ref. Qu’est-ce que l’intégrité scientifique aujourd’hui ? – https://theconversation.com/quest-ce-que-lintegrite-scientifique-aujourdhui-273594

Restaurer la confiance au niveau local : un enjeu économique et démocratique national

Source: The Conversation – in French – By Yann Algan, Doyen de l’Ecole d’Affaires Publiques et Professeur d’économie à Sciences Po , HEC Paris Business School

Le malaise français ne relève pas seulement de la défiance envers les politiques ou les institutions, mais d’une promesse trahie de l’économie, lorsque les efforts consentis n’améliorent plus les conditions de vie. Toutefois, la confiance n’a pas disparu, elle s’est relocalisée là où l’action publique est visible, incarnée et compréhensible.

Cet article est publié en partenariat avec Mermoz, la revue du Cercle des économistes dont le numéro 9 a pour thème « Territoires abandon ou rebond ? ».


La défiance est devenue l’un des traits dominants de la société française contemporaine. Les enquêtes d’opinion successives, notamment Fractures françaises 2025, décrivent une société pessimiste, inquiète quant à son avenir et profondément divisée. Mais cette défiance ne se manifeste pas de manière uniforme. Elle s’enracine dans des expériences concrètes, situées dans des territoires précis, là où se vivent au quotidien les transformations économiques et sociales. Dès lors, restaurer la confiance au niveau local ne relève pas seulement d’un impératif démocratique ou symbolique : c’est aussi un enjeu économique majeur à l’échelle nationale.

Le mouvement des « gilets jaunes », apparu à l’automne 2018, a joué à cet égard un rôle de révélateur. Parti d’une contestation fiscale liée à la hausse des taxes sur les carburants, il a rapidement mis au jour une crise plus profonde, mêlant conditions de vie, organisation territoriale et perte de confiance. Loin d’être un simple épisode conjoncturel, il a mis en lumière une réalité trop souvent sous-estimée par l’analyse macroéconomique : l’économie, tout comme la démocratie, est d’abord vécue localement, et c’est à ce niveau que se forgent l’adhésion ou le rejet des politiques publiques.




À lire aussi :
Malbouffe et désertification – quelles recettes pour repenser l’attractivité des centres-villes ?


Une crise de confiance enracinée dans les territoires

L’analyse développée dans les Origines du populisme (Seuil, 2019) montre que le mouvement des gilets jaunes ne peut être compris ni comme une simple révolte des « perdants » de la mondialisation, ni comme un phénomène idéologiquement homogène. Nos données révèlent un profil social et territorial précis : ouvriers, employés, retraités modestes, ménages situés sous le revenu médian, vivant majoritairement dans des villes petites ou intermédiaires, souvent en périphérie des grandes métropoles.

Le symbole du rond-point est à cet égard particulièrement éclairant. Il incarne à la fois la dépendance à la voiture, la dispersion de l’habitat, l’éloignement des services publics et la disparition progressive des lieux traditionnels de sociabilité. Dans ces territoires, la vie quotidienne repose sur des arbitrages contraints : temps de transport élevé, coûts fixes incompressibles, accès limité aux services essentiels. La contestation fiscale n’a fait que cristalliser un malaise déjà ancien.

Ce malaise s’accompagne d’un effondrement de la confiance, tant interpersonnelle qu’institutionnelle. Les soutiens les plus déterminés aux gilets jaunes se situent dans le quadrant combinant faible sentiment d’avoir « réussi sa vie » et faible confiance envers autrui. La défiance à l’égard des institutions est massive : près de huit sur dix déclarent ne pas faire confiance au gouvernement, et la méfiance s’étend à l’Union européenne et aux corps intermédiaires. Cette défiance généralisée explique en grande partie l’incapacité du mouvement à se transformer en projet politique structuré : la colère est collective, mais la confiance nécessaire à la construction de compromis fait défaut.

Quand l’économie ne tient plus sa promesse

L’un des enseignements centraux des Origines du populisme est que cette crise de confiance ne relève pas uniquement d’un choc économique ponctuel, mais d’une rupture de la promesse implicite de l’économie. Pendant plusieurs décennies, l’effort, le travail et la mobilité sociale constituaient un horizon partagé : s’adapter, travailler davantage, accepter les transformations devait permettre de vivre mieux et d’offrir à ses enfants des perspectives supérieures.

Or, dans de nombreux territoires, cette promesse s’est progressivement érodée. Une part importante des gilets jaunes a suivi le modèle dominant des décennies précédentes : accéder à la propriété en zone périurbaine pour des raisons de coût, organiser sa vie autour de la voiture, s’inscrire dans une trajectoire d’ascension sociale modeste mais réelle. Ce modèle s’est retourné contre eux, rendant la mobilité plus coûteuse, les services plus éloignés et les marges de manœuvre quotidiennes de plus en plus étroites.

La colère exprimée ne traduit donc pas un rejet abstrait de l’économie de marché ou de la mondialisation, mais un sentiment de promesse trahie. Lorsque les efforts consentis ne produisent plus d’amélioration tangible des conditions de vie, la confiance dans le système économique et dans ceux qui le gouvernent s’effondre. Ce mécanisme est renforcé par la concentration spatiale de la richesse. Voir la prospérité se concentrer dans quelques grandes métropoles, sans diffusion perceptible vers les territoires environnants, nourrit un sentiment d’injustice plus puissant encore que la baisse du revenu lui-même.

Cette dynamique éclaire la difficulté à conduire les grandes transitions contemporaines, en particulier la transition écologique. Demander des efforts supplémentaires à des populations qui ont déjà le sentiment de ne pas bénéficier des fruits de la croissance est politiquement et économiquement risqué. L’épisode des gilets jaunes l’a montré avec force : une mesure écologiquement justifiée et économiquement rationnelle peut devenir explosive lorsqu’elle heurte un quotidien déjà fragilisé.

De la crise territoriale à l’enjeu économique national

Ces constats rejoignent étroitement les analyses de la note « Territoires, bien-être et politiques publiques » du Conseil d’analyse économique (CAE). Ce dernier y montre que le mécontentement social s’explique moins par les seuls indicateurs économiques classiques que par un ensemble de facteurs liés à la qualité de la vie locale (accès aux services publics, commerces de proximité, lieux de sociabilité, conditions de mobilité).

Certaines politiques publiques ont privilégié l’efficacité économique globale – concentration de l’activité, métropolisation, spécialisation territoriale – sans toujours prendre en compte leurs effets sur le bien-être local. Or, lorsque les gains se concentrent spatialement et que les coûts d’ajustement pèsent ailleurs, la défiance s’installe.

Vie-publique, 2025.

À l’échelle nationale, cette fragmentation territoriale a un coût économique réel. Elle fragilise le consentement à l’impôt, complique la mise en œuvre des réformes et nourrit une instabilité sociale qui pèse sur l’investissement et la croissance. Une économie peut afficher de bonnes performances agrégées tout en devenant socialement et politiquement vulnérable.

La commune, dernier réservoir de confiance

Dans ce paysage de défiance généralisée, un fait mérite une attention particulière : la confiance accordée aux maires demeure élevée. Les enquêtes récentes du Cevipof menées avec Ipsos montrent que le maire reste la figure politique bénéficiant du plus haut niveau de confiance. Cette confiance repose moins sur la proximité affective que sur des critères simples et exigeants : honnêteté, capacité à tenir ses engagements, sens de l’intérêt général.

Ce constat est central pour la question économique. Il montre que la confiance n’a pas disparu ; elle s’est relocalisée. Là où l’action publique est visible, incarnée et compréhensible, le lien de confiance subsiste. Ce lien facilite la coordination des acteurs locaux, l’acceptation des projets d’aménagement et la mise en œuvre des transitions nécessaires.

Restaurer la confiance locale : une stratégie économique

S’appuyant sur ce diagnostic, le CAE plaide pour une réorientation des politiques territoriales autour d’un objectif central : le bien-être local, et non la seule performance économique agrégée. Cela implique de mieux intégrer des indicateurs de qualité de vie dans l’évaluation des politiques publiques, de renforcer les services de proximité et de considérer certains équipements – santé, mobilité, sociabilité – comme de véritables infrastructures de confiance.

Donner aux collectivités locales, et en particulier aux communes, les moyens d’agir est également essentiel. Sans visibilité financière ni capacité d’adaptation, les promesses locales risquent de se transformer en déceptions supplémentaires, alimentant à nouveau la défiance.

Restaurer la confiance au niveau local n’est ni un supplément d’âme ni une politique périphérique. Les gilets jaunes ont montré ce qui se produit lorsque le bien-être local se dégrade et que la promesse économique ne tient plus : la contestation devient la seule forme d’expression disponible. À l’inverse, une économie capable de s’appuyer sur des territoires vivants, dotés de services accessibles et d’institutions locales crédibles, est une économie plus résiliente, plus inclusive et plus durable. Investir dans la confiance locale, c’est créer les conditions sociales et politiques de la prospérité nationale.


Cet article est publié en partenariat avec Mermoz, la revue du Cercle des économistes dont le numéro 9 a pour thème « Territoires abandon ou rebond ? ».

The Conversation

Yann Algan ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Restaurer la confiance au niveau local : un enjeu économique et démocratique national – https://theconversation.com/restaurer-la-confiance-au-niveau-local-un-enjeu-economique-et-democratique-national-273975

Illectronisme : les difficultés des jeunes face au numérique

Source: The Conversation – in French – By Jimmy Bordarie, Docteur, Maitre de conférences, Université de Tours

La vitesse à laquelle le numérique évolue soulève des questions éthiques. Mais disposons-nous des connaissances nécessaires pour les affronter ? Une partie non négligeable de la population, parmi laquelle un certain nombre de jeunes, se trouverait en situation d’illectronisme.


Moins d’un étudiant sur deux disposerait des compétences numériques attendues en fin de licence, selon une étude de l’Observatoire Pix, relayée fin 2025 par différents médias nationaux. Ces résultats mettent en avant ce qu’on peut appeler l’illectronisme chez les jeunes, loin du cliché des digital natives souvent associé à cette génération née à l’ère des réseaux sociaux.

Formé par la contraction d’illettrisme et d’électronique, l’illectronisme – certains auteurs parlent d’e-lettrisme – fait référence à l’état d’une personne qui ne maitrise pas les compétences nécessaires à l’utilisation et à la création des ressources numériques.




À lire aussi :
« L’envers des mots » : Illectronisme


Selon l’Insee, cela correspond à la situation dans laquelle une personne n’a pas utilisé Internet dans les trois derniers mois, soit par incapacité, soit pour des raisons matérielles ou ne possède pas les compétences numériques de base. L’illectronisme est parfois évoqué comme relevant de la fracture numérique informationnelle.

L’illectronisme : repérage et prévalence

Pour évaluer le niveau de connaissances dont on dispose sur le plan numérique, il faut considérer cinq domaines de compétences :

  • la recherche d’information en ligne (sur des produits, services ou la vérification des sources, etc.) ;

  • la communication électronique (envoyer ou recevoir des e-mails, etc.) ;

  • l’usage de logiciels (traitement de texte, etc.) ;

  • la protection de la vie privée en ligne (refuser les cookies, restreindre l’accès à sa position géographique, etc.) ;

  • la résolution de problèmes sur Internet (accéder à son compte bancaire par Internet, suivre des cours en ligne, etc.).

Certaines personnes maîtrisent une partie d’entre eux, d’autres n’en maîtrisent aucun. Pour repérer l’illectronisme, il faut différencier l’illectronisme total et l’illectronisme partiel.

Selon l’Insee, l’illectronisme total concerne environ 15,4 % des Français de plus de 15 ans, ce qui correspond à environ 8 millions de personnes. Cela concerne soit celles qui n’ont pas utilisé Internet dans les trois derniers mois (90,3 % des 8 millions), soit celles qui n’ont pas les compétences numériques de base – c’est-à-dire qu’elles obtiennent 0/2 dans au moins 4 des 5 domaines de compétences (10,7 % des 8 millions).

L’illectronisme partiel correspond aux personnes qui n’ont pas certaines compétences de base, ce qui concerne environ 30 % des personnes de plus de 15 ans. Notons par ailleurs que 20,5 % des internautes en général n’ont pas la compétence de base de protection de la vie privée, alors même que cette compétence concerne tout le monde, et ce dans une période où toute information est susceptible d’être monnayée, utilisée, voire détournée (« fake news », deepfakes, etc.).

L’âge, un facteur clé dans l’usage des technologies ?

Des facteurs sociodémographiques existent, à commencer par l’âge. Les personnes les plus âgées sont les plus touchées par l’illectronisme total (60 % des plus de 75 ans, contre 2 % des 15-24 ans). Pour autant, 19 % des 15-24 ans ont des compétences faibles.

D’autres variables ont une influence importante. Le niveau d’éducation par exemple peut être déterminant : les personnes sans diplôme ou titulaires d’un certificat d’études primaires ont 7 fois plus de risque d’être en situation d’illectronisme qu’une personne ayant un niveau bac+3 ou plus. Le niveau socio-économique également : les personnes vivant dans un foyer parmi les 20 % plus modestes ont 6,6 fois plus de risque d’être touchées par l’illectronisme qu’une personne vivant dans un ménage parmi les 20 % plus aisés.

« Illectronisme, cette inégalité face au numérique » (C dans l’air, avril 2023).

Lorsque l’on s’intéresse en particulier aux 15-24 ans, des données viennent relativiser le mythe du jeune qui maîtriserait le numérique. Si les jeunes n’ont jamais été aussi connectés, le baromètre de l’Observatoire Pix appelle à la vigilance.

À l’entrée à l’université, 40 % des étudiants sont en deçà du niveau attendu, et en sortie de licence, 52 % des étudiants ne maîtrisent pas les usages numériques nécessaires à leur poursuite d’études ou à leur insertion sur le marché du travail. Parmi les compétences soulevant des difficultés : vérifier la fiabilité d’une information en ligne ou connaître ses droits en matière de protection des données.

Quels freins à l’acquisition des compétences numériques ?

De nombreux freins, notamment psychologiques, pourraient expliquer ces constats. Sur le plan individuel, le fait de (ne pas) se sentir capable (Bandura parle de sentiment d’auto-efficacité) est un déterminant majeur. Cela influence la motivation à utiliser les outils numériques et la performance lors de leur usage et, plus globalement, la motivation scolaire.

En outre, l’anxiété vis-à-vis du numérique et le technostress (concept relatif au stress induit par le numérique) influencent également le rapport au numérique des adolescents, notamment en fonction du genre.

Sur le plan collectif, les représentations et les stéréotypes peuvent conduire à une stigmatisation de certains jeunes dits offline (utilisant pas ou peu les outils numériques). Ils peuvent générer une menace du stéréotype (c’est-à-dire une altération des performances lorsque l’on est victime d’un stéréotype en situation d’évaluation ou de jugement), influençant notamment les trajectoires en études d’informatique en fonction du genre.

Des enjeux juridiques et environnementaux à comprendre

Maîtriser les outils numériques, c’est aussi avoir conscience et connaissance des enjeux juridiques et environnementaux.

Sur le plan juridique, c’est comprendre par exemple les réglementations européennes ou les règles relatives au droit à la vie privée, au partage des informations en ligne et à la désinformation, au cyberharcèlement, au télétravail ou encore au droit à la déconnexion.

Sur le plan environnemental, c’est savoir que le numérique représente 4,4 % de l’empreinte carbone de la France, 11,3 % de la consommation électrique en 2022, avec une prévision, en l’état, d’une augmentation de 80 % à l’horizon 2050 selon l’ADEME ; que la consommation d’énergie des data centers a augmenté de 11 % en un an, et leur consommation d’eau pour le refroidissement des circuits a augmenté de 19 % entre 2022 et 2023. Notons par ailleurs que ces données sont antérieures à la démocratisation de l’usage des intelligences artificielles génératives.

La vitesse à laquelle le numérique évolue (le développement des intelligences artificielles génératives en étant une manifestation) soulève des questions éthiques. Nous avons tenté de répondre à certaines d’entre elles dans le Bon Usage du numérique. Comment s’en servir, pour soi et pour les autres (Ellipses, 2025). Il s’agit désormais pour chacun et chacune d’entre nous de prendre conscience de tous ces enjeux, de développer une littératie numérique, autrement dit de nous éduquer aux médias et au numérique.

Et si vous souhaitez faire un bilan de vos propres compétences, vous pouvez vous tester à l’aide de l’outil mis à disposition par Pix.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Illectronisme : les difficultés des jeunes face au numérique – https://theconversation.com/illectronisme-les-difficultes-des-jeunes-face-au-numerique-273606

En quoi les communs peuvent-ils répondre aux enjeux de la transition écologique ?

Source: The Conversation – in French – By Héloïse Calvier, Chargée d’accompagnement à l’innovation, Ademe (Agence de la transition écologique)

De nombreuses initiatives promeuvent aujourd’hui le retour des communs, c’est-à-dire des formes de gestion collective des ressources dont les communautés humaines ont besoin. Pertinente pour répondre à une multitude d’enjeux, cette approche, de par son caractère coopératif, innovant et transversal, apparaît particulièrement prometteuse pour accompagner la transition écologique.


La notion de « communs » revient depuis quelques années sur le devant de la scène, déclinée à des domaines aussi variés que les transports, la santé, l’éducation ou le numérique. Qu’est-ce que les communs ? On peut les définir comme des ressources matérielles (jardins partagés, boîte à livres…) ou immatérielles (Wikipédia, OpenStreetMap…) gérées collectivement par une communauté qui établit des règles de gouvernance dans le but de les préserver et de les pérenniser.

Leur théorisation est récente, mais le principe des communs est en réalité très ancien, beaucoup plus d’ailleurs que la construction juridique et politique, plus récente, de la propriété privée. L’exploitation et l’entretien des ressources, en particulier naturelles, ont très longtemps été organisés collectivement par les communautés humaines… jusqu’à ce que différents processus, dont la construction des États-nations et l’essor du commerce international, contribuent à démanteler ces communs.

Elinor Ostrom, lors de la remise du prix de la Banque de Suède en sciences économiques en 2009.
Holger Motzkau 2010, CC BY-SA

Ces dernières décennies, plusieurs facteurs ont entraîné leur regain :

  • D’une part, la prise de conscience, des effets néfastes de la privatisation des terres sur l’équilibre alimentaire des pays du Sud.

  • De l’autre, l’essor d’internet et de l’open source, mouvement qui s’oppose au modèle du logiciel propriétaire.

Les travaux d’Elinor Ostrom, qui a reçu en 2009 le Nobel d’économie pour ses travaux démontrant l’efficacité économique des communs, ont largement contribué à imposer le terme dans la sphère médiatique.




À lire aussi :
« L’envers des mots » : Biens communs


La collaboration plutôt que la concurrence

Aujourd’hui, l’idée des communs prend d’autant plus d’importance dans le contexte de la transition écologique. En effet, la prise de conscience d’un monde aux ressources finies implique de repenser leur gestion collective. Or, les communs sont particulièrement propices aux démarches d’intérêt général. Leur logique, fondée sur la coopération, va à rebours de celle, dominante, de la concurrence. Dans un cadre de ressources contraintes, une telle logique est précieuse.

C’est pourquoi de nombreux acteurs, pouvoirs publics comme acteurs privés, commencent à s’en emparer. En France, l’Agence de la transition écologique (Ademe) a déjà accompagné 50 projets de communs depuis quatre ans, à travers un appel à communs (AAC) inédit consacré à la sobriété et la résilience des territoires.

Les porteurs de projets (associations, entreprises, collectivités…) ayant bénéficié d’un soutien technique et financier dans ce cadre doivent ainsi respecter un certain nombre de critères en matière de coopération et de transparence.

Toutes les ressources produites doivent, par exemple, être encadrées par des licences ouvertes. Les porteurs doivent également s’inscrire dans une posture collaborative : s’organiser pour diffuser au maximum les ressources, intégrer les retours utilisateurs et se connecter aux communautés déjà formées dans le domaine.

Typologies des lauréats de l’appel à communs de l’Ademe.
Ademe 2025

D’autres acteurs participent à la transformation de l’action publique et se mobilisent sur les communs : la Fondation Macif, l’IGN, France Tiers-Lieux (partenaires de l’AAC de l’Ademe), l’Agence nationale de la cohésion des territoires (ANCT), le ministère de l’éducation nationale, la direction interministérielle du numérique (Dinum)…

Des enjeux transversaux

En favorisant les synergies entre acteurs, les communs apportent des réponses moins cloisonnées.

La 3e édition de l’Appel à communs de l’Ademe traite cinq thématiques sous forme de défis (alimentation et forêt, aménagement et bâtiment, mobilité et logistique, recyclage matière et numérique) qui peuvent être abordés de manière transversale.

Les dix défis de l’édition 2023 de l’appel à communs de l’Ademe.
Ademe 2025

Autre spécificité, les candidatures sont rendues publiques avant le dépôt et la sélection des projets, ce qui encourage les postulants à créer des synergies, voire des fusions de projets, des échanges de briques techniques. Les moyens humains et financiers nécessaires au développement des communs sont alors mutualisés, ce qui, à moyen et long terme, permet de réduire les dépenses et de multiplier les impacts.

Parmi les projets de communs que l’Ademe a accompagnés, on peut citer La rue commune. Cette méthode pour repenser les rues en tant que premier bien commun urbain prend en compte des enjeux de différentes natures selon cinq principes :

  • le lien social,

  • la priorité au piéton pour favoriser la santé et le bien-être,

  • la biodiversité,

  • le rafraîchissement urbain,

  • et la valorisation des eaux pluviales.

Un autre exemple, Le logement social paysan, entend promouvoir la réhabilitation des fermes pour en faire des logements sociaux paysans, en organisant la rencontre entre paysans et bailleurs sociaux. Ici se croisent les enjeux du bâtiment et ceux de l’agriculture.

Le potentiel des communs numériques

Un intérêt croissant est porté aujourd’hui aux communs numériques, qui constituent à la fois un outil très puissant pour croiser des données complexes et les mettre en commun au service de la transition.

Parmi les projets que l’Ademe a déjà soutenus, citons Pas de vacances pour la vacance, un outil de datavisualisation construit à partir de données publiques qui permet d’observer, à différentes échelles du territoire, la part de logements vacants. L’intérêt : permettre de les revaloriser dans une logique d’urbanisme circulaire et de mieux exploiter ce levier pour répondre aux besoins de logements.

Même principe pour le commun Diagnostic mobilité. Cet outil permet, par datavisualisation, un prédiagnostic pour les collectivités rurales des flux de déplacement majoritaires sur leur territoire, afin de les guider dans les choix de leur politique de transport.

Les communs constituent aujourd’hui un cadre d’action stratégique pour mobiliser l’intelligence collective, dans une logique d’innovation ouverte au service de la transition écologique, en décloisonnant les approches et en mutualisant les savoirs.




À lire aussi :
Aux sources de la démocratie : penser le « commun » avec Alcméon, Héraclite et Démocrite


The Conversation

Héloïse Calvier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. En quoi les communs peuvent-ils répondre aux enjeux de la transition écologique ? – https://theconversation.com/en-quoi-les-communs-peuvent-ils-repondre-aux-enjeux-de-la-transition-ecologique-262989