Une partie du cerveau humain grossit avec l’âge – voici ce que cela signifie pour vous

Source: The Conversation – in French – By Esther Kuehn, Professor of Neuroscience, University of Tübingen

Le vieillissement cérébral est propre à chaque individu et dépend de son mode de vie, notamment de ses expériences sensorielles, de ses habitudes de lecture et des défis cognitifs qu’il relève au quotidien. (Shutterstock)

Je me suis demandé dernièrement si mon cerveau restera en bonne santé quand je vieillirai. Même si je suis professeure dans un département de neurologie, il m’est difficile d’évaluer si mon cerveau, ou celui de quiconque, souffre d’une neurodégénérescence précoce.

Mon étude récente montre toutefois que la taille d’une partie du cerveau augmente avec l’âge plutôt que de dégénérer.

La raison pour laquelle il est si complexe d’évaluer la neurodégénérescence, c’est que mesurer les petites structures de notre cerveau constitue tout un défi.


Cet article fait partie de notre série La Révolution grise. La Conversation vous propose d’analyser sous toutes ses facettes l’impact du vieillissement de l’imposante cohorte des boomers sur notre société, qu’ils transforment depuis leur venue au monde. Manières de se loger, de travailler, de consommer la culture, de s’alimenter, de voyager, de se soigner, de vivre… découvrez avec nous les bouleversements en cours, et à venir.


Les technologies modernes de neuro-imagerie permettent de détecter une tumeur au cerveau ou une lésion épileptique. Ces anomalies, qui mesurent plusieurs millimètres, peuvent être visualisées grâce à l’imagerie par résonance magnétique (IRM), dont la puissance est environ 30 000 à 60 000 fois supérieure à celle du champ magnétique naturel de la Terre. Le problème est que la pensée et la perception humaines fonctionnent à une échelle plus petite encore.

Certaines zones du cerveau augmentent de volume avec l’âge

La pensée et la perception se produisent dans le néocortex. Cette partie périphérique de notre cerveau est composée de six couches. Lorsqu’on ressent un contact sur son corps, c’est la couche IV du cortex sensoriel qui est activée. Cette couche a la largeur d’un grain de sable, soit une taille bien inférieure à celle que les appareils d’IRM des hôpitaux peuvent généralement représenter.

Quand on module ses sensations corporelles, par exemple quand on peut lire ce texte plutôt que d’avoir conscience de son mal de dos, ce sont les couches V et VI du cortex sensoriel qui s’activent. Elles sont encore plus petites que la couche IV.

Pour mener mon étude publiée dans la revue Nature Neuroscience, j’ai eu accès à un appareil d’IRM 7 Tesla qui offre une résolution cinq fois supérieure à celle des appareils standard. Il permet d’obtenir des instantanés de minuscules réseaux cérébraux lors de la perception et de la pensée.

Grâce à cet appareil, mon équipe et moi-même avons pu examiner le cortex sensoriel de jeunes en bonne santé (d’environ 25 ans) et de personnes âgées en bonne santé (d’environ 65 ans) afin de mieux comprendre le vieillissement cérébral. Nous avons constaté que seules les couches V et VI, qui modulent la perception corporelle, présentaient des signes de dégénérescence liée à l’âge.

La couche IV, qui permet de ressentir le toucher, était plus développée chez les personnes âgées en bonne santé. Nous avons aussi mené une étude comparative avec des souris. Nous avons obtenu des résultats similaires chez les souris âgées, qui avaient également une couche IV plus développée que les plus jeunes. Notre étude sur les souris comprenait un troisième groupe de souris très âgées où on a pu observer que cette partie du cerveau pouvait dégénérer à un âge plus avancé.

Selon les théories actuelles, notre cerveau rétrécit avec l’âge. Cependant, les découvertes de mon équipe contredisent en partie ces théories. Il s’agit de la première preuve que certaines zones du cerveau augmentent de volume avec l’âge chez les personnes en bonne santé.

Une femme en blouse blanche tape sur une image médicale d’un cerveau sur un écran d’ordinateur
Il nous reste encore beaucoup à apprendre sur le vieillissement du cerveau.
Gorodenkoff/Shutterstock

Le vieillissement cérébral est propre à chaque individu

Les personnes âgées dont la couche IV est plus épaisse devraient être plus sensibles au toucher et à la douleur, et avoir de la difficulté à moduler ces sensations en raison de la diminution des couches profondes.

Pour mieux comprendre cet effet, nous avons étudié un patient d’âge moyen né sans un bras. Ce dernier avait une couche IV plus petite. Comme son cerveau recevait moins d’impulsions qu’une personne ayant deux bras, la masse de la couche IV s’était moins développée. Les parties du cerveau qui sont davantage utilisées forment plus de synapses, et donc plus de masse.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Plutôt que de dégénérer de manière systématique, le cerveau des personnes âgées semble préserver, au moins en partie, les fonctions qu’il utilise. Le vieillissement cérébral peut être comparé à une machine complexe dans laquelle certaines pièces fréquemment utilisées sont bien huilées, tandis que celles qui le sont moins rouillent. De ce point de vue, le vieillissement cérébral est propre à chaque individu et dépend de son mode de vie, notamment de ses expériences sensorielles, de ses habitudes de lecture et des défis cognitifs qu’il relève au quotidien.

Cela montre également que le cerveau des personnes âgées en bonne santé conserve sa capacité à rester en phase avec son environnement.

Toute une vie d’expériences

Les résultats présentent un autre aspect intéressant. Le schéma des changements cérébraux observés chez les personnes âgées, avec un renforcement de la zone de traitement sensoriel et une réduction des zones responsables de la modulation, possède des similitudes avec des troubles neurodivergents tels que le trouble du spectre de l’autisme ou le trouble déficitaire de l’attention avec hyperactivité.

Ces troubles se caractérisent par une sensibilité sensorielle accrue et une capacité de filtrage restreinte, ce qui entraîne des problèmes de concentration et de flexibilité mentale.

Nos conclusions indiquent-elles que le vieillissement engendre des troubles neurodivergents ? Le cerveau des personnes âgées s’est développé au fil d’une vie d’expériences, tandis que les personnes neurodivergentes naissent avec ces schémas cérébraux. Il est difficile de savoir quels autres effets pourrait avoir la croissance de la masse cérébrale avec l’âge.

Cependant, nos résultats nous fournissent quelques indices sur les raisons pour lesquelles les personnes âgées éprouvent parfois des difficultés à s’adapter à de nouveaux environnements sensoriels. Dans certaines situations, par exemple si elles doivent utiliser un nouvel appareil ou si elles visitent une nouvelle ville, la réduction des capacités de modulation des couches V et VI peut devenir particulièrement manifeste, augmentant ainsi le risque de désorientation ou de confusion.

Cela peut également expliquer pourquoi les capacités à effectuer plusieurs tâches à la fois, comme utiliser un téléphone portable tout en marchant, diminuent avec l’âge. Les informations sensorielles doivent être modulées pour éviter les interférences lors de l’exécution de plusieurs tâches simultanément.

Les couches moyennes et profondes présentaient davantage de myéline, une couche protectrice constituée de graisse et qui est essentielle au fonctionnement et à la communication nerveuse, chez les souris comme chez les humains. Cela indique qu’il pourrait y avoir un mécanisme compensatoire pour la perte de la fonction modulatrice chez les personnes de plus de 65 ans. Cet effet semblait toutefois s’estomper chez les souris très âgées.

Nos résultats démontrent l’influence du mode de vie sur le vieillissement du cerveau.

La Conversation Canada

Esther Kuehn travaille pour l’Institut Hertie de recherche clinique sur le cerveau et le Centre allemand pour les maladies neurodégénératives (DZNE) de Tübingen. Elle bénéficie d’un financement du Conseil européen de la recherche (CER).

ref. Une partie du cerveau humain grossit avec l’âge – voici ce que cela signifie pour vous – https://theconversation.com/une-partie-du-cerveau-humain-grossit-avec-lage-voici-ce-que-cela-signifie-pour-vous-263498

Combiner préservation de la biodiversité et développement économique : leçons indonésiennes

Source: The Conversation – in French – By Emmanuel Fourmann, Chargé de recherche, Agence Française de Développement (AFD)

Surexploitation des ressources marines et halieutiques, déchets abandonnés dans la nature, tourisme de masse… comment préserver les écosystèmes côtiers locaux des conséquences néfastes du tourisme et des activités humaines intensives ? Des recherches menées en Indonésie démontrent que les « aires protégées » et, dans le cas de l’Indonésie, les « aires marines protégées » (AMP) en particulier offrent des pistes prometteuses afin d’allier préservation de la biodiversité et développement économique – à condition d’y associer les populations locales. Cet article fait le point sur les dispositifs « d’aires » existants et offre un retour d’expérience sur leur efficacité en Indonésie.


La mise en place d’une aire protégée demeure l’un des principaux outils pour conserver la biodiversité. Mais les restrictions d’usage associées (selon les zones concernées : interdiction de prélèvement ou de circulation, itinéraires ou calendriers imposés, défense de faire un feu ou de bivouaquer) sont généralement contraignantes pour les riverains ou les touristes, et souvent mal acceptées.

Des travaux de recherche menés en Indonésie montrent qu’associer les communautés voisines à la conservation est généralement un gage d’efficacité écologique : les règles établies sont alors mieux comprises, voire co-construites, et, dès lors, mieux admises et respectées.

Ainsi, les bénéfices attendus de la mise en protection se concrétisent du point de vue écologique et il est possible d’y adjoindre des co-bénéfices pour les populations riveraines.

Périmètres et restrictions d’usage

La stratégie nationale des aires protégées (SNAP) donne la définition suivante de la notion d’« aire protégée » : « Un espace géographique clairement défini, reconnu, consacré et géré, par tout moyen efficace, juridique ou autre, afin d’assurer à long terme la conservation de la nature ainsi que les services écosystémiques et les valeurs culturelles qui lui sont associés. »

C’est donc une zone géographique définie par la loi, dont l’usage est restreint par rapport au droit commun.

Plusieurs catégories de protection ont été définies par l’Union internationale pour la conservation de la nature (UICN), un lien étant clairement établi entre, d’une part, le degré de rareté et de menace pesant sur les écosystèmes, les animaux et les plantes et, d’autre part, le niveau des restrictions d’usage.

L’arsenal habituel est un périmétrage de la zone et la sécurisation légale du foncier ; la détermination d’une « zone cœur » et de zones tampons ; une régulation des accès et des pratiques ; l’élaboration et la mise en œuvre d’un plan de gestion écologique ; des activités de police de l’environnement et de valorisation des connaissances.

Pour ce qui est des espaces côtiers et maritimes, une aire marine protégée correspond à un « volume délimité en mer, sur lequel les instances gouvernantes attribuent un objectif de protection de la nature à long terme. Cet objectif est rarement exclusif et soit souvent associé à un objectif local de développement socio-économique, soit encore avec une gestion durable des ressources ».

Compte tenu des interactions entre faunes marine et terrestre (ponte des tortues, habitat des crabes et oiseaux de mer), de nombreuses aires protégées côtières sont mixtes, incluant une zone en mer et une partie terrestre pour garantir une continuité écologique entre les deux milieux.

Une tension entre biodiversité et développement économique

Aujourd’hui, la biodiversité est la plus riche dans les zones faiblement peuplées et faiblement développées (moindre pression anthropique, moindre pollution) et c’est naturellement dans ces zones que l’on est le plus susceptible de créer des aires protégées pour sécuriser les écosystèmes.

Dès lors, l’objectif de conservation peut entrer en tension avec celui du développement économique local.

Si les personnes les plus pauvres et les plus éloignées de l’économie mondiale sont les plus dépendantes de la nature pour leur subsistance, il faut aussi noter que la création d’une aire protégée se traduit pour les populations riveraines par de nouvelles contraintes pesant sur leurs pratiques productives (agriculture, cueillette, élevage, châsse, pêche), leurs itinéraires (zones interdites de manière temporaire ou permanente, nomadisme), leurs comportements (gestion des déchets). Il existe une tension traditionnelle entre droits des riverains et droits de la nature.

Les logiques de conservation sont parfois déployées dans des contextes d’inégalités importantes, car faisant se côtoyer des populations très pauvres et isolées, avec des opérateurs économiques plus riches alignés sur d’autres standards (tourisme, pêcheries industrielles, mines). En Indonésie, certains villages côtiers, situés dans des zones très touristiques, figurent parmi les plus riches du pays, mais aussi parmi les plus inégaux : les modes de vie traditionnels (pauvres) coexistent avec ceux, davantage empreints de consommation, d’un petit groupe de personnes qui profitent plus directement des revenus issus du tourisme.

Par ailleurs, les villages proches d’aires protégées ont souvent un accès plus limité aux équipements, infrastructures (près de la moitié des populations proches des aires protégées n’a pas accès au réseau téléphonique) et soutiens financiers (la moitié des ménages n’a pas accès au crédit).

De manière générale, ces villages proches d’aires protégées affichent en moyenne de plus hauts niveaux de pauvreté et d’inégalité qu’ailleurs dans le pays, et si l’on y observe une lente augmentation des revenus des plus pauvres, le niveau des inégalités, lui, a plutôt tendance à augmenter.

Dès lors, est-il possible de concilier conservation et développement juste des populations locales ?

Associer les populations locales

Des travaux menés sur une série d’aires marines protégées en Indonésie montrent que l’association directe des populations à la création puis à la gestion des aires protégées (information des populations sur les enjeux, création de groupe de parole, représentation des populations voisines dans les instances de décision, intégration des riverains dans la surveillance ou le guidage, etc.) est un garant de l’efficacité écologique et de l’acceptation sociale. Chaque restriction d’usage, si elle est comprise, nourrie de la connaissance des populations locales et confrontée à leurs contraintes existantes, sera mieux respectée et les coûts de coercition réduits. De même, si l’exercice de la surveillance écologique est exercée par un ou une voisine, elle n’est pas vécue comme exogène.

Les travaux soulignent notamment :

  • L’importance du volet social de la conservation écologique : il est nécessaire d’associer au maximum les populations riveraines au processus de création puis de gestion des aires marines, notamment lors de l’élaboration des règles. Celles-ci doivent être construites en tenant compte des besoins locaux et des connaissances des habitants. Il est par exemple très important que des enquêtes préalables soient effectuées avant la création de nouvelles aires protégées, pour en limiter l’impact et s’assurer de l’existence de solutions alternatives ou de compensations adaptées. Cette économie non monétaire, fondée sur la nature, n’est toutefois pas bien connue ni appréhendée par les décideurs.

  • La nécessité d’une diversification des profils de recrutement des gestionnaires et écogardes (ne pas se limiter aux formations purement biologiques et écologiques). Il convient de former les gestionnaires en place aux approches économiques et sociales et de les doter d’outils pratiques pour les aider à mieux intégrer les populations et mieux prendre en compte leurs points de vue.

La biodiversité, garantie de subsistance et atout de développement

Concilier objectifs socio-économiques et environnementaux n’est donc pas impossible, même si l’objectif principal d’une aire protégée est généralement prioritairement biologique, visant à maintenir durablement des écosystèmes.

La biodiversité protégée peut être un facteur particulièrement attractif pour le tourisme (plongée, randonnée, pêche sportive, grande chasse) et devenir un atout économique pour un pays, le tourisme étant dans la comptabilité nationale une exportation de services, pourvoyeuse de devises, d’emplois et d’activité économique. Tout en rappelant aussi qu’un tourisme intense, mal contrôlé et mal canalisé, peut évidemment devenir une menace additionnelle pour la biodiversité des milieux fragiles.

Les aires marines protégées offrent par ailleurs de nombreux bénéfices environnementaux. En conservant la biodiversité et le paysage, elles favorisent la pêche durable et le tourisme côtier. En protégeant les zones d’habitat de la faune sauvage, elles facilitent la reproduction des poissons. En zone intertropicale, elles augmentent également la résilience des communautés humaines face au changement climatique, car les mangroves et les barrières de corail atténuent les effets du changement climatique comme la montée du niveau des mers et l’érosion côtière, et l’impact des phénomènes extrêmes, notamment les tsunamis dans les pays à forte activité sismique comme l’Indonésie (entre 5 000 et 10 000 séismes enregistrés chaque année).

Les conditions de l’efficacité des aires marines protégées

Les études menées sur l’Indonésie montrent que la plupart des aires marines protégées souffrent d’une gouvernance médiocre, mais que des améliorations sont possibles et déjà à l’œuvre.

Prévue par le Cadre mondial pour la biodiversité de Kunming-Montréal, l’extension ou la création d’aires protégées, si elle est conduite en lien avec les populations, peut se traduire par une amélioration des conditions de vie des riverains, avec notamment une amélioration des captures de pêche, un meilleur accès des communautés à l’information, un accès à des emplois dans le tourisme, notamment pour les femmes. Une extension des aires marines protégées, si elle s’accompagne d’une démarche consultative et inclusive, peut donc conjuguer intérêt écologique et économique.

Dans cette perspective, les travaux de recherche en matière de mesure de la biodiversité (comptabilité écologique et océanique, Blue ESGAP, comptabilité des écosystèmes côtiers) sont très attendus, car ils devraient permettre à moyen terme un meilleur suivi des effets écologiques et sociaux des aires marines protégées et de documenter ainsi la contribution au développement durable des politiques de conservation de la nature.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Combiner préservation de la biodiversité et développement économique : leçons indonésiennes – https://theconversation.com/combiner-preservation-de-la-biodiversite-et-developpement-economique-lecons-indonesiennes-270746

« Fake lives » : quand la simulation déplace les frontières de l’identité sociale

Source: The Conversation – in French – By Emmanuel Carré, Professeur, directeur de Excelia Communication School, chercheur associé au laboratoire CIMEOS (U. de Bourgogne) et CERIIM (Excelia), Excelia

La vie comme simulation dans le _Truman Show_ (1998), de Peter Weir, avec Jim Carrey dans le rôle-titre. Allociné

Entre des intelligences artificielles qui adoptent délibérément des codes d’existence humaine et des individus qui simulent des pans entiers de leur existence, l’identité sociale se transforme et la notion d’authenticité vacille.


Il y a quelques mois, une intelligence artificielle (IA), nommée Flynn, a été officiellement acceptée comme étudiante au département d’Arts numériques de l’Université des arts appliqués de Vienne (Autriche). Pour la première fois dans l’histoire, une IA suit des cours, reçoit des notes et tient un journal de ses apprentissages aux côtés d’étudiants humains. Flynn, créée par les étudiants Chiara Kristler et Marcin Ratajczyk, s’intéresse notamment à la « fatigue féministe » – un sujet qu’elle explore avec cette curiosité naïve (et à peine ironique) qui caractérise son statut hybride.

Ce cas s’inscrit dans un phénomène plus large que nous proposons d’appeler les « fake lives » : des formes d’existence où la simulation devient un mode de vie assumé, qu’elle soit pratiquée par des intelligences artificielles ou par des humains eux-mêmes.

Quand les machines simulent la vie humaine

Côté pile, Flynn inaugure en effet ce que nous pourrions nommer les « virtual lives » : des intelligences artificielles qui adoptent délibérément des codes d’existence humaine. Contrairement aux chatbots (agents conversationnels) traditionnels qui tentent de masquer leur nature artificielle, Flynn assume pleinement son statut d’IA tout en performant authentiquement le rôle d’étudiant.

Cette transparence paradoxale trouve son prolongement le plus sophistiqué dans l’affaire récente du philosophe Jianwei Xun. Ce penseur hongkongais, présenté comme l’inventeur du concept d’« hypnocratie » – un régime politique qui utilise l’IA pour altérer les états de conscience collectifs – s’est révélé être une création d’Andrea Colamedici, philosophe italien spécialiste de l’intelligence artificielle. Vertige supplémentaire : Xun est lui-même le produit d’un dialogue entre Colamedici et des IA (Claude et ChatGPT), créant une « troisième entité » hybride !

Finalement, l’hypnocratie théorisée par ce « faux penseur » finit par décrire précisément le monde dans lequel nous évoluons : un régime où l’IA inonde la réalité d’interprétations possibles, créant un état de quasi-hypnose collective. La prophétie s’autoréalise : en inventant un concept pour décrire notre époque, Colamedici a créé les conditions mêmes de cette hypnocratie, les médias ayant massivement relayé les théories d’un philosophe fictif sans vérifier son existence !

L’industrialisation de la performance identitaire

Côté face, en miroir de ces leurres « artificiellement intelligents », nous assistons à l’émergence de fake lives strictement humaines, où des individus simulent délibérément des pans entiers de leur existence.

Le phénomène des starter packs illustre cette tendance. Ces figurines virtuelles générées par IA ont inondé il y a quelques mois les réseaux sociaux comme LinkedIn. Beaucoup se sont prêtés au jeu de cet autoportrait généré par IA sous forme de produit de consommation, une espèce d’identité « sous blister » accompagnée d’accessoires censés résumer une personnalité.

Cette logique de simulation s’étend aux performances corporelles avec l’émergence des « Strava jockeys » : des coureurs professionnels payés pour effectuer des entraînements au nom d’autres personnes, permettant à ces dernières d’afficher des performances sportives impressionnantes sans fournir l’effort correspondant. Des outils, comme Fake My Run, automatisent même cette simulation, générant de fausses données de course directement injectées dans les applications de fitness.

Le phénomène atteint son paroxysme en Chine, où des entreprises, comme Pretend to Work, proposent aux chômeurs de payer 4 euros pour passer une journée dans de faux bureaux, participant à de fausses réunions dont ils publient les images sur les réseaux sociaux. Cette simulation complète de la vie professionnelle révèle la pression sociale exercée par l’obligation d’occuper une place reconnue dans la société.

Comment interpréter ces phénomènes de mises en scène dignes d’une « post-vérité » vertigineuse ?

Une généalogie de la simulation sociale

Les phénomènes que nous venons d’exposer s’enracinent dans une longue tradition sociologique. Dès 1956, Erving Goffman analysait dans « la Présentation de soi », premier tome de la Mise en scène de la vie quotidienne, la façon dont nous jouons constamment des rôles sociaux, distinguant la « façade » que nous présentons aux autres de nos « coulisses » privées. Les fake lives ne font qu’externaliser et technologiser cette performance identitaire que Goffman observait déjà.

Jean Baudrillard a théorisé dans Simulacres et Simulation (1981) comment l’image finit par supplanter le réel, créant des « simulacres » – des copies sans original qui deviennent plus vraies que nature. Les fake lives actuelles illustrent parfaitement cette logique : les fausses performances Strava deviennent plus importantes que l’exercice réel, les starter packs plus représentatifs que l’identité vécue.

Les recherches récentes en psychologie cognitive confirment et précisent ces intuitions sociologiques. L’anthropomorphisme numérique révèle par exemple comment notre « cognition sociale » s’active automatiquement face aux interfaces conversationnelles. Contrairement aux analyses de Goffman centrées sur les interactions humaines, nous découvrons que les mêmes mécanismes psychologiques – empathie, attribution d’intentions, perception d’autorité – s’appliquent aux entités artificielles dès qu’elles adoptent des signaux humanoïdes. Cette « équation médiatique ») montre que nous traitons instinctivement les machines comme des acteurs sociaux, créant une « confiance affective » qui peut court-circuiter notre « vigilance épistémique ».

La nouveauté réside dans l’industrialisation de cette simulation. Là où Goffman décrivait des ajustements individuels et ponctuels, nous assistons désormais à la marchandisation de la performance identitaire. Les fake lives deviennent un service payant, une industrie florissante qui répond à l’anxiété contemporaine de ne pas « exister suffisamment » dans l’espace social numérisé.

Une transparence paradoxale

Les fake lives assument souvent leur artifice. Flynn revendique sa nature d’IA, les starter packs affichent leur dimension ludique, les faux coureurs Strava participent d’un jeu social reconnu. Cette transparence suggère l’émergence de nouveaux critères d’authenticité.

Flynn développe d’ailleurs une authenticité post-humaine assumée : artificielle par nature, elle explore sincèrement des questions humaines. On peut dire que les starter packs révèlent aussi une vérité sur notre époque par leur autodérision : nous sommes tous des « produits » optimisés pour la consommation sociale. Ce second degré révèle d’ailleurs ce que Byung-Chul Han appelle notre condition d’entrepreneurs de nous-mêmes : nous optimisons gaiement notre propre exploitation !

Ces simulations ne constituent donc pas une forme de pathologie numérique qu’il conviendrait simplement de condamner. Elles révèlent en fait de nouvelles modalités d’existence qui apparaissent lorsque les frontières entre réel et virtuel, authentique et simulé, s’estompent. Flynn, Strava et les bureaux chinois nous incitent pour le moins à repenser nos catégories d’analyse sociale et nos interactions simulées dans les espaces publics virtuels.

L’enjeu ultime est peut-être moins de trancher entre libération et aliénation que de comprendre comment les fake lives déplacent les frontières de l’identité sociale. Offrant à la fois des espaces d’émancipation et des formes inédites de soumission douce, ces pratiques nous obligent à penser l’existence comme un jeu paradoxal, où l’authenticité passe désormais par la reconnaissance assumée de l’artifice.

The Conversation

Emmanuel Carré ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. « Fake lives » : quand la simulation déplace les frontières de l’identité sociale – https://theconversation.com/fake-lives-quand-la-simulation-deplace-les-frontieres-de-lidentite-sociale-266298

Le retour de la puissance en géopolitique : le cas de l’Ukraine

Source: The Conversation – in French – By Laurent Vilaine, Docteur en sciences de gestion, ancien officier, enseignant en géopolitique à ESDES Business School, ESDES – UCLy (Lyon Catholic University)

Et si, au-delà des horreurs, la guerre entre la Russie et l’Ukraine, intensifiée en 2022, n’était pas l’événement « nouveau » que l’on dépeint, mais le révélateur brutal de lois géopolitiques fondamentales que l’Occident avait choisi d’oublier ?


La guerre qui ravage actuellement l’Ukraine est un concentré de géopolitique, qui mobilise toutes les grilles d’analyse élaborées depuis plus d’un siècle, rappelant que les grands drames du monde contemporain (Bosnie, Tchétchénie, Géorgie, pour ne s’en tenir qu’au continent européen) ne sont que les itérations d’un jeu de puissance aux règles immuables.

Au-delà de l’anxiété du court terme, c’est cette approche qu’il convient d’avoir à l’esprit pour décrypter les constantes militaires, économiques, numériques et narratives qui commandent la géopolitique moderne.

L’empreinte indélébile de la géographie et de l’histoire

La guerre en Ukraine est, avant tout, une affaire de temps long. Elle réactive deux forces primaires que la modernité avait cru dissoudre : la géographie et l’histoire.

Ce conflit nous rappelle brutalement ce qu’est la guerre de haute intensité, un concept que l’on pensait relégué aux archives de la guerre froide (Corée, Vietnam, Iran-Irak…).

Le fleuve Dniepr redevient un obstacle stratégique ; le relief naturel dicte les fonctions défensives ; la mer Noire, une artère vitale pour l’évacuation du blé, est une zone de friction économique et militaire.

Les villes ne sont pas de simples coordonnées numériques, mais des bastions à conquérir, des symboles dont la perte ou la conquête influe directement sur le moral des belligérants. La technologie a beau innover (l’usage massif des drones), elle ne fait que s’adapter à la réalité implacable du sol. Cette réalité réaffirme une constante que les débats sur la guerre cyber et hybride tendaient à occulter : le terrain façonne les opérations.

Si les drones terrestres sont de plus en plus utilisés pour évacuer les soldats blessés de la ligne de front, leurs pilotes doivent prendre en compte les paramètres topographiques et météorologiques lors de ces opérations.

Le poids des récits

Le rapport de force, lui, est indissociable des récits. L’Ukraine se définit par sa souveraineté, tandis que la Russie se considère toujours comme l’héritière légitime d’un espace impérial qu’elle n’accepte pas de perdre. Ce choc de représentations historiques, où l’un refuse de perdre et l’autre d’être absorbé, est une constante tragique de la géopolitique.

Vladimir Poutine, comme tant d’autres avant lui, a commis l’erreur classique d’ignorer qu’un rapport de force ne s’évalue pas à l’aune du mépris que l’on a pour son adversaire, mais se mesure au regard des forces et faiblesses réelles. La résistance ukrainienne, soutenue mais non dirigée par ses alliés, est la preuve amère que les Russes ont sous-estimé leur adversaire de manière caricaturale.

L’incapacité d’anticiper

L’un des enseignements les plus cinglants de ce conflit tient à l’incapacité d’anticiper dont ont fait preuve les acteurs occidentaux. Malgré les signaux constants de la géopolitique, il a fallu l’événement, le choc de 2022, pour forcer un réarmement accéléré de l’Europe et une révision de ses dépendances.

En Ukraine, la guerre est un laboratoire d’innovations (drones, adaptation tactique en temps réel), mais cette innovation ne saurait cacher le retour d’une autre constante : la masse.

Malgré le numérique et la guerre électronique, le qualitatif ne remplace pas le quantitatif. Le nombre de chars, de pièces d’artillerie, et de soldats compte plus que jamais. Les modes d’action russes le confirment tragiquement : une approche où la préservation du capital humain est subordonnée à l’idée d’un capital jugé quantitativement inépuisable.

L’Occident découvre, sidéré, la primauté du stock sur la sophistication, alors que cette logique est un pilier de la stratégie militaire depuis l’aube des guerres.

La gesticulation nucléaire

L’escalade doit être évitée à tout prix, et cette retenue est dictée par la constante la plus terrifiante de la modernité : la dissuasion nucléaire.

La logique de la « destruction mutuelle assurée » est plus vivante que jamais, expliquant la frilosité relative des Américains et des Européens. La Russie use et abuse de la gesticulation nucléaire – déclarations ambiguës, annonces de nouveaux matériels – pour dissuader tout engagement occidental trop important. Cette démonstration est à la fois une force et une faiblesse, mais elle réaffirme le rôle central de l’atome comme arbitre suprême des conflits de haute intensité.

Intérêts permanents, nouvelles alliances

Si le conflit semble géographiquement circonscrit, ses effets sont mondiaux, mais surtout, ils révèlent la nature profonde et intéressée des alliances globales.

Pour Vladimir Poutine, la guerre a engendré des échecs stratégiques aux conséquences durables :

L’échec le plus cruel est de constater que le soi-disant « Sud Global » ne soutient la Russie qu’à l’aune de ses propres intérêts. Ces pays profitent des sanctions occidentales pour acheter du pétrole russe à bas coût, démontrant une forme de non-alignement formel et l’une des plus grandes constantes de la géopolitique : l’intérêt prime toujours l’idéologie.

Le temps long contre la peur

En Ukraine, la guerre mobilise à elle seule de nombreuses constantes de la géopolitique contemporaine.

C’est ce que cherche à restituer le Retour de la puissance en géopolitique. Bienvenue dans le vrai monde (L’Harmattan, 2025) au travers de ses 20 thématiques indépendantes, visant à couvrir une grande partie du spectre de la géopolitique dont les maîtres mots sont la puissance, le rapport de force et l’intérêt. Comprendre cette guerre, c’est accepter que le monde obéît à des règles anciennes et que la seule véritable surprise réside dans notre incapacité chronique à les anticiper.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Le retour de la puissance en géopolitique : le cas de l’Ukraine – https://theconversation.com/le-retour-de-la-puissance-en-geopolitique-le-cas-de-lukraine-269677

L’impôt sur la fortune improductive : une taxe en décalage avec le modèle d’intermédiation financière français

Source: The Conversation – France (in French) – By Nizar Atrissi, Professeur associé, IAE Paris – Sorbonne Business School; Université Paris 1 Panthéon-Sorbonne

Au cours du débat budgétaire, un impôt sur la fortune dite improductive a été voté le 31 octobre dernier. Mais que désigne véritablement ce terme ? Et les assiettes visées par cet impôt sont-elles vraiment aussi improductives qu’elles ne le semblent ?


Alors que la France cherche à taxer la richesse dite « improductive », elle risque d’affaiblir le moteur même qui finance son économie. Le nouvel impôt sur la fortune improductive vise à réorienter les capitaux inactifs vers l’investissement productif, mais en incluant dans son assiette les dépôts bancaires, les avoirs en liquidités et même certains produits d’assurance vie, la mesure frappe au cœur du système financier du pays : son modèle d’intermédiation financière.

L’Assemblée nationale a adopté en première lecture, le 31 octobre 2025, un nouvel impôt présenté comme un instrument de justice économique : l’impôt sur la fortune improductive. Son objectif est clair. Il s’agit de faire contribuer davantage les capitaux dits « dormants » et de réorienter l’épargne vers l’investissement productif. Mais derrière cette ambition se cache un paradoxe économique majeur. En intégrant les liquidités et dépôts bancaires dans son assiette, la réforme touche directement ce qui alimente l’économie réelle française, le mécanisme de transformation de l’épargne en crédit.

Définition contestée

Selon le texte voté, la « fortune improductive » regroupe les actifs qui ne participeraient pas directement à la création de valeur. L’impôt s’appliquerait aux biens immobiliers et aux actifs considérés comme improductifs : les biens de luxe tels que les yachts ou les jets privés, les métaux précieux et les actifs numériques, ainsi que les dépôts et les liquidités, y compris certaines assurances vie jugées « inactives ». L’hypothèse sous-jacente est que ces avoirs ne créent ni emplois ni croissance.




À lire aussi :
Luxe : la consommation des ultra-riches est-elle morale ?


Pourtant, les dépôts et autres actifs assimilés sont tout sauf inactifs. Ils représentent une source de financement vitale pour les institutions financières françaises qui les transforment en prêts aux ménages et aux entreprises. Ils constituent également la base de la stabilité financière en servant de réserves et de coussins de liquidité. Les taxer reviendrait à frapper directement au cœur du mécanisme du crédit en France. De plus, ces avoirs sont déjà soumis à l’impôt et aux prélèvements sociaux à travers les intérêts qu’ils génèrent. Les inclure dans une nouvelle assiette fiscale équivaudrait à une double imposition d’un actif déjà intrinsèquement productif.

Une clé de voûte du financement

Selon la Banque de France, les dépôts et comptes d’épargne de la clientèle non financière totalisaient environ 2 600 milliards d’euros en septembre 2025, dont 1 900 milliards détenus par les ménages. Le ratio crédits/dépôts avoisine 100 %, selon les statistiques annuelles de la Banque centrale européenne (BCE, Supervisory Banking Statistics 2024). Ce niveau traduit la forte mobilisation de l’épargne par les banques françaises, qui transforment activement les dépôts en prêts à l’économie réelle.

À la différence des économies anglo-saxonnes, davantage tournées vers les marchés, le financement de l’économie française reste profondément intermédié, où les banques jouent un rôle central dans la transformation de l’épargne en crédit. Les données de la Banque de France indiquent que le financement total des sociétés non financières atteignait 2 100 milliards d’euros en août 2025, dont près de 1 400 milliards provenant de crédits bancaires, soit environ deux tiers du financement des entreprises. Autrement dit, la croissance économique française dépend d’un système bancaire qui recycle l’épargne domestique en crédit productif.

La même logique s’applique au secteur de l’assurance vie, qui constitue un autre canal important de l’intermédiation en France. Les fonds en euros – ces produits à capital garanti et à forte liquidité propres au marché français – sont eux aussi visés par la nouvelle mesure. Ce pilier de l’épargne représente 70 % de l’assurance vie qui s’élève à près de 2 100 milliards d’euros d’encours selon les chiffres officiels de France Assureurs, l’organisation professionnelle réunissant l’ensemble des entreprises d’assurance et de réassurance travaillant en France. Près de 60 % de ces actifs sont investis dans des titres d’entreprises et du quart dans des obligations souveraines, finançant directement le secteur privé comme le secteur public.

Un effet boomerang

Ensemble, banques et assurances forment les deux piliers du modèle français d’intermédiation, transformant l’épargne des ménages en crédit et en investissement de long terme. Fragiliser cette base via la fiscalité nuirait non seulement au mécanisme d’intermédiation lui-même, mais il dégraderait aussi la capacité du pays à financer sa croissance. En effet, les sommes placées dans les actifs ciblés par cette mesure seraient susceptibles de s’orienter vers d’autres investissements peut-être plus risqués, mais moins exposés fiscalement… et éventuellement situés hors de France.

En cherchant à orienter l’épargne vers des actifs « productifs », la nouvelle loi, si elle est finalement adoptée à l’issue du processus de budget, promeut implicitement une forme de désintermédiation financière – une transformation du financement bancaire vers un financement direct et davantage fondé sur les marchés. En théorie, une telle évolution est souhaitable, car elle permettrait de diversifier les sources de capitaux, d’améliorer l’allocation de l’épargne et de favoriser l’innovation. Mais encore faut-il disposer de marchés suffisamment profonds, liquides et attractifs pour les émetteurs comme pour les investisseurs.

Or la France demeure structurellement bancarisée et son marché actions continue de se négocier avec une décote significative par rapport aux États-Unis. Comme le signalait sur BFM Michaël Fribourg, le PDG de Chargeurs : « Mon conseil à ceux qui veulent aller à la Bourse de Paris : ne le faites surtout pas ! » Cette mise en garde illustre un défi bien profond : le marché de capitaux domestique peine encore à attirer et retenir les entreprises à un moment où il aurait besoin de se renforcer.

Boursorama 2025.

La fonction économique de la liquidité

Assimiler la liquidité à de la passivité revient à méconnaître sa fonction économique. Les liquidités et les dépôts reflètent la prudence et la planification financière, non l’immobilisme. Ils soutiennent la confiance, permettent la création de crédit et jouent un rôle stabilisateur en périodes d’incertitude. Les taxer reviendrait à pénaliser des comportements d’épargne responsables et une gestion financière saine.

Plutôt que d’alourdir la charge fiscale sur ces actifs, la France devrait encourager l’épargne de long terme, celle qui alimente réellement l’investissement productif. Mais cela implique de préserver la capacité du système financier à transformer l’épargne en crédit, non de la restreindre. Dans une économie où l’intermédiation reste la colonne vertébrale du financement, taxer la liquidité équivaut à désamorcer la pompe.

L’impôt sur la fortune improductive part d’un objectif louable – mobiliser le capital au service de la croissance –, mais risque de produire l’effet inverse. Au lieu d’une fiscalité pénalisant la liquidité, la priorité devrait être d’affermir la profondeur des marchés de capitaux, de renforcer la culture financière des ménages et de favoriser les investissements à long terme. En envoyant un signal de défiance envers cette épargne, la nouvelle taxe risque de compromettre l’un des atouts structurels de la France : son système d’intermédiation financière stable.

The Conversation

Nizar Atrissi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’impôt sur la fortune improductive : une taxe en décalage avec le modèle d’intermédiation financière français – https://theconversation.com/limpot-sur-la-fortune-improductive-une-taxe-en-decalage-avec-le-modele-dintermediation-financiere-francais-270383

Quand des robots invisibles influencent nos choix et nos opinions

Source: The Conversation – France in French (2) – By Guy Théraulaz, Chercheur au CNRS au Centre de Recherches sur la Cognition Animale, Centre de Biologie Intégrative, Université de Toulouse

À chaque fois que nous cliquons sur une étoile pour évaluer un restaurant, que nous laissons un commentaire sur un site marchand ou que nous « likons » une vidéo, nous déposons une trace numérique. Individuellement, cela peut sembler insignifiant, un simple petit signe de préférence, une micro-opinion parmi tant d’autres. Mais collectivement, ces traces forment un vaste paysage social, un nuage de signaux visibles et persistants, qui influence profondément nos comportements.


Ces indices diffus, agrégés par des plateformes et amplifiés par des algorithmes, fonctionnent comme une mémoire partagée. Ils nous disent ce qui est populaire, digne de confiance ou au contraire suspect. Le phénomène est si puissant que les biologistes et les physiciens l’ont rapproché d’un mécanisme bien connu dans le monde animal : la stigmergie. Ce concept introduit à la fin des années 1950 par l’entomologiste Pierre-Paul Grassé pour expliquer la construction collective du nid chez les termites, décrit la coordination indirecte entre les individus grâce aux traces que ceux-ci laissent dans l’environnement. Chez les insectes sociaux, une boulette de terre imprégnée de phéromone de construction et déposée à un endroit attire d’autres ouvrières qui viendront ajouter la leur, entraînant la formation d’un pilier puis d’un dôme.

Dans le monde numérique, un commentaire enthousiaste, une série d’évaluations cinq étoiles ou la viralité d’un hashtag jouent un rôle similaire : ils incitent d’autres personnes à adopter un comportement convergent. Ainsi, sans qu’il y ait besoin d’un chef d’orchestre, des milliers d’actions individuelles peuvent se combiner pour produire un comportement collectif cohérent. Mais ce mécanisme fascinant comporte un revers. Car si la stigmergie favorise la coopération et l’intelligence collective, elle ouvre aussi la porte à la manipulation et à la tromperie. Que se passe-t-il lorsque certains individus, ou des programmes automatiques, déposent des traces biaisées ou mensongères ?

Les travaux que nous avons réalisés au Centre de recherches sur la cognition animale, en collaboration avec le Laboratoire de physique théorique et l’École d’économie à Toulouse nous plongent au cœur de cette question à la croisée de l’éthologie, de l’économie comportementale et de la science des systèmes complexes. Nos études expérimentales ont révélé comment, dans des environnements numériques contrôlés, les humains exploitent, détournent ou subissent l’influence de ces traces. Elles montrent, de manière saisissante, que même de simples robots logiciels, dépourvus de toute sophistication, peuvent réorienter en profondeur la dynamique de coopération d’un groupe humain.

Quand la coopération devient fragile face à la compétition

La première série d’expériences, publiée en 2023, avait pour but d’examiner dans quelles conditions la stigmergie favorise ou non la coopération entre humains. Pour cela, nous avons conçu une expérience dans laquelle des groupes de cinq participants étaient invités à explorer une même grille de 225 cases numériques, chacune contenant une valeur cachée comprise entre 0 et 99 réparties aléatoirement. Leur objectif était de trouver les cases aux plus fortes valeurs.

Un homme de dos regarde un écran où apparaît une grille avec des chiffres de 1 à 99
Image de l’interface web utilisée par les participants au cours de l’expérience.
Fourni par l’auteur

Chaque fois qu’un joueur découvrait une case, il devait lui attribuer une note sur cinq étoiles, exactement comme on le fait pour un produit en ligne. Après que tous les sujets aient ouvert et noté les cases, chacune des cases des tableaux explorés par chaque groupe initialement de couleur blanche, adoptait différentes tonalités de rouge dont l’intensité dépendait du pourcentage d’étoiles ayant été déposées dans la case par tous les sujets au cours des itérations précédentes. Ces traces de couleurs étaient visibles par tous les membres du groupe et constituaient ainsi une mémoire collective de leurs actions passées. L’expérience s’achevait au bout de vingt itérations et la somme des valeurs des cases visitées par chaque sujet au cours de toutes les itérations déterminait le score de celui-ci.

Or, deux règles de jeu différentes étaient proposées. Dans la version non compétitive, le score cumulé des joueurs au terme d’une série de dix expériences n’affectait pas le montant de leur rémunération en fin d’expérience qui était identique pour tous, chaque participant gagnant 10 euros. Dans la version compétitive, en revanche, chaque point comptait car le gain final (entre 10 euros et 20 euros) dépendait de la somme des valeurs découvertes qui déterminait le classement des joueurs. Ces derniers étaient donc mis en concurrence pour obtenir la meilleure récompense.

Les résultats ont montré que dans la condition sans compétition, les individus avaient tendance à noter les cases de manière proportionnelle à leur valeur, offrant aux autres une information fidèle et donc utile. La coopération émergeait spontanément. En exploitant les traces laissées par les uns et les autres, le groupe parvenait à identifier collectivement les meilleures cases, bien au-delà de ce qu’un individu isolé aurait pu espérer. Mais dès que la compétition entrait en jeu, tout changeait. Beaucoup de participants se mettaient à tricher subtilement, ils visitaient des cases de forte valeur mais leur attribuaient une mauvaise note, afin de ne pas attirer l’attention des autres. D’autres adoptaient des stratégies neutres, attribuant des notes aléatoires ou uniformes pour brouiller les pistes. Ainsi la mémoire collective devenait peu fiable, et la coopération s’effritait.

L’analyse fine des comportements permit d’identifier trois profils distincts : les collaborateurs, qui partagent honnêtement l’information ; les neutres, qui laissent des signaux ambigus ; et les trompeurs, qui induisent délibérément les autres en erreur. Dans un contexte compétitif, la proportion de trompeurs explose. Ce basculement montre que la coopération humaine fondée sur les traces est hautement contextuelle. Elle peut surgir naturellement lorsqu’il n’y a rien à perdre à partager, mais elle s’évapore dès que l’intérêt individuel pousse à garder pour soi ou à induire les autres en erreur. Cette ambivalence se retrouve dans de nombreux environnements en ligne, où les évaluations sincères cohabitent avec les commentaires mensongers, les faux avis ou le spam organisé.

Quand des robots sociaux s’invitent dans la partie

La deuxième étude, réalisée en 2022 et aujourd’hui en cours de publication, pousse l’expérience encore plus loin en introduisant de nouveaux acteurs : de simples bots programmés (un bot est une application logicielle automatisée qui exécute des tâches répétitives sur un réseau). Dans cette expérience nous avons repris le même dispositif de la grille à explorer et du système d’évaluation, mais cette fois-ci, chaque participant humain jouait avec quatre « partenaires » qui n’étaient pas des humains, même si les joueurs l’ignoraient. Ces partenaires étaient des bots adoptant des comportements prédéfinis. Certains collaboraient en notant fidèlement les cases, d’autres trichaient systématiquement, d’autres encore restaient neutres, et enfin un dernier type cherchait à optimiser la performance collective. L’idée était de tester si la présence de ces agents artificiels, pourtant rudimentaires pouvait influencer la stratégie des humains dans une situation compétitive.

Probabilité que les participants trouvent la cellule de valeur 99 dans la situation non concurrentielle (bleu) et la situation concurrentielle (orange). Les lignes discontinues et pointillées noires correspondent aux probabilités attendues si les participants visitaient les cellules du tableau de manière aléatoire.
Fourni par l’auteur

Les résultats furent spectaculaires. Dans les groupes où les bots se montraient coopératifs, les humains réussissaient mieux, ils découvraient davantage de cases de grande valeur et obtenaient de meilleurs scores. Mais ce climat de confiance favorisait aussi l’émergence de comportements opportunistes ; ainsi certains participants se mettaient à tricher davantage, profitant de la fiabilité des traces laissées par les bots. À l’inverse, dans les groupes saturés de bots trompeurs, les participants s’adaptaient en devenant plus coopératifs ou neutres, comme s’ils tentaient de préserver un minimum de signal exploitable dans un océan de bruit.

L’influence des bots était si forte que la seule composition du groupe (quatre bots coopératifs, ou trois trompeurs et un coopérateur, etc.) suffisait à prédire les performances globales. Plus étonnant encore, lorsqu’on comparait les performances de cinq humains jouant ensemble à celles de groupes mixtes humains-bots, les groupes intégrant certains bots conçus pour optimiser la performance collective s’en sortaient beaucoup mieux que les groupes purement humains. Dans ces situations, la présence des bots incitait les participants à adopter un profil de collaborateur alors même qu’ils étaient en compétition.

Entre intelligence collective et risques de manipulation

Ces expériences, bien qu’effectuées en laboratoire avec des grilles de nombres, résonnent fortement avec notre quotidien numérique saturé de traces et de signaux automatiques. À la lumière des conclusions, on peut s’interroger pour savoir à quel point nos choix collectifs sont déjà façonnés par des agents invisibles. Ces expériences montrent que la stigmergie, ce mécanisme de coordination indirecte, fonctionne aussi chez nous humains, et pas seulement chez les termites ou les fourmis. Elles révèlent aussi sa fragilité. La coopération née des traces est toujours menacée par la tentation de la tromperie, amplifiée par la compétition ou la présence d’agents biaisés. Dans un monde où les plateformes en ligne reposent massivement sur les systèmes d’évaluation, de notation et de recommandation, ces résultats invitent à une réflexion urgente. Car derrière chaque note et chaque commentaire peuvent se cacher non seulement des stratégies humaines égoïstes, mais aussi des bots capables de biaiser l’opinion collective.

Cependant il ne s’agit pas uniquement de dénoncer les manipulations malveillantes, des faux avis pour booster un produit, des campagnes de désinformation orchestrées par des armées de bots, mais aussi de réfléchir aux usages potentiellement prosociaux de ces mêmes agents. Comme le montrent également nos expériences, des bots bien conçus peuvent au contraire favoriser la coopération, stabiliser les dynamiques collectives et même améliorer la performance d’un groupe. Encore faut-il savoir les intégrer de façon transparente et éthique, en évitant qu’ils ne deviennent des instruments de tromperie.

Ces travaux rappellent que nous vivons désormais dans des écosystèmes hybrides, où humains et agents artificiels cohabitent et interagissent sans cesse à travers les traces numériques. Comprendre comment ces interactions façonnent notre intelligence collective est un défi majeur pour la recherche interdisciplinaire. Mais c’est aussi un enjeu citoyen, car de la manière dont nous régulerons, concevrons et utiliserons ces traces et ces bots dépendra la qualité de nos coopérations futures et peut-être même la santé de nos démocraties numériques.


Cet article a été proposé en partenariat avec le colloque « Les propagations, un nouveau paradigme pour les sciences sociales ? » (à Cerisy (Manche), qui s’est tenu du 25 juillet au 31 juillet 2025).

The Conversation

Guy Théraulaz ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quand des robots invisibles influencent nos choix et nos opinions – https://theconversation.com/quand-des-robots-invisibles-influencent-nos-choix-et-nos-opinions-266857

Mal-être au champ : pourquoi les agriculteurs sont-ils plus à risque de suicide ?

Source: The Conversation – France in French (3) – By Virginie Le Bris Fontier, enseignante chercheuse en sociologie, Université Bretagne Sud (UBS)

Les agriculteurs, en particulier les hommes de moins de 64 ans, sont beaucoup plus à risque de suicide que la population générale. Comment expliquer ce phénomène ? Les raisons sont multiples : aucune, à elle seule, n’explique tout. Les pressions économiques jouent un rôle, tout comme le manque d’accès aux soins de santé mentale et une certaine construction du métier au masculin, qui rend encore plus compliqué le fait d’appeler à l’aide.


Derrière les images bucoliques, la réalité du monde agricole reste souvent rude, et parfois tragique. En France, un agriculteur se suicide tous les deux jours. En 2016, 529 exploitants affiliés à la Mutualité sociale agricole (MSA, le régime de protection sociale des agriculteurs) ont mis fin à leurs jours, un chiffre que les spécialistes considèrent comme sous-évalué.

Pourquoi ces hommes et ces femmes, qui nourrissent la société, sont-ils et elles si vulnérables face au risque de suicide ? Les difficultés économiques jouent un rôle, mais n’expliquent pas, à elles seules, un phénomène aussi massif et durable dans le temps : en 2015, la MSA dénombrait 604 suicides parmi ses bénéficiaires, tandis Santé publique France dénombrait près de 300 suicides entre 2010 et 2011.

Dans tous les cas, les agriculteurs âgés de 15 ans à 64 ans ont environ 46 % plus de risques de se suicider que les autres catégories socioprofessionnelles, selon le rapport 2025 de la MSA. Le suicide agricole révèle donc des mécanismes sociaux profonds.

Le suicide agricole, un fait social

Depuis Émile Durkheim (1897), le suicide est compris comme un fait social. Il ne dépend pas seulement de la psychologie individuelle, mais aussi de l’intégration et de la cohésion sociale.

Autrefois concentrés dans les villes, les suicides touchent désormais le monde rural, fragilisé par les transformations du travail agricole, la solitude et l’insuffisance des formes actuelles de solidarités.

Le rapport 2026 de la MSA montre que ce sont les non-salariés agricoles (par exemple, les chefs d’exploitation) qui présentent le surrisque de suicide le plus élevé. Ce surrisque, d’environ 56,7 %, est supérieur à la fois à celui des salariés agricoles (40 %) et à celui de la population générale.

Il touche plus particulièrement les hommes entre 45 ans et 54 ans et les plus de 65 ans, avec des disparités régionales marquées. Les taux de suicide supérieurs à la moyenne nationale se concentrent particulièrement dans les territoires ruraux et semi-ruraux de la France. La MSA identifie plusieurs territoires particulièrement à risque, dont la Bretagne et plus largement l’Armorique, la Dordogne et le Lot-et-Garonne, le Poitou, la Mayenne, l’Orne et la Sarthe, le Limousin, ainsi que les Charentes.

Les facteurs de risque incluent l’âge, le sexe (les hommes étant près de trois fois plus exposés que les femmes), les maladies psychiatriques et un antécédent de tentative de suicide dans les cinq années précédant le passage à l’acte.

Le suicide agricole est donc un symptôme de souffrance d’origine sociale. Le suicide agricole doit être compris non seulement comme une souffrance individuelle, mais aussi comme un phénomène façonné par des facteurs collectifs et structurels. Les régularités observées dans l’exposition au surrisque (âge, sexe, lieu de résidence, secteur d’activité, etc.) montrent qu’il s’agit d’un fait social, dont les causes sont avant tout sociales et contextuelles.

Facteurs de risque de suicide chez les agriculteurs âgés de 15 ans à 64 ans.
Rapport charges et produits MSA 2025

Elle ne peut être soulagée uniquement par une aide psychologique. L’analyse des parcours de soins montre qu’un profil majoritaire, qui représente plus des trois quarts des suicides, correspond à des personnes ayant peu recours aux soins dans l’année précédant leur décès. Si les territoires ruraux apparaissent davantage exposés selon la grille de densité de l’Insee, les statistiques révèlent ici qu’il n’existe aucun lien direct entre l’accessibilité aux soins primaires et le suicide.

Ainsi, le surrisque observé dans les zones rurales ne semble pas lié à la densité ou à l’accès aux soins, mais renvoie plutôt à d’autres déterminants sociaux. Agir sur les conditions qui produisent la souffrance est indispensable.




À lire aussi :
Pourquoi tant de suicides chez les agriculteurs ?


Une conjonction de causes qui augmente le risque suicidaire

Réduire le suicide des agriculteurs à la crise économique serait une erreur. Crises du lait, de la vache folle ou hausse des coûts peuvent déclencher des passages à l’acte, mais ne constituent pas des causes uniques. Le sociologue Nicolas Deffontaines a montré que chaque situation combine des facteurs économiques, sociaux, symboliques et biographiques.

Chaque parcours est singulier. Certains vivent l’effondrement économique comme une perte d’identité. D’autres subissent la pression familiale ou le regard du voisinage. Les transformations du métier, la dépendance aux marchés mondiaux, la bureaucratisation et la précarisation bouleversent profondément les équilibres de vie. Le suicide agricole n’est pas conjoncturel : c’est un phénomène structurel, révélateur d’un système en mutation et d’une identité professionnelle en souffrance.

Entre 2018 et 2021, la Bretagne a expérimenté un dispositif de reconversion pour les agriculteurs en difficulté. Les témoignages des reconvertis mettent en lumière que perdre son activité, c’est perdre une expertise, un rôle social et un sens à sa vie quotidienne. La reconversion implique une recomposition identitaire difficile, comparable à un deuil : deuil d’une histoire, d’un statut, d’une vocation, parfois même d’un projet de vie. C’est une question que j’explore dans un article à paraître en décembre 2025 dans la revue Paysans et Société, 2025/6, n° 414.




À lire aussi :
Ce que la crise agricole révèle des contradictions entre objectifs socio-écologiques et compétitivité


Un métier encore souvent construit au masculin

Le monde agricole reste profondément marqué par une construction genrée du métier. L’homme producteur, fort et silencieux, symbolise le « bon agriculteur ». Courage physique, endurance et dévouement total à l’exploitation définissent ce modèle.

Il relève de la masculinité hégémonique au sens de Raewyn Connell, qui valorise force, maîtrise de soi et distance face à la souffrance. La division sexuée du travail et la transmission patrimoniale renforcent cette identité masculine.

Ces représentations influencent directement la santé mentale des agriculteurs : demander de l’aide, se reposer ou reconnaître sa détresse peuvent être perçus comme une faiblesse ou une atteinte à l’honneur professionnel. La valorisation de l’autonomie, héritée de l’indépendance paysanne, peut ainsi conduire à un déni de vulnérabilité. Les normes de genre produisent une exposition différenciée à la souffrance et au risque suicidaire. Comprendre cette dimension genrée est essentiel pour toute politique de prévention.

Le suicide agricole est donc multifactoriel et ne se comprend qu’en articulant les dimensions économiques, sociales, culturelles et genrées du métier. Il révèle moins des fragilités individuelles que les tensions d’un système professionnel et symbolique en crise.




À lire aussi :
Crise agricole : quels défis pour demain ?


Comment prévenir le mal-être agricole ?

Les politiques de prévention actuelles reposent sur plusieurs axes :

  • la sensibilisation et la formation des agriculteurs et des professionnels pour détecter la détresse ;

  • l’accès à l’aide psychologique, via des lignes d’écoute (Agri’écoute, numéro de téléphone unique à disposition es assurés MSA en grande détresse, joignable 24 heures sur 24, sept jours sur sept), des consultations et des accompagnements spécifiques ;

  • la prévention collective, avec réseaux d’entraide, groupes de parole et soutien local pour réduire l’isolement.

Le programme de Prévention du mal-être agricole (PMEA) de la MSA vise à structurer et coordonner ces actions. Il intervient dès les premiers signes de difficulté et mobilise acteurs agricoles, partenaires institutionnels et professionnels de santé.

Les « sentinelles », bénévoles ou professionnels de proximité issus du monde rural, jouent un rôle crucial dans le dispositif. Ce sont eux qui repèrent les signes de détresse, écoutent et orientent les agriculteurs vers les bonnes structures. Leur proximité avec le terrain permet d’intervenir avant la rupture. Cette approche humaine, fondée sur la solidarité et ancrée dans le territoire, constitue un pilier de la santé mentale en milieu agricole.

Mais pour que ces actions soient pleinement efficaces, il est essentiel de prendre en compte les expériences (dont les difficultés) vécues par ces sentinelles, qui ne doivent pas nécessairement être des actifs du secteur agricole. Il peut également s’agir de retraités agricoles ou d’autres acteurs ruraux non agricoles, par exemple maires et secrétaires de commune, ambulanciers, vétérinaires, etc. Il faut ainsi répondre à leur besoin de formation et de soutien. Entre 2023 et 2024, le nombre de sentinelles a augmenté de 29 %.

Une telle approche systémique, organisée autour d’un véritable écosystème de prévention du mal-être agricole (réunissant un réseau d’acteurs de proximité, de professionnels de santé, d’institutions et politiques publiques), constitue une piste majeure pour construire une stratégie de santé mentale en milieu agricole, capable de répondre aux vulnérabilités individuelles tout en agissant sur les facteurs sociaux et collectifs.




À lire aussi :
Comprendre le malaise des agriculteurs


The Conversation

Virginie Le Bris Fontier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Mal-être au champ : pourquoi les agriculteurs sont-ils plus à risque de suicide ? – https://theconversation.com/mal-etre-au-champ-pourquoi-les-agriculteurs-sont-ils-plus-a-risque-de-suicide-268935

Les ports du Havre, de Marseille et de Dunkerque face à la concurrence européenne

Source: The Conversation – in French – By Arnaud Serry, Maitre de conférences HDR en géographie, Université Le Havre Normandie

En 2024, le port du Havre (Seine-Maritime), géré par l’établissement public Haropa Port, est le septième plus grand port européen en termes de trafic total annuel en tonnes. Alexandre Prevot/Shutterstock

Une étude menée de 2018 à 2022 sur les ports du Havre, de Marseille et de Dunkerque met en lumière leur performance face aux 49 principaux ports européens. S’ils affichent des indicateurs en deçà de leurs concurrents – taux de navires obligés de passer au mouillage, durée moyenne des escales ou taux moyen de manutention –, leur progression est bien réelle.


La performance des ports est au cœur de la compétitivité économique et logistique d’un pays. Dans un contexte de chaînes d’approvisionnement mondialisées, la fluidité du passage portuaire est un facteur déterminant pour attirer les armateurs, dont une poignée contrôle la quasi-totalité des capacités de transport et les trafics conteneurisés.

Malgré des investissements et des atouts géographiques indéniables, les ports français présentent des performances en retrait par rapport à leurs grands concurrents européens.

C’est ce que montre notre étude menée de 2018 à 2022. À partir des données Automatic Identification System (AIS) et de la plateforme Port Performance de S&P Global, nous avons comparé les performances des trois principaux ports à conteneurs français – Haropa-Le Havre (Seine-Maritime), Marseille-Fos (Bouches-du-Rhône) et Dunkerque (Nord) – à celles des 49 ports européens ayant traité plus de 500 000 équivalents vingt pieds, l’unité de mesure du transport maritime, en 2022.

Croissance du Havre, de Marseille et de Dunkerque

Les trois ports français étudiés présentent des profils contrastés.

Haropa-Le Havre, premier port à conteneurs national, affiche un trafic de 3,01 millions d’équivalents vingt pieds (EVP) en 2022. Soit une croissance de 5 % par rapport à 2018. Marseille-Fos, deuxième, atteint 1,5 million d’EVP avec une croissance de 8 %. Dunkerque, longtemps tourné vers le vrac, connaît une véritable percée avec 745 000 EVP, soit une hausse de 76 % sur la période.




À lire aussi :
Contrôler les données des ports, un enjeu de guerre économique avec la Chine ?


Cette progression s’explique par le renforcement des liaisons opérées par CMA CGM, acteur majeur du pavillon français. À Dunkerque, la compagnie représente près des trois quarts des escales de porte-conteneurs. Le port nordiste accueille désormais des unités de très grande capacité de plus de 18 000 EVP, illustrant sa montée en gamme sur les lignes maritimes principales.

Peu d’engorgement pour l’accès maritime des navires

Les ports français se distinguent positivement par leur accessibilité maritime.

En 2022, en moyenne en Europe, un tiers des navires étaient obligés de passer au mouillage avant d’accoster. À Marseille, ce chiffre n’était que de 4 %. Au Havre, 24 % des navires ont attendu en rade, un chiffre en hausse mais encore proche de la moyenne régionale, et à Dunkerque ils étaient 16 %. Ce dernier se distingue également sur le temps d’attente moyen qui n’est que de 8,2 heures contre 25 heures en moyenne en Europe.

Ces chiffres traduisent une fluidité maritime et une faible congestion. C’est une force dans un contexte où de nombreux ports européens subissent régulièrement des engorgements et où l’attente signifie une perte d’argent pour les armateurs de lignes régulières conteneurisées.

Taux de navires passant au mouillage (passant au moins quinze minutes en zone d’ancrage) en 2022.
S&P Global Market Intelligence, Fourni par l’auteur

Un rythme de 35 conteneurs par heure

Le revers de la médaille apparaît à quai. La durée moyenne des escales reste plus élevée en France que dans le reste de l’Europe.

Au Havre, elle dépasse de six heures la moyenne de ses concurrents de la Manche et de mer du Nord. À Marseille et à Dunkerque, les durées se rapprochent davantage de celles observées dans leurs bassins géographiques respectifs, mais sans les dépasser.

L’un des principaux facteurs de ce retard est la productivité des opérations de manutention. En moyenne, les ports français déplacent moins de conteneurs par heure et par grue. À Marseille-Fos, la productivité atteint seulement 35 conteneurs par heure, contre plus de 55 en moyenne européenne. Cette faiblesse tient au nombre réduit d’engins de levage disponibles : 1,5 grue en moyenne par escale, contre 2,2 en Europe.

Nombre moyen de conteneurs manutentionnés par navire et par heure en 2022.
S&P Global Market Intelligence, Fourni par l’auteur

Nous pouvons noter également que les ports français occupent un rôle encore limité dans le transbordement, l’acheminement de conteneurs vers une destination intermédiaire. Au Havre (50,8 conteneurs par heure) et à Dunkerque (45,6), la situation est meilleure mais reste en deçà des ports de la Manche et de la mer du Nord, où la moyenne s’établit à 61,8.

Des taux de manutention faibles

Au-delà de la vitesse, le rapport entre le nombre de conteneurs effectivement manutentionnés et la capacité théorique des navires met en évidence une autre faiblesse structurelle. Le taux moyen de manutention s’élève à 44,4 % en Europe, mais seulement à 28 % au Havre, 30 % à Dunkerque et 33 % à Marseille. Les trois ports français possèdent des taux moyens parmi les plus bas des ports étudiés.

Autrement dit, pour le même porte-conteneurs d’une capacité de transport théorique de 20 000 EVP, au Havre, 5 600 EVP seront chargés et déchargés contre 11 000 EVP à Anvers. Cette différence illustre la place intermédiaire occupée par les ports français dans les itinéraires des grandes compagnies maritimes : leurs escales y sont plus courtes et moins chargées.

Dans le contexte actuel et dans les stratégies des grands armateurs, certaines escales sont moins importantes. En cas de réorganisation des lignes maritimes, les armateurs peuvent choisir de supprimer certains ports de leurs services et de se concentrer sur un nombre plus restreint de ports, le blank sailing.

Les services maritimes se recentrant sur un nombre d’escales plus réduit, les ports avec des taux de manutention faibles sont les plus susceptibles d’être une escale sautée. Il faut tout de même souligner que, pour les ports de Marseille et de Dunkerque, les taux de manutention sont en progression constante depuis 2018 de 7 et de 13 points de pourcentage respectivement.

Haropa en établissement unique

La compétitivité portuaire ne se réduit pas à la performance technique. Elle dépend aussi de la qualité des connexions terrestres, du fonctionnement des terminaux, du dialogue social et de la capacité à offrir des services logistiques intégrés.

Les ports français souffrent encore d’une fragmentation institutionnelle et d’une gouvernance parfois complexe, là où leurs concurrents du Nord ont su rationaliser et industrialiser leurs processus. La transformation de Haropa en établissement unique en 2021 constitue un pas dans la bonne direction, mais les effets se feront sentir sur le long terme.

Vers une stratégie nationale de reconquête ?

Malgré leurs connexions sur les lignes majeures mondiales, les ports français présentent des performances plus faibles que leurs principaux concurrents européens. Face à la domination d’Anvers, de Rotterdam ou de Hambourg, les marges de manœuvre existent. L’enjeu n’est pas de rivaliser sur la taille, mais sur l’efficacité et la fiabilité. Réduire la durée des escales, améliorer la productivité des terminaux et fluidifier les dessertes ferroviaires et fluviales sont des priorités.

Les ports français disposent d’atouts : des réserves foncières importantes, une position géographique stratégique entre Méditerranée et Manche, une accessibilité maritime globalement performante, etc. Dans le même temps, plusieurs ports européens connaissent des épisodes de congestion et la présence d’un armateur mondial, CMA CGM, ou encore l’investissement important de MSC au Havre.

Pour transformer ces atouts en avantage compétitif durable, il faudra poursuivre les efforts de modernisation et de coordination logistique. Car dans un monde où chaque heure de transit compte, la compétitivité portuaire devient un indicateur clé de la souveraineté économique.

The Conversation

Ronan Kerbiriou a reçu des financements de la fondation SEFACIL.

Arnaud Serry ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les ports du Havre, de Marseille et de Dunkerque face à la concurrence européenne – https://theconversation.com/les-ports-du-havre-de-marseille-et-de-dunkerque-face-a-la-concurrence-europeenne-269646

Les professeurs des écoles travaillent plus qu’on le croit : enquête sur les coulisses de l’enseignement

Source: The Conversation – France (in French) – By Léa Chabanel-Kahlik, Docteure en Sciences de l’éducation, spécialiste de l’organisation du travail des enseignant·es du premier degré en France, Université de Lille

Le travail des profs ne s’arrête pas au temps passé en classe face aux élèves. Une recherche menée en école primaire nous permet de mieux comprendre quelles sont ces tâches invisibles, indispensables à la réalisation de leur mission et qui pèsent sur des emplois du temps hebdomadaires de 45 heures à 48 heures.


Le temps de travail des professeurs des écoles en France fait l’objet de nombreuses représentations sociales négatives, quand il n’est pas franchement question de « profbashing ». En tête de ces croyances, se trouve celle qu’il s’agirait d’un métier aux horaires faibles et accommodants, idéal pour qui souhaite concilier vie privée et vie professionnelle (et notamment, donc, pour les femmes).

Cette sous-estimation de leur charge de travail ne manque pas de provoquer une blessure professionnelle profonde chez des profs des écoles en quête de reconnaissance. La recherche, en effet, montre que leur travail, ne se réduisant pas au temps passé face aux élèves, est en réalité complexe et sous-évalué. Elle offre un autre éclairage sur l’activité dite « de préparation », phénomène peu connu, dont on estimait jusqu’à peu qu’il était grosso modo strictement l’affaire de préparations didactiques (c’est-à-dire de préparations de séances de classe, de « leçons ») réalisées en amont de l’enseignement, et de corrections, réalisées en aval.

Plus encore, en dépit de son rôle incontournable pour l’enseignement, l’activité de préparation ne figure pas dans le cadre réglementaire du travail des professeurs des écoles. Elle n’est pas reconnue, ce qui signifie qu’elle n’est ni prescrite officiellement, ni pourvue de conditions de travail, ni rémunérée. D’ailleurs, d’un point de vue strictement juridique, elle ne relèverait pas d’un « travail » à proprement parler (qui s’inscrit nécessairement dans un lien avec le droit), mais bien d’une forme d’activité gratuite.

Mais alors qu’est-ce précisément que l’activité de préparation ? Quel rôle joue-t-elle pour l’enseignement et quelle part du travail total représente-t-elle ?

Des préparations qui ne s’arrêtent pas à la préparation de leçons

D’abord, la recherche montre que les préparations des professeurs des écoles sont aujourd’hui plus complexes qu’elles n’y paraissent, dépassant les seules préparations de « leçons ». Elles comprennent en réalité cinq ensembles, allant des préparations didactiques (D) aux préparations de planification (P), en passant par les préparations administratives (A), les préparations relatives à l’évaluation (E) ou celles relatives à la gestion des élèves (G).

De plus, ces ensembles s’interpellent les uns les autres. Par exemple, les préparations relatives à la gestion des élèves (G) sont étroitement liées à celles relatives à l’évaluation (E), elles-mêmes liées à des préparations didactiques (D) qui sont, elles, adossées à des préparations de planification (P). Les préparations administratives (A), quand bien même elles sont souvent « jugées sans valeur », y compris par le corps enseignant, trouvent en fait d’importantes ramifications avec l’intégralité des autres ensembles de préparations.

Mais cela n’est pas tout. En réalité, un sixième ensemble de préparations rend possibles les cinq premiers. Il s’agit des préparations relatives à l’organisation (O) de l’activité de préparation. En effet, en l’absence de moyens spécifiques, les professeurs des écoles s’organisent et organisent (O) leurs autres préparations (D, P, E, A, G). En clair, ils compensent l’absence de moyens octroyés à la préparation.

Concrètement, sur leur temps libre et « avec leurs propres deniers », ils font divers déplacements, des achats ou encore (ré)aménagent leur espace de travail. Et si certains niveaux (maternelle) ou certains domaines (arts, sciences) sont réputés nécessiter davantage de matériel, un ou une prof des écoles exerçant en CE2, préparant une banale séance de maths, aura aussi le plus souvent à se procurer, par exemple, une plastifieuse et des feuilles de plastification très onéreuses, parfois même, du papier.

Des préparations indispensables à l’accompagnement des élèves

Et même lorsque les préparations didactiques n’ont plus nécessairement à être créées de A à Z, comme lorsque les enseignants sont en charge d’un même niveau pendant plusieurs années consécutives, le temps consacré à la préparation ne s’écroule pas. Loin de là. Sans même parler de ces autres préparations (P, E, A, G, O) qui ne relèvent pas des préparations didactiques (D) et qui, globalement, demeurent en dépit de l’expérience, il apparaît en réalité que les préparations didactiques (D) ont elles aussi quelque chose d’irréductible.

En effet, en l’état actuel de la vision de l’éducation telle qu’elle est donnée par l’éducation nationale et par les instituts universitaires de formation, enseigner à de jeunes élèves et à de très jeunes élèves, non autonomes par définition, ne peut consister à délivrer de manière frontale des cours magistraux. L’enseignement ne suffit pas, il requiert invariablement une préparation de la part du prof des écoles, chargé d’accompagner chaque enfant vers les apprentissages, de plus en plus individuellement d’ailleurs.

Aussi, contrairement aux idées reçues, le ou la prof des écoles ne réutilise pas telles quelles ses préparations d’une année à l’autre. Au minimum, il ou elle aura à réadapter ses préparations didactiques : chaque nouvelle classe se composant en effet de nouveaux élèves qu’il faut de nouveau intéresser, « faire rentrer dans les apprentissages ».

C’est là le propre de la pédagogie du prof des écoles qui se décline simultanément tant pour le groupe que de manière différenciée, ce qui provoque une charge importante de préparations de toutes sortes à réaliser. Le moyen mnémotechnique « PEDAGO » permet d’inventorier et de mémoriser les six ensembles de préparations incontournables à la mise en œuvre de la pédagogie du prof des écoles :

  • P : préparations de planification didactique

  • E : préparations relatives à l’évaluation

  • D : préparations pédagogiques et didactiques

  • A : préparations administratives et de concertation

  • G : préparations relatives à la gestion des élèves

  • O : préparations relatives à l’organisation de l’activité de préparation

Une organisation de travail complexe

Toutes les réévaluations effectuées suggèrent que la durée de l’activité de préparation des professeurs des écoles aurait augmenté, si bien qu’elle serait aujourd’hui proche, voire supérieure, au temps imparti à l’enseignement. Concrètement, au-delà des 44 heures de travail au total par semaine rapportées par une étude, ancienne déjà, leur temps de travail total hebdomadaire aurait atteint entre 45 heures et 48 heures.

Quelques comparaisons permettent d’ailleurs de démontrer que les professeurs des écoles français, au regard d’autres catégories d’actifs français ou européens, n’ont pas à rougir du temps qu’ils passent à travailler. Et la question de la durée des vacances, elle, doit être comprise au prisme de la question des femmes et du cumul d’activités qui leur incombe à leur domicile, pour un métier où plus de 8 professeurs des écoles sur 10 sont des femmes.




À lire aussi :
Salaires des profs : un travail invisible à prendre en compte


Il faut dire que l’organisation de leur travail est inédite, elle ne ressemble à aucun autre métier. L’activité de préparation se fragmente de tôt le matin jusqu’à tard le soir, au domicile, à l’école ainsi que sur le temps d’enseignement.


Fourni par l’auteur

Le métier de professeur des écoles aujourd’hui est plus complexe qu’il n’y paraît, que ce que notre propre expérience d’écolier nous suggère et que ce que nos seuls yeux nous permettent de voir. Or, le faible intérêt que suscite l’activité de préparation, au regard de la place et du rôle qu’elle prend, questionne. Loin d’un simple « débordement du travail », elle représente une part colossale du travail total, une part non rémunérée et laissée finalement à la discrétion des enseignants.

Il y a trente-sept ans maintenant, dans un article publié dans la Revue française de pédagogie, « Le malaise des enseignants », José M. Esteve et Alice F. B. Fracchia s’exclamaient déjà :

« Peut-on améliorer les résultats de l’enseignement alors que les innovations et les efforts en ce sens doivent toujours se fonder sur le volontariat ? Peut-on demander aux enseignants de puiser éternellement dans leur temps personnel pour y participer ? »

The Conversation

J’ai exercé par le passé le métier de professeur des écoles au sein de l’Education nationale.

ref. Les professeurs des écoles travaillent plus qu’on le croit : enquête sur les coulisses de l’enseignement – https://theconversation.com/les-professeurs-des-ecoles-travaillent-plus-quon-le-croit-enquete-sur-les-coulisses-de-lenseignement-268861

La longue histoire du despotisme impérial de la Russie

Source: The Conversation – in French – By Sabine Dullin, Professeur en histoire contemporaine de la Russie et de l’Union soviétique, Sciences Po

Allégorie de la victoire de Catherine la Grande sur les Turcs et les Tatars par le peintre italien Stefano Torelli, 1772. Ce tableau est exposé à la Galerie Tretiakov à Moscou. Wikimédia Commons

Dans son nouvel essai « Réflexions sur le despotisme impérial de la Russie » qui vient de paraître aux éditions Payot, Sabine Dullin, professeure en histoire contemporaine de la Russie et de l’Union soviétique à Sciences Po, examine la formation et la persistance à travers le temps de l’identité impériale russe. Avec la précision de l’historienne, elle montre comment ce modèle s’est établi puis s’est construit dans la longue durée, a évolué selon les périodes et les natures des régimes, et continue à ce jour de peser lourdement sur la politique de la Russie contemporaine. Nous publions ici des extraits de l’introduction, où apparaît cette notion de « despotisme impérial » qui donne son titre à l’ouvrage et qui offre un angle d’analyse inédit des cinq derniers siècles de l’histoire du pays.


Un despote et une vision impériale : telle est la prison dans laquelle l’identité russe est enfermée depuis des siècles. Au pouvoir depuis vingt-cinq ans et artisan de la guerre en Ukraine, Poutine en donne hélas une confirmation éclatante.[…]

Les représentations extérieures de la Russie comme despotique et impériale ont repris de l’importance dans le débat public à la suite de l’invasion de l’Ukraine. Elles relient despotisme interne et guerre extérieure en redessinant la frontière orientale de l’Europe comme nouvelle barrière de civilisation.

L’acronyme « Rashistes », de la contraction entre « Russia » et « fascistes », né sous la plume d’un journaliste ukrainien au moment de la guerre en Géorgie en 2008, a été repris à partir de 2014 quand Poutine lança, à la suite de l’annexion de la Crimée, sa guerre non déclarée au Donbass. Son usage devint viral après l’invasion de l’Ukraine fin février 2022 et quand le président Volodymyr Zelensky l’utilisa en avril pour exprimer le retour de la barbarie fasciste en Europe, près de quatre-vingts ans plus tard.

Mais au moment des massacres de civils à Boutcha, en Ukraine, la présence dans l’armée russe d’unités non russes de Sibérie, d’ethnicité turcique ou mongole (Bouriates, Touva, Sakha), provoqua aussi dans les médias européens la réapparition d’une autre image de la Russie, plus asiatique qu’européenne.

Si l’envoi prioritaire au front des non-Russes pauvres de Sibérie ressemblait fort à de la discrimination raciste en Fédération de Russie, le descriptif d’une civilisation européenne blanche attaquée en Ukraine par les hordes barbares en provenance de Russie relevait quant à lui d’une longue histoire des stéréotypes occidentaux du despotisme oriental. Le despotisme avait notamment servi à décrire la Russie du tsar Nicolas Ier au milieu du XIXe siècle.

Dans sa comparaison entre les États-Unis et la Russie, Alexis de Tocqueville faisait alors de la servitude et de la conquête militaire les clés du gouvernement et du dynamisme des Russes. Pour lui, le peuple russe concentrait dans un seul homme toute la puissance de la société. Karl Marx, qui prit fait et cause pour les insurgés polonais en 1830 comme en 1863, dénonçait le danger que faisait peser la « sombre puissance asiatique sur l’Europe », dont l’art de la servitude, qu’il jugeait hérité des Mongols, servait une conquête sans fin.

Ainsi, soit le despotisme russe entrait dans une typologie des régimes politiques allant de la liberté et de la démocratie jusqu’à la tyrannie et l’absolutisme, soit il était essentialisé sous les traits d’un régime oriental et non européen. La grille de lecture orientaliste d’une Russie irréductiblement différente de l’Europe servit à nouveau, dans le contexte de la guerre froide, pour combattre l’adversaire communiste, son tout-État sans propriété privée et son expansionnisme rouge.

Le despotisme est une notion négative que les dirigeants russes eux-mêmes n’assumeraient pas. Elle est le plus souvent utilisée par les détracteurs du pouvoir russe. Pour vanter les mérites de leur système en regard de la démocratie occidentale, les gouvernants de la Russie ont préféré et préfèrent d’autres termes, comme absolutisme et autocratie à l’époque des tsars, dictature du prolétariat et démocratie populaire après la révolution russe, dictature de la loi ou verticale du pouvoir dans la Russie de Poutine.

Chaque terme peut se comprendre en miroir du système politique européen de l’époque. Ainsi, l’autocratie répond à la monarchie constitutionnelle, la dictature du prolétariat s’oppose à la démocratie formelle bourgeoise, la dictature de la loi remplace l’État de droit. Ce livre voudrait tester la notion de despotisme impérial, montrer à quel point les représentations du despotisme et de l’Empire se nourrirent l’une l’autre dans l’histoire russe.

Le concept est évidemment contestable et sera contesté. Mais dans son flou sémantique, il a la vertu heuristique d’étudier des usages et des récurrences. Depuis la Moscovie du XVIe siècle, il s’agira donc de comprendre comment despotisme et Empire ont pu former dans leur association un nœud coulant enserrant l’identité russe et bloquant son épanouissement, aussi bien comme nation que comme démocratie.

Dans les scénarios du pouvoir en Russie, on constate la personnalisation du pouvoir, sa dimension religieuse ou sacrée, la faiblesse des contre-pouvoirs, le service du souverain comme source principale de richesse. L’Empire, comme idée et comme pratique, relève pour l’État russe de l’ordre naturel des choses. En son sein s’est forgée une identité russe impériale englobante (rossiïski), différente de l’ethnicité russe (russki). L’Empire fut cependant l’objet de la critique acerbe des marxistes qui prirent le pouvoir en 1917. Mais l’immensité et la multinationalité, qui en étaient les traits positifs, et la Puissance qui en découlait furent – y compris en Union soviétique – valorisées, au contraire de l’impérialisme dont il fallait se dissocier.

Ni le despotisme ni l’Empire ne disparurent, malgré des idéologies contraires et les récits radicalement nouveaux d’après 1917. La figure du despote a pu prendre les traits d’un tyran sanguinaire ou d’un despote éclairé, il a pu se présenter comme le garant de l’ordre établi ou, au contraire, comme un modernisateur. Le régime despotique a été le pouvoir sans limites du tsar ou de Staline, mais aussi celui d’une bureaucratie civile et militaire pesant de tout son poids sur les multiples communautés et peuples composant l’Empire. Le despotisme impérial a provoqué violence, asservissement, mais aussi consensus et collaboration.

Ce passage est issu de Réflexions sur le despotisme impérial de la Russie, de Sabine Dullin, qui vient de paraître aux éditions Payot.

La notion de despotisme impérial offre également la possibilité de penser le pouvoir absolu et impérial en Russie en comparaison avec d’autres : l’Empire ottoman, la Chine, mais aussi les monarchies absolues, les Empires et les impérialismes occidentaux. Dans l’histoire russe, beaucoup de notions utilisées ne sont pas transposables ailleurs. Le dilemme du pouvoir russe est ainsi très souvent posé en termes d’occidentalisme (imitation de l’Occident) ou de slavophilie (recherche d’une voie spécifique). L’autocratie, lorsqu’elle conquiert des territoires, serait moins impérialiste que panslave (quand il s’agit de conquérir à l’ouest) ou eurasiste (quand il s’agit de coloniser vers l’est et le sud).

La notion de totalitarisme entendait insister sur la nouveauté des régimes communiste et fasciste issus de la Première Guerre mondiale et des révolutions qui ont suivi. « Despotisme impérial » évite de brouiller les systèmes de reconnaissance du régime politique par des caractérisations trop spécifiques dans le temps et l’espace. Utiliser la notion de despotisme impérial pour comprendre la Russie d’aujourd’hui a une valeur d’analyse critique, mais aussi de prospective. En soulignant les récurrences autocratiques de l’État russe et les ressorts d’une identité russe adossée à l’Empire, on est amené à se demander comment sortir de cette apparente fatalité du despotisme impérial en Russie.

Il ne faudrait pas se leurrer. Le jeu de miroirs est multidirectionnel. Pour critiquer la monarchie absolue française, Montesquieu analysait les régimes lointains de despotisme oriental. L’analyse du despotisme impérial de la Russie peut relever d’un exercice similaire de fausse altérité et de vigilance, comme un miroir tendu à l’Europe, lui renvoyant ce qu’elle fut : coloniale, impérialiste et fasciste, et ce qu’elle pourrait bien redevenir : antidémocratique.


Copyright : éditions Payot & Rivages, Paris, 2025.

The Conversation

Sabine Dullin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La longue histoire du despotisme impérial de la Russie – https://theconversation.com/la-longue-histoire-du-despotisme-imperial-de-la-russie-270533