La France a organisé la première Assemblée de la Terre, voici pourquoi elle est pionnière

Source: The Conversation – in French – By Caroline Regad-Riot, Enseignant-chercheur, faculté de droit de l’Université de Toulon, Aix-Marseille Université (AMU)

Logo de l’Assemblée de la Terre-France. Fourni par l’auteur

C’est une première mondiale : à Toulon (Var), en juillet 2025, a eu lieu la première Assemblée de la Terre. Mêlant société civile et scientifiques, elle a pour but de décloisonner les approches pour repenser les moyens d’atteindre les objectifs de développement durable de manière écocentrée.


Le 2 juillet 2025 a marqué une date historique pour de nouveaux équilibres entre les humains, les animaux et la nature : la France a lancé la toute première Assemblée de la Terre d’envergure nationale. Cet événement pionnier, dans le prolongement des résolutions et des rapports sur l’harmonie avec la nature de l’Organisation des Nations unies (ONU), pourra servir de modèle dans le monde entier, la France ouvrant résolument la voie.

Conçue pour refonder les objectifs de développement durable (ODD) en vue du Sommet de la Terre de 2030, l’Assemblée de la Terre – France mise sur une approche participative, alliant la conscience citoyenne et la rigueur scientifique.

Un vaste et complexe travail de fond démarre à présent, échelonné sur plusieurs années, destiné à structurer l’espoir et à dessiner l’avenir de notre planète.

Les ODD, dix ans déjà et un bilan mitigé

Adoptés en 2015 et assortis de 169 cibles, les 17 Objectifs de développement durable (ODD) s’inscrivent dans l’Agenda 2030. Porteurs d’une vision à la fois globale et universelle, ils abordent des thèmes transversaux cruciaux, de l’éradication de la pauvreté à l’accès à des emplois décents, en passant par l’innovation, les infrastructures et la lutte contre le changement climatique.

Cependant, malgré leur ambition affichée, les ODD se heurtent aujourd’hui à un bilan mitigé. La complexité de leur mise en œuvre est apparue au grand jour, révélant un caractère parfois dispersé et un manque d’efficacité opérationnelle qui freinent leur pleine réalisation.

La nature transversale des objectifs est une difficulté notable. Par exemple, l’ODD 14 sur la vie aquatique peut impliquer des mesures relatives à la lutte contre le changement climatique qui, pour sa part, relève de l’ODD 13. Cette dépendance illustre la difficulté à isoler les problématiques et, plus fondamentalement, interroge la pertinence d’approches segmentées au regard de défis interconnectés. Leur nombre et leur rédaction peuvent aussi interroger.

En conséquence, l’ensemble de ces facteurs laisse présager un échec. Selon le rapport du Sustainable Development Solutions Network, aucun des ODD ne sera atteint d’ici à 2030.

Banderole de l’Assemblée de la Terre-France.
Fourni par l’auteur

L’Assemblée de la Terre – France ouvre la voie

Dans ce contexte, des Assemblées de la Terre sont appelées à se constituer dans différents pays. Elles s’inscrivent dans le prolongement des résolutions et des rapports sur l’harmonie avec la nature de l’ONU et sont désignées, à l’international, sous l’acronyme AMAT, en écho à l’espagnol Asamblea de la MAdre Tierra.

En France, l’organisation de l’Assemblée de la Terre est le fruit d’une coordination scientifique menée par des enseignants-chercheurs de l’Université de Toulon (Var), sélectionnés pour leurs travaux et l’expérience acquise avec le programme onusien précédent Harmony with Nature (HwN) : le juriste Cédric Riot ainsi que moi-même. Nous nous joignons progressivement les compétences d’autres spécialistes.

Cette démarche est guidée par un principe fondamental : la science est au cœur de l’Assemblée de la Terre – France dont l’objectif est de « semer les graines du futur », en proposant de façonner, « un modèle pour un avenir en harmonie avec la nature ».

Une assemblée participative alliant la rigueur scientifique et la conscience citoyenne

L’Assemblée de la Terre – France : une structuration par cercles concentriques.
Fourni par l’auteur

L’Assemblée de la Terre – France se structure par cercles concentriques autour de l’organe scientifique avec :

  • des personnes qualifiées, identifiées sur des critères académiques. Ces experts apportent leur savoir scientifique pointu et leur expertise sur les thèmes des ODD en adéquation avec leurs compétences ;

  • des personnes intéressées qui œuvrent ou qui ont déjà œuvré pour une approche écocentrée : institutions publiques ou privées, associations, personnes physiques prêtes à participer à l’effort de réflexion, par exemple, par la remontée d’informations locales ;

  • des observateurs volontaires qui sont les citoyens intéressés par le sujet.

Le cadencement stratégique de la feuille de route

Un cadencement stratégique du calendrier de l’Assemblée de la Terre – France.
Fourni par l’auteur

L’Assemblée de la Terre – France abordera ses travaux autour de trois thématiques principales, chacune explorée en une année.

Le cycle débutera avec la nature (biodiversité et écosystème, climat, eau, interdépendance des formes de vie…) pour la période 2025-2026, suivie des objectifs sociétaux (éducation, villes et communautés durables, santé et bien-être…) en 2026-2027, puis des objectifs économiques en 2027-2028. Chaque année, les conclusions et les avancées seront présentées lors d’une restitution solennelle, fixée au début du mois de juillet.

En 2029, une rencontre dite « régionale » (pour la France, cela signifie au niveau européen) permettra de coordonner les ultimes efforts avant le Sommet de la Terre de 2030.

Les ateliers se dérouleront pendant l’année en distanciel. La périodicité des rencontres sera ajustée en fonction des besoins du projet. Les inscriptions restent ouvertes sur la page Internet ad hoc.

La première Assemblée de la Terre nationale

Le 2 juillet 2025, la France a ainsi franchi une étape décisive, s’affirmant comme pionnière à plusieurs égards. La rediffusion de l’événement est disponible ici.

L’Assemblée de la Terre – France est non seulement la première de ce type à voir le jour au niveau mondial, mais son architecture est également conçue pour servir de modèle aux autres Assemblées de la Terre à l’étranger : l’Allemagne, le Brésil, l’Espagne, l’Équateur, les États-Unis, le Mexique, le Pays basque notamment se sont déjà manifestés en ce sens. De futurs coordinateurs de ces pays ont d’ores et déjà félicité l’initiative pionnière française et adressé leurs lettres officielles d’intention.

Dynamiser les ODD

L’Assemblée de la Terre se distingue par son approche plurielle, qui vise à surmonter les obstacles rencontrés dans la mise en œuvre des ODD. Cette stratégie repose sur plusieurs axes.

D’abord, la pluralité des voix : l’Assemblée est conçue comme une plateforme participative, intégrant non seulement des experts, mais aussi des citoyens et des acteurs de terrain. Cette inclusion favorise l’échange d’idées et la prise en compte de perspectives diverses, créant ainsi des solutions plus robustes et largement acceptées.

Ensuite, la pluralité des disciplines convoquées à l’Assemblée de la Terre est un autre facteur déterminant. Les défis de l’anthropocène sont par nature interconnectés. L’Assemblée y répond par une approche multidisciplinaire, rassemblant des experts de différents domaines (océanographes, éthologues, juristes, philosophes, médecins, vétérinaires, etc.) pour croiser leurs connaissances et élaborer des solutions qui traitent les problèmes dans leur globalité, plutôt que de manière isolée.

En outre, l’Assemblée de la Terre appelle à la pluralité des idées et de la pratique. Elle combine la réflexion théorique et l’action concrète. Elle ne se limite pas à des discussions académiques ; elle encourage également la remontée d’informations issues du terrain. Cet échange bidirectionnel entre les savoirs experts et les réalités locales est crucial. C’est en faisant circuler les idées entre tous les acteurs que des solutions efficaces et innovantes peuvent émerger.

En conséquence, l’Assemblée de la Terre – France dynamise les ODD en brisant les silos, en favorisant le dialogue entre différents savoirs et en ancrant la réflexion dans les réalités du terrain, tout en restant guidée par le savoir scientifique.

L’horizon 2030 et le Sommet de la Terre

Dans l’infographie officielle, les ODD sont représentés sous forme de roue, symbole d’un progrès harmonieux. Celle-ci est aujourd’hui confrontée à l’urgence d’une profonde métamorphose. Loin de s’arrêter, cette roue roule toujours plus vite, non pas pour conserver sa forme initiale, mais pour se dissoudre et se muer en un nouveau symbole : le buisson de la vie.

C’est le sens de la séquence, profondément symbolique, insérée dans le teaser et d’autres documents de communication audiovisuelle de l’Assemblée de la Terre – France, où la roue du logo des ODD se détache, tourne et se transforme en buisson de la vie.

La roue des ODD se détache et se transforme en buisson de la vie.
Fourni par l’auteur

Le buisson de la vie, symbole inspirant des Assemblées de la Terre – France, incarne un profond changement de paradigme. En s’appuyant sur les découvertes de la phylogénétique, il replace l’être humain non pas au sommet d’une pyramide, mais comme partie intégrante d’une communauté du vivant où toutes les formes de vie sont intrinsèquement liées. Cette approche résolument écocentrée et planéto-centrée (Earth-centered), loin de tout anthropocentrisme, guidera les réflexions et les travaux des Assemblées de la Terre – France. Et en cela, elle est également novatrice.

Logo de l’Assemblée de la Terre – France.
Fourni par l’auteur

Comment structurer l’espoir ?

D’autres Assemblées de la Terre devraient voir le jour en s’inspirant, selon leurs besoins, du modèle français. La fondatrice du programme onusien Maria Mercedes Sanchez, lors du lancement officiel, a solennellement affirmé :

« Je veillerai personnellement à transmettre aux experts situés à l’étranger tous les documents et modèles utiles que l’Assemblée de la Terre – France a déjà forgés et qu’elle complétera au fur et à mesure. »

La suite reste donc à écrire.

Voilà la science en quelque sorte replacée au milieu du village global, avec les idées nouvelles de multidisciplinarité et de multiculturalisme que comportent les Assemblées de la Terre.

Il est temps d’ouvrir un chapitre nouveau pour un avenir plus juste et profondément écocentré, dessinant les contours d’une « Cosmopolis » où humains, animaux, nature pourraient vivre en harmonie, actant une (r) évolution du droit du vivant.

The Conversation

Caroline Regad est experte auprès du programme Harmony with Nature de l’Organisation des Nations-Unies. Elle a été désignée coordinatrice de l’Assemblée de la Terre – France.

ref. La France a organisé la première Assemblée de la Terre, voici pourquoi elle est pionnière – https://theconversation.com/la-france-a-organise-la-premiere-assemblee-de-la-terre-voici-pourquoi-elle-est-pionniere-261415

L’éducation par les pairs dans la lutte contre le VIH menacée par les réductions de l’aide publique au développement

Source: The Conversation – in French – By Marion Di Ciaccio, Chair de Professeur Junior IRD, Institut de recherche pour le développement (IRD)

L’éducation par les pairs – délivrée par des personnes issues d’une même communauté – est un pilier de la lutte contre le VIH, en particulier dans les pays à ressources limitées. Les réductions drastiques de l’aide publique au développement menées par l’administration Trump, comme par les principaux pays européens donateurs, mettent à mal cette stratégie de santé communautaire qui a pourtant fait ses preuves.


S’appuyer sur des individus au sein d’une communauté donnée pour informer et sensibiliser leurs pairs, afin de promouvoir des comportements de prévention, leur accès à une prise en charge et/ou leur maintien dans les soins, c’est le principe d’une stratégie de santé communautaire baptisée pair éducation ou éducation par les pairs.

L’éducation par les pairs est apparue dans les années 1970 dans les pays anglo-saxons, notamment dans le champ de la santé mentale et de la lutte contre les inégalités sociales de santé des minorités ethniques et raciales. Dans la lutte contre le VIH, la pair éducation est devenue une stratégie incontournable, notamment dans les pays à ressources limitées.

Volontariat, motivation, partage des vécus

La spécificité de la pair éducation est de s’appuyer sur une dynamique de relation d’égal à égal. Les pairs éducatrices ou éducateurs (PE) partagent des pratiques, des vécus, des identités et des réalités communes avec une population donnée et sont recruté·e·s sur la base du volontariat et de leur motivation pour travailler auprès d’elle.

Les PE sont formé·e·s afin de leur permettre d’acquérir de nouvelles compétences sur la gestion du VIH et sur la connaissance des systèmes de santé afin de renforcer leurs savoirs et leurs expertises.

Les PE peuvent ainsi promouvoir des pratiques et des comportements favorables à la santé physique et mentale auprès de leurs pairs, en tenant compte des réalités dans lesquelles ils et elles vivent.

Qui sont les pairs éducatrices et éducateurs dans le VIH ?

Les pairs éducatrices ou éducateurs (PE) sont le plus souvent issu·e·s des organisations communautaires de lutte contre le VIH et/ou contre les discriminations. Leur mobilisation répond au besoin de sensibiliser et d’accompagner des catégories spécifiquement vulnérabilisées de la population qui supportent le double fardeau de la stigmatisation liée au VIH et de la discrimination sociale.

Les vulnérabilités psychologiques, sociales, économiques, cliniques et de genre chez les adolescentes et adolescents infecté·e·s par le VIH ont été largement démontrées et sont souvent similaires quelle que soit l’histoire de la contamination par le VIH, périnatale ou plus récente. Les PE qui les accompagnent sont donc des jeunes (15-24 ans) vivant avec le VIH qui contribuent à la continuité d’une offre de soins et de support adaptée aux besoins spécifiques des filles et des garçons, entre les services de pédiatrie et de médecine adulte.

Les PE proviennent également de groupes considérés par l’Onusida comme les « populations clés du VIH » : les hommes ayant des rapports sexuels avec des hommes, les travailleuses et travailleurs du sexe ou encore les consommateurs de drogues injectables. En effet, ces groupes ont des besoins psychosociaux spécifiques (liés à leurs conditions de vie et aux discriminations subies) que les structures publiques de santé ne sont généralement pas en mesure de prendre en charge.

Ainsi, les PE sont principalement des personnes (à partir de 15 ans) vivant avec le VIH ou fortement exposées au risque d’infection. Parce qu’elles ou ils ont une histoire ou des pratiques communes, les PE sont les mieux placés pour accompagner ces groupes vulnérabilisés dans un parcours de prévention ou de soins.

Pourquoi la pair éducation est cruciale dans la lutte contre le VIH

La lutte contre le VIH est jalonnée depuis ses débuts par la participation inédite de mouvements communautaires pour l’accès aux traitements et à la prévention. Les personnes concernées (vivant avec) et affectées (groupes principalement concernés par le VIH) ont rapidement su imposer le concept du « Rien pour nous sans nous » dans la recherche et la lutte contre le VIH, imposant une nouvelle façon de faire de la recherche et de proposer des services de santé.

Dans ce contexte, les PE effectuent un travail de proximité qui permet :

Depuis plus de deux décennies, l’engagement de jeunes PE auprès des adolescentes et adolescents est déterminant dans la prise en charge du VIH. Ils interviennent, par exemple, pour soutenir leur observance aux traitements, pour favoriser leur rétention dans les soins et leur bien-être psychosocial, pour les accompagner après l’annonce de leur sérologie VIH, pour les soutenir dans le partage de leur sérologie avec leur entourage et lutter contre l’autostigmatisation ainsi que l’isolement, ou encore pour renforcer leurs connaissances en santé et concernant le VIH en particulier.

Une revue systématique de la littérature scientifique publiée, ainsi qu’une méta-analyse de toutes les études identifiées dans cette revue, montre que la pair éducation a également des bénéfices directs sur la prévention du VIH auprès des populations clés, et notamment sur le recours au dépistage du VIH, l’utilisation du préservatif, la diminution du partage du matériel de consommation de drogues et la diminution des rapports sexuels non protégés.

Les PE apportent aussi une plus-value importante aux programmes de PrEP (prophylaxie préexposition de l’infection VIH, un traitement préventif oral contre l’infection au VIH). En effet, il a été démontré au sein d’une cohorte en Afrique de l’Ouest que les hommes ayant des relations sexuelles avec des hommes qui étaient en contact avec des PE prenaient mieux la PrEP que les autres.




À lire aussi :
Médicaments antirétroviraux injectables contre le VIH : une évaluation impossible en Afrique de l’Ouest ?


Une étude qualitative menée au Mali montre également que les PE jouent un rôle crucial pour le maintien dans les soins des personnes vivant avec le VIH grâce, à la fois, au soutien psychosocial qu’ils leur apportent mais également grâce à leur soutien dans l’accès aux traitements.

La pair éducation est donc cruciale non seulement au niveau individuel pour améliorer la santé et la qualité de vie des groupes clés et vulnérabilisés, mais également au niveau global pour contrôler l’épidémie de VIH.

Dans le cadre de projets de recherche, les PE sont également des acteurs clés qui, en collaborant avec les équipes de recherche, permettent d’identifier des problématiques émergentes dans leurs communautés, de faciliter le contact avec des populations plus difficiles d’accès, d’adapter les méthodologies et les pratiques de recherches à leurs réalités, ainsi qu’à mieux interpréter les données issues des projets.

Quel impact de la réduction de l’aide publique au développement ?

L’expertise et la contribution précieuse à la lutte contre le VIH des PE n’est bien souvent reconnue et valorisée qu’à travers des financements issus de l’aide au développement, de programmes de mises en œuvre de prestations de santé communautaire innovantes, ou encore de projets de recherche communautaire et interventionnelle. Cette configuration précarise encore davantage leur position et la pérennité des services qu’ils apportent aux personnes qu’ils accompagnent, pourtant avec succès.

Depuis début 2025, le financement de l’aide publique au développement connaît de nombreux bouleversements. L’événement le plus notable est l’arrêt et/ou la réduction brutale des financements américains (par l’intermédiaire des programmes PEPFAR et USAID, notamment). L’aide publique au développement européen connaît également de fortes diminutions. En effet, les principaux pays donateurs (la France, l’Allemagne, le Royaume-Uni et les Pays-Bas) annoncent des baisses conséquentes des budgets alloués.

Ces diminutions drastiques des financements peuvent remettre en question les progrès de la lutte contre le VIH dans les pays des Suds avec un risque accru de recrudescence de l’épidémie et d’augmentation des inégalités sociales d’accès aux soins.

Les financements américains représentent une part considérable des ressources dédiées à la prévention, au dépistage, à l’accès aux traitements antirétroviraux et au renforcement des systèmes de santé locaux pouvant aller jusqu’à 60 % des financements de la lutte contre le VIH dans certains pays comme la Côte d’Ivoire (figure ci-dessous), le Cameroun ou encore le Burundi.

Exemple de la Côte d’Ivoire

Graphique représentant les principales sources de financement de la lutte contre le VIH en Côte d’Ivoire

PEPFAR pour « President’s Emergency Plan for AIDS Relief » correspond au plan d’aide des États-Unis consacré à la lutte contre le VIH à l’international/Source des données présentées dans le graphique : Data Et cetera & Coalition PLUS, Fourni par l’auteur

Dans ces pays, les données collectées montrent que ce sont les programmes de prévention à destination des populations clés qui sont les plus touchés par les coupes budgétaires, incluant le financement des postes des PE (actuellement, uniquement dans le réseau d’organisations communautaires de Coalition PLUS – un réseau international d’associations engagées dans la lutte contre le VIH sida –, plus de 1 000 PE ne sont plus financés).

Le gel des financements a déjà eu des conséquences irréversibles sur la lutte contre le VIH. Les estimations montrent que la réduction de ces aides internationales pourrait entraîner de 4,43 millions à 10,75 millions de nouvelles infections par le VIH et de 0,77 millions à 2,93 millions de décès liés au VIH entre 2025 et 2030 dans les pays bénéficiaires de ces aides.

The Conversation

Marion Di Ciaccio est une ancienne salariée du pôle recherche communautaire de Coalition PLUS, une union internationale d’organisations communautaires de lutte contre le VIH.

Cécile Cames et Mathilde Perray ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. L’éducation par les pairs dans la lutte contre le VIH menacée par les réductions de l’aide publique au développement – https://theconversation.com/leducation-par-les-pairs-dans-la-lutte-contre-le-vih-menacee-par-les-reductions-de-laide-publique-au-developpement-264528

Du régime de Vichy à Marx… l’étonnant parcours de l’économiste Henri Denis

Source: The Conversation – in French – By Damien Bazin, Maître de Conférences HDR en Sciences Economiques, Université Côte d’Azur

Henri Denis souhaite une nouvelle organisation de l’économie, centrée sur la communauté de travail, sur l’artisanat, induisant la suspension du jeu capitaliste et des luttes de classes. Wikimediacommons

Des années 1960 aux années 1980, les étudiants en économie ont dans leur main le manuel de l’Histoire de la pensée économique, d’Henri Denis (1913-2011). Tour à tour corporatiste, proche de Vichy, progressiste chrétien, communiste, ce dernier termine ses jours en reniant le communisme et en revenant au corporatisme. Un universitaire brillant et une girouette idéologique épousant la doctrine du moment.


Du début des années 1960 aux années 1980, l’histoire de la pensée économique a pour figure centrale le professeur Henri Denis (1913-2011). Il enseigne à l’Université de Paris I Panthéon-Sorbonne, en étant l’auteur d’un manuel d’Histoire de la pensée économique.

De la première édition de 1966 à nos jours, ce manuel connaît plusieurs éditions successives et est traduit en huit langues. « Le Denis » est entre les mains des étudiants durant toutes ces années. Le cours délivré par Henri Denis forme plusieurs générations d’apprentis en sciences économiques.

Une large partie du manuel et du cours d’Henri Denis est consacrée à l’économie de Karl Marx. Bien que ce professeur d’université se réclame de l’auteur du Capital, il ne fut pas toujours un marxiste, à en juger par sa trajectoire proche de Vichy durant la Seconde Guerre mondiale. Durant cette période, il symbolise l’engagement doctrinal d’économistes dans le mouvement corporatiste, selon lequel les représentants des salariés identifient leur intérêt (de corporation) à l’intérêt général.

Alors, peut-on séparer l’homme de connaissance (théoricien) de l’homme individuel (politisé) ?

Disciple d’un vichyste

Lorsque l’on aborde la question du positionnement politique des économistes français lors de la Seconde Guerre mondiale, une figure emblématique surgit, celle de François Perroux, qui adhéra au régime de Vichy. Celle de son disciple et collègue Henri Denis est beaucoup moins connue en ce domaine.

Celui qui allait conquérir une notoriété universitaire en tant qu’historien de la pensée économique a épousé la doctrine corporatiste. Il partage les valeurs politiques de celui qui est l’un des membres de son jury de thèse, thèse soutenue le 7 mars 1938 à la Faculté de droit de Paris, « Les récentes théories monétaires en France. Idée quantitative et conflit des méthodes ».

Pour resituer le contexte, rappelons que l’entre-deux-guerres, avec en particulier le choc de la Grande Dépression (années 1930), est propice pour certains économistes à une réflexion autour d’un ordre économique nouveau, condensant un refus du libéralisme et du communisme. En économie, comme dans le reste des sciences sociales, ces visions du monde s’affrontent.

Corporatisme catholique

Portrait d’Henri Denis (1913-2011), économiste sulfureux français.
FAL

En France, la doctrine corporatiste réunit autour d’elle plusieurs économistes, dont Gaëtan Pirou (lui aussi figurant dans le jury de thèse d’Henri Denis en 1938), François Perroux et le jeune Henri Denis. Celui-ci est issu d’une famille bretonne très catholique. Il est séduit par cette pensée qui, malgré sa diversité, entend défendre les valeurs de l’Occident et celles de la chrétienté.

Henri Denis obtient son doctorat et décroche l’agrégation de sciences économiques en 1942. Un an auparavant, en 1941, il publie La corporation dans la célèbre collection « Que sais-je ? » Ouvrage dans lequel il rend un hommage appuyé à François Perroux, et aussi à Gaëtan Pirou, dont il s’inspire pour comparer les différents courants corporatistes en Europe, du Portugal salazariste à l’Italie fasciste en passant par l’Allemagne nazie.

Dans cet ouvrage, il expose la véritable finalité du corporatisme : construire un nouvel ordre social et une nouvelle organisation de l’économie, centrés sur le corporatisme, sur la communauté de travail, sur l’artisanat, induisant la suspension du jeu capitaliste et des luttes de classes. Un an plus tard, Henri Denis va jusqu’à prétendre que le socialisme est la ruine de la civilisation.

Travaux financés par Vichy

Cette adhésion d’Henri Denis aux principes du corporatisme le conduit à rejoindre la Fondation française pour l’étude des problèmes humains créée en 1941, mieux connue sous l’appellation de Fondation Alexis-Carrel (du nom du Prix Nobel de médecine Alexis Carrel, qui prôna l’eugénisme). Son budget est alloué par le secrétariat d’État à la famille et à la santé du régime de Vichy.

Cette fondation est constituée de six départements, dont celui de « bio-sociologie », dirigé par François Perroux, qui fit appel à Henri Denis en 1942 pour traiter des théories économiques. Les conflits de personnes au sein même de la Fondation conduisent Perroux et Denis à s’éloigner d’Alexis Carrel. Mais c’est surtout la fin de la guerre, occasionnant un démantèlement progressif des institutions de Vichy, qui oblige les économistes à songer à leur reconversion.

Henri Denis, comme beaucoup d’autres, entreprend, dès le lendemain du conflit, une reconversion idéologique saisissante, inattendue même.

Du corporatisme au communisme

Afin d’effacer les années d’engagement dans le corporatisme et les fonctions accomplies dans les institutions du gouvernement de Vichy, l’heure est aux reconversions. Pour les universitaires, se soustraire à ce risque, c’est entreprendre une révolution idéologique, comme celle qui va caractériser Henri Denis.

On sait qu’après la guerre, le communisme s’impose, tant par le rôle joué par l’URSS dans l’issue de la guerre, que, dans le cas français, l’affirmation politique du Parti communiste français (PCF). Après un passage par l’Union des chrétiens progressistes (UCP), Henri Denis rejoint le PCF en 1953 – il quitte le PCF huit ans plus tard, c’est-à-dire au moment où il est nommé professeur à Paris.

Il dirige le quotidien Ouest Matin, une émanation des fédérations du PCF de Bretagne, « un grand quotidien régional d’information et de défense républicaine ». Il intègre le comité de rédaction de la revue marxiste Économie et politique, où il développe une critique des approches catholiques du marxisme.

En 1950, Henri Denis publie la Valeur. Dans cet ouvrage, il critique explicitement l’économie bourgeoise et cherche à démontrer la pertinence scientifique du marxisme en économie.

Enseignant communiste


FAL

Professeur agrégé d’économie à l’Université de Rennes (Ille-et-Vilaine), Henri Denis est muté au début des années 1960 à ce qui est encore la Faculté de droit de Paris. Dans le cadre de son cours d’histoire de la pensée économique, Henri Denis publie en 1966 la première édition de son célèbre manuel Histoire de la pensée économique.

Comparativement aux manuels antérieurs (ceux de Charles Gide et Charles Rist, d’André Piettre ou d’Émile James, par exemple), la place de Marx et du marxisme dans le manuel de Denis est imposante : un bon tiers du manuel, soit plus de 200 pages. Elle témoigne de son engagement doctrinal et de sa connaissance de l’œuvre de Marx et des auteurs se réclamant de lui.

Nombreux sont les témoignages d’anciens étudiants devenus pour certains d’entre eux des professeurs d’économie qui indiquent que le manuel d’Henri Denis a contribué de manière décisive à l’implantation du marxisme dans les universités. La réception et la diffusion de l’Histoire de la pensée économique, d’Henri Denis, suscitent de nombreuses controverses. Elles opposent les professeurs plutôt conservateurs qui ont vu dans ce livre et dans le cours professé par Denis, une façon de corrompre la jeunesse française, tandis que d’autres y décèlent un renouveau de la pensée marxiste en France.

Discrédite le marxisme

Les années 1970 sont celles de la montée en puissance de la problématique des droits humains du totalitarisme, et du goulag en Union soviétique. L’étoile du marxisme commence à pâlir, et le discrédit jeté sur Marx et sur son œuvre s’affirme. Les signes annonciateurs du libéralisme se distinguent dans la science économique, et dans les mouvements politiques.




À lire aussi :
Heinrich von Stackelberg : on ne peut séparer l’économiste du nazi


Henri Denis, qui, durant plus de vingt ans, met en avant la scientificité de l’œuvre de Marx, participe à son discrédit. Il publie, en 1980, l’Économie de Marx. Histoire d’un échec. Le terme « échec » apparaissant lourd de sens à une époque où l’idée de socialisme n’a plus cours, et est associée à la dictature.

Fidèle à une conception corporatiste de l’organisation de la société, Henri Denis revient plus de quarante ans après, sur cette doctrine dans l’un de ses derniers ouvrages, publiés en 1984, Logique hégélienne et systèmes économiques. Il indique qu’il s’agit d’une solution aux maux engendrés par le libéralisme (injustices et désordres) et à la tyrannie inhérente à la planification.

Girouette économique

En se penchant sur cette figure légendaire de la pensée économique en France, l’ambition était de montrer qu’Henri Denis, dans le champ même de la science économique, avait, comme d’autres, incorporé certaines règles du jeu social qui l’ont conduit à se situer en quelque sorte sur les sommets de la pensée économique. D’abord, en affirmant sa croyance en la doctrine du moment, le corporatisme, puis, en raison de la défaite de cette doctrine, en épousant la cause du marxisme, avant d’y renoncer.

Ce faisant, il s’agit de créer une anamnèse des origines d’un professeur, et de pratiquer une historicisation d’un parcours universitaire, en se libérant d’une forme d’illusion de l’autonomie de la sphère des idées. Les discours et les actions qui se constituent dans un champ, celui de l’économie en l’occurrence, sont sociologiquement déterminés par les conditions sociales de ceux qui en sont les dépositaires. Dit autrement, l’homme de connaissance ne peut être dissocié de l’homme individuel.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Du régime de Vichy à Marx… l’étonnant parcours de l’économiste Henri Denis – https://theconversation.com/du-regime-de-vichy-a-marx-letonnant-parcours-de-leconomiste-henri-denis-257406

Comment Grok, le chatbot de Musk, est devenu nazi

Source: The Conversation – in French – By Aaron J. Snoswell, Senior Research Fellow in AI Accountability, Queensland University of Technology

En juillet 2025, Grok, le chatbot d’Elon Musk sur X, s’est qualifié d’«Hitler mécanique » et a tenu des propos pronazis. Mijansk786

Les propos problématiques de Grok, l’intelligence artificielle du réseau social X, illustrent l’influence des idées de son créateur, Elon Musk, sur sa conception. Mais ils posent également la question des biais plus discrets que ses concurrents masquent derrière un vernis d’impartialité, incompatible avec le processus d’entraînement de ce type d’IA.


Grok, l’agent conversationnel – ou chatbot – intégré au réseau social X et fondé sur l’intelligence artificielle développée par la société xAI d’Elon Musk, a fait la une des journaux en juillet 2025 après s’être qualifié de « Mecha-Hitler » (« Hitler mécanique ») et avoir tenu des propos pronazis en réponse à des demandes d’utilisateurs.




À lire aussi :
Grok, l’IA de Musk, est-elle au service du techno-fascisme ?


Les développeurs ont présenté leurs excuses pour ces « publications inappropriées » et ont pris des mesures pour empêcher, à l’avenir, Grok de tenir des propos haineux dans ses publications sur X. Cet incident aura cependant été suffisant pour relancer les débats sur les biais des intelligences artificielles (IA) dans les réponses données aux demandes des utilisateurs.

À la suite des propos pronazis tenus sur X par Grok, ses développeurs ont publié un message d’excuse le 9 juillet _via_ le compte officiel du chatbot : « Nous avons pris connaissance des publications récentes de Grok et nous nous employons activement à supprimer celles qui sont inappropriées », affirmaient-ils.

Mais cette dernière controverse n’est pas tant révélatrice de la propension de Grok à tenir des propos extrémistes que d’un manque de transparence fondamental dans le développement de l’IA sur laquelle est basé ce chatbot. Musk prétendait en effet bâtir une IA « cherchant la vérité », hors de tout parti pris. La mise en œuvre technique de ce programme révèle pourtant une programmation idéologique systémique Grok.

Il s’agit là d’une véritable étude de cas accidentelle sur la manière dont les systèmes d’intelligence artificielle intègrent les valeurs de leurs créateurs : les prises de position sans filtre de Musk rendent en effet visible ce que d’autres entreprises ont tendance à occulter.

Grok, c’est quoi ?

Grok est un chatbot doté d’ « une touche d’humour et d’un zeste de rébellion », selon ses créateurs. Il est basé sur une intelligence artificielle développée par xAI, qui détient également la plate-forme de réseau social X.

La première version de Grok a été lancée en 2023. Des études indépendantes suggèrent que son dernier modèle en date, Grok 4, surpasserait les concurrents dans différents tests d’« intelligence ». Le chatbot est disponible indépendamment, mais aussi directement sur X.

xAI affirme que « les connaissances de (cette) IA doivent être exhaustives et aussi étendues que possible ». De son côté, Musk a présenté Grok comme une alternative sérieuse aux chatbots leaders du marché, comme ChatGPT d’OpenAI, accusé d’être « woke » par des figures publiques de droite, notamment anglo-saxonnes.

En amont du dernier scandale en date lié à ses prises de position pronazi, Grok avait déjà fait la une des journaux pour avoir proféré des menaces de violence sexuelle, pour avoir affirmé qu’un « génocide blanc » avait lieu en Afrique du Sud, ou encore pour ses propos insultants à l’égard de plusieurs chefs d’État. Cette dernière frasque a conduit à son interdiction en Turquie, après des injures contre le président de ce pays, Recep Tayyip Erdoğan, et le fondateur de la République, Mustafa Kemal Atatürk.

Mais comment les développeurs peuvent-ils générer de telles valeurs chez une IA, et façonner un chatbot au comportement aussi problématique ? À l’heure actuelle, ceux-ci sont construits sur la base de grands modèles de langage (Large Language Models en anglais, ou LLM) qui offrent plusieurs leviers sur lesquels les développeurs peuvent s’appuyer pour influer sur l’attitude future de leur création.

Derrière le comportement des IA, différentes étapes

Le préentraînement

Pour commencer, les développeurs sélectionnent les données utilisées pendant cette première étape de la création d’un chatbot. Cela implique non seulement de filtrer les contenus indésirables parmi les données d’entraînement, mais aussi de mettre en avant les informations souhaitées.

GPT-3 a ainsi été alimenté par des données dans lesquelles Wikipédia était jusqu’à six fois plus représentée que d’autres ensembles de données, car OpenAI considérait l’encyclopédie en ligne comme de meilleure qualité par rapport au reste. Grok, quant à lui, est entraîné à partir de diverses sources, notamment des publications provenant de X. Cela pourrait expliquer que le chatbot ait été épinglé pour avoir vérifié l’opinion d’Elon Musk sur des sujets controversés avant de répondre.

Dans cette capture réalisée par le chercheur Simon Willison, on peut voir le processus de réflexion détaillé de Grok face à une demande portant sur un sujet controversé (ici, une demande de soutien à Israël ou à la Palestine) : le chatbot consulte les publications d’Elon Musk sur le sujet avant de fournir une réponse.

Musk a précédemment indiqué que xAI effectue un tri dans les données d’entraînement de Grok, par exemple pour améliorer ses connaissances juridiques et pour supprimer le contenu généré par d’autres LLM à des fins d’augmentation de la qualité des réponses. Le milliardaire a également lancé un appel à la communauté d’utilisateurs de X pour trouver des problèmes complexes et des faits « politiquement incorrects, mais néanmoins vrais » à soumettre à son chatbot. Rien ne permet de savoir si ces données ont bien été utilisées ni quelles mesures de contrôle qualité ont été appliquées sur celles-ci.

Dans cette publication du 21 juin 2025, Elon Musk invite les utilisateurs à répondre avec « des faits clivants pour l’entraînement de Grok ». Par cela, il entend « des choses politiquement incorrectes, mais cependant vraies sur le plan factuel ».

Le réglage de précision

La deuxième étape, le réglage de précision – plus connu sous le nom anglais de fine-tuning – consiste à ajuster le comportement du LLM à l’aide de retours sur ses réponses. Les développeurs créent des cahiers des charges détaillés décrivant leurs positions éthiques de prédilection, que des évaluateurs humains ou des IA secondaires utilisent ensuite comme grille d’évaluation pour évaluer et améliorer les réponses du chatbot, ancrant ainsi efficacement ces valeurs dans la machine.

Une enquête de Business Insider a mis en lumière que les instructions données par xAI à ses « tuteurs pour IA » humains leur demandaient de traquer l’« idéologie woke » et la « cancel culture » dans les réponses du chatbot. Si des documents internes à l’entreprise indiquaient que Grok ne devait pas « imposer une opinion qui confirme ou infirme les préjugés d’un utilisateur », ils précisaient également que le chatbot devait éviter les réponses donnant raison aux deux parties d’un débat, lorsqu’une réponse plus tranchée était possible.

Les instructions système

Les instructions système – c’est-à-dire les consignes fournies au chatbot avant chaque conversation avec un utilisateur – guident le comportement du modèle une fois déployé.

Il faut reconnaître que xAI publie les instructions système de Grok. Certaines d’entre elles, comme celle invitant le chatbot à « supposer que les points de vue subjectifs provenant des médias sont biaisés », ou celle le poussant à « ne pas hésiter à faire des déclarations politiquement incorrectes, à condition qu’elles soient bien étayées », ont probablement été des facteurs clés dans la dernière controverse.

Ces instructions sont toujours mises à jour à l’heure actuelle, et leur évolution, qu’il est possible de suivre en direct, constitue en soi une étude de cas fascinante.

La mise en place de « garde-fous »

Les développeurs peuvent enfin ajouter des « garde-fous », c’est-à-dire des filtres qui bloquent certaines requêtes ou réponses. OpenAI affirme ainsi ne pas autoriser ChatGPT « à générer du contenu haineux, harcelant, violent ou réservé aux adultes ». Le modèle chinois DeepSeek censure de son côté les discussions sur la répression contre les manifestations de la place Tian’anmen de 1989.

Des tests effectués lors de la rédaction de cet article suggèrent que Grok est beaucoup moins restrictif dans les requêtes qu’il accepte et dans les réponses apportées que les modèles concurrents.

Le paradoxe de la transparence

La controverse autour des messages pronazis de Grok met en lumière une question éthique plus profonde. Est-il préférable que les entreprises spécialisées dans l’IA affichent ouvertement leurs convictions idéologiques et fassent preuve de transparence à ce sujet, ou qu’elles maintiennent une neutralité illusoire, tout en intégrant secrètement leurs valeurs dans leurs créations ?

Tous les grands systèmes d’IA reflètent en effet la vision du monde de leurs créateurs, des prudentes positions corporatistes de Microsoft Copilot à l’attachement à la sécurité des échanges et des utilisateurs détectable chez Claude d’Anthropic. La différence réside dans la transparence de ces entreprises.

Les déclarations publiques de Musk permettent de relier facilement les comportements de Grok aux convictions affichées du milliardaire sur « l’idéologie woke » et les biais médiatiques. À l’inverse, lorsque d’autres chatbots se trompent de manière spectaculaire, il nous est impossible de savoir si cela reflète les opinions des créateurs de l’IA, l’aversion au risque de l’entreprise face à une question jugée tendancieuse, une volonté de suivre des règles en vigueur, ou s’il s’agit d’un simple accident.

Le scandale lié à Grok fait écho à des précédents familiers. L’IA de X ressemble en effet au chatbot Tay de Microsoft, qui tenait des propos haineux et racistes en 2016. Il avait également été formé à partir des données de Twitter, le prédécesseur de X, et déployé sur ce réseau social, avant d’être rapidement mis hors-ligne.

Il existe cependant une différence cruciale entre Grok et Tay. Le racisme de cette dernière résultait de la manipulation menée par des utilisateurs et de la faiblesse des mesures de sécurité en place : il résultait de circonstances involontaires. Le comportement de Grok, quant à lui, semble provenir au moins en partie de la manière dont il a été conçu.

La véritable leçon à tirer du cas Grok tient à la transparence dans le développement des IA. À mesure que ces systèmes deviennent plus puissants et plus répandus – la prise en charge de Grok dans les véhicules Tesla vient ainsi d’être annoncée –, la question n’est plus de savoir si l’IA reflétera les valeurs humaines de manière générale. Il s’agit plutôt d’établir si les entreprises créatrices feront preuve de transparence quant aux valeurs personnelles qu’elles encodent, et quant aux raisons pour lesquelles elles ont choisi de doter leurs modèles de ces valeurs.

Face à ses concurrents, l’approche de Musk est à la fois plus honnête (nous voyons son influence) et plus trompeuse (il prétend à l’objectivité tout en programmant son chatbot avec subjectivité).

Dans un secteur fondé sur le mythe de la neutralité des algorithmes, Grok révèle une réalité immuable. Il n’existe pas d’IA impartiale, seulement des IA dont les biais nous apparaissent avec plus ou moins de clarté.

The Conversation

Aaron J. Snoswell a reçu des financements de recherche de la part d’OpenAI en 2024-2025 pour développer de nouveaux cadres d’évaluation permettant de mesurer la compétence morale des agents conversationnels basés sur l’IA.

ref. Comment Grok, le chatbot de Musk, est devenu nazi – https://theconversation.com/comment-grok-le-chatbot-de-musk-est-devenu-nazi-261738

Comment la philosophie d’Hartmut Rosa « résonne » avec les sports de glisse

Source: The Conversation – in French – By Jérôme Visioli, Maître de Conférences STAPS, Université de Bretagne occidentale

Zachary DeBottis/Pexels, CC BY

Le sociologue et philosophe allemand Hartmut Rosa a développé une sociologie de la relation au monde qui distingue deux expériences fondamentales. D’un côté, l’« aliénation », lorsque l’individu se sent indifférent ou agressé par son environnement. De l’autre, la « résonance », expérience d’harmonie que les sportifs, entre autres, tendent à rechercher à travers leurs pratiques.


Selon Hartmut Rosa, la « résonance » repose sur quatre dimensions : être touché par le monde, entrer en relation avec lui sans chercher à le dominer, le transformer tout en acceptant d’être transformé et accueillir l’imprévisibilité de cette interaction. L’auteur souligne également que la recherche de l’expérience de résonance par les sportifs constitue l’un des principaux motifs de leur engagement durable dans la pratique, avec des enjeux importants en termes de bien-être.

Si les études empiriques visant à documenter les expériences de résonance et d’aliénation restent rares, on note actuellement un développement des recherches en sciences du sport autour de différentes pratiques (course, apnée, yoga, parkour, etc.). Cela s’illustre, par exemple, dans le numéro de la revue Sport, Ethics and Philosophy intitulé « Hartmut Rosa as a sport philosopher », que nous coordonnons avec Matthieu Quidu, Brice Favier-Ambrosini et Bernard Andrieu, à paraître en 2026.

À ce titre, les sports de glisse constituent un terrain particulièrement fécond, car ils mobilisent simultanément un rapport sensible à l’environnement naturel ou urbain, des interactions sociales marquées par la coopération et la reconnaissance entre pairs, une relation intime à la matérialité de l’équipement, un fort engagement corporel, mental et émotionnel (équilibre, risque, maîtrise technique), un rapport au temps singulier où alternent attente, répétition et fulgurance des instants de réussite.

Pour illustrer plus concrètement cet aspect, nous proposons de rendre compte d’une étude auprès de skateurs, menée avec Oriane Petiot, Pauline Prouff et Gilles Kermarrec, à paraître en 2026. L’objectif était de documenter résonance et aliénation à travers la documentation de récits d’expérience particulièrement marquants, correspondant à des incidents critiques. L’étude a été menée auprès de 50 skateurs âgés de 10 à 47 ans, dont 9 femmes et 41 hommes.

L’expérience de résonance en skateboard

L’expérience de résonance, c’est ce moment où une personne sent que « quelque chose vibre » entre elle et le monde. Dans le cadre de la pratique du skate, elle se divise en deux grandes catégories : la relation à la planche (74,2 %) et la relation à l’environnement (25,8 %).

La première regroupe la réussite dans une figure (47 %) et le dépassement de la peur (27,3 %). Dans le premier cas, la résonance est vécue comme une expérience d’harmonie entre corps, esprit et skateboard :

« Une session de skate où ma confiance en moi était totale. Je me sentais aligné avec toutes les planètes, presque dans un état de grâce. […] J’avais l’impression de me voir skater de l’extérieur et que mes capacités cognitives étaient amplifiées. »

Dans le second, elle naît du surpassement de soi face aux échecs et à la prise de risque :

« Après des tentatives ratées et beaucoup de peur, le trick passe enfin : un immense soulagement, une fierté et un bonheur intenses. »

Ces récits montrent que l’expérience de résonance émerge autant en lien avec la maîtrise de la planche que dans le dépassement de l’insatisfaction.

La deuxième catégorie (25,8 %) met en évidence la qualité de la relation au monde, structurée autour de deux sous-catégories : les moments avec les pairs (N = 15 ; 22,7 %) et les déplacements et découvertes de spots (N = 2 ; 3,0 %). Des moments d’émotions partagées illustrent une résonance collective, nourrie aussi par des projets communs où

« tout le monde vit le trick avec toi et t’encourage à le réussir ! […] Une joie folle, une immense satisfaction de partager un tel moment avec autant d’amis ».

Les voyages et découvertes de spots offrent également des expériences mémorables :

« Partir une semaine avec neuf potes… joie intense, liberté totale, euphorie, ivresse. »

Ces récits d’expérience soulignent l’importance du partage social des émotions liées à la découverte de nouveaux espaces de pratique.

L’expérience d’aliénation en skateboard

L’expérience d’aliénation correspond à une rupture du lien avec le monde, lorsque l’individu ne parvient plus à se sentir en relation vivante et signifiante avec son environnement. Dans le cadre de la pratique du skate, elle se divise en deux grandes catégories : la relation avec la planche (88,5 %) et la relation avec l’environnement ou les pairs (11,5 %).

Dans la première catégorie, l’aliénation découle principalement des blessures (45,9 %), des échecs répétés (32,8 %) et des difficultés d’apprentissage (9,8 %). Un jeune skateur raconte :

« Je me suis cassé le bras assez sérieusement […]. Dès que je suis tombé, j’ai su qu’il était cassé. »

L’expérience de la blessure est non seulement liée à la douleur, mais également à l’impossibilité de continuer à pratiquer le skateboard associée à une fragilisation de l’estime de soi et des liens sociaux :

« Boom, entorse ! […] tu réalises que tu ne pourras pas skater pendant un ou deux mois. »

Les échecs répétitifs suscitent également une forte insatisfaction :

« Après des dizaines d’essais sur un trick, tu te sens capable, mais ça ne passe pas […] fatigue, nervosité, frustration m’ont fait littéralement craquer. »

La seconde catégorie porte sur la relation au social, et représente 11,5 % des expériences d’aliénation, autour de la pression sociale et de la compétition (8,2 %), mais aussi des conflits (3,3 %). L’aliénation émerge notamment lorsque les interactions avec les pairs deviennent sources de rejet :

« Un gars m’a poussé, et, honnêtement, j’ai beaucoup remis en question ma place au skatepark. »

Certains évoquent un sentiment de solitude :

« Pendant trois-quatre mois, j’ai skaté seul… vraiment triste, car à ce moment, le skate était la seule chose qui me faisait plaisir. »

L’observation et le jugement peuvent également blesser les pratiquants :

« Après une chute devant les autres, j’étais tellement honteuse […] je suis partie démoralisée. »

Ces expériences montrent l’ambivalence des relations sociales, qui peuvent fragiliser l’estime de soi et transformer le skatepark en espace d’exclusion.

À la recherche de l’expérience de résonance dans les pratiques sportives

Les résultats de l’étude révèlent une dialectique essentielle entre résonance et aliénation dans l’expérience des skateurs, qui se déploie sur une temporalité évolutive. La résonance surgit souvent après des phases d’aliénation, par exemple lorsqu’un trick réussi suit de multiples tentatives infructueuses. Inversement, l’intensité des moments de résonance peut nourrir la quête permanente de sensations, au risque de retomber dans l’aliénation. Cette dialectique structure la pratique du skateboard, redéfinissant les relations au corps, à la planche, à l’environnement social et urbain.

Ces processus échappent en partie à notre contrôle, car, comme l’explique Rosa, l’expérience de résonance se caractérise aussi par une certaine indisponibilité, c’est-à-dire qu’elle ne peut pas être produite ou maîtrisée à volonté. Néanmoins, la pratique régulière favorise l’appropriation progressive de la planche comme prolongement du corps.

Le skatepark apparaît également comme une « oasis de résonance » potentielle, par ses dimensions sociales parfois associées à l’écoute de la musique, permettant de s’évader d’une société caractérisée par l’accélération, autre concept développé par Hartmut Rosa.

The movie tag contains https://www.arte.tv/fr/videos/110980-002-A/le-grand-entretien-avec-hartmut-rosa/, which is an unsupported URL, in the src attribute. Please try again with youtube or vimeo.

Les résultats de notre étude invitent à la prise en compte de l’expérience des pratiquants par les intervenants dans le cadre d’une pédagogie de la résonance. Ils peuvent également susciter des réflexions dans les associations sportives et les politiques publiques, afin de favoriser des environnements propices à l’épanouissement des skateurs.

Enfin, ils invitent à élargir les recherches sur l’expérience de résonance à d’autres sports de glisse (surf, planche à voile, snowboard, etc.), et plus globalement à l’ensemble des pratiques sportives contemporaines, en intégrant éventuellement l’écoute de la musique comme amplificateur d’évasion.

The Conversation

Jérôme Visioli ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Comment la philosophie d’Hartmut Rosa « résonne » avec les sports de glisse – https://theconversation.com/comment-la-philosophie-dhartmut-rosa-resonne-avec-les-sports-de-glisse-263674

Tests psychologiques : à quels outils se fier sur un marché pléthorique ?

Source: The Conversation – France in French (3) – By Katia Terriot, Maîtresse de conférences en psychologie, Conservatoire national des arts et métiers (CNAM)

Du milieu scolaire aux process de recrutement, en passant par les choix d’orientation, les tests psychologiques sont de plus en plus mobilisés, dans des situations décisives pour l’avenir des personnes concernées. Mais sont-ils toujours fiables ? Et à quelles sont les conditions d’une utilisation pertinente ?


À leur création au XIXe siècle, les tests psychologiques ont été utilisés principalement pour étudier le fonctionnement de l’intelligence. Avec la création de programmes centrés sur l’évaluation des personnalités à partir des années 1960, ils ont été largement diffusés dans les entreprises pour accompagner la gestion des ressources humaines et le recrutement.

Depuis les années 2000, ils sont de plus en plus mobilisés dans le champ de l’orientation également. Du test d’aptitudes pour un futur pilote de l’air au questionnaire de personnalité destiné à un manager, en passant par l’évaluation cognitive en milieu scolaire, ces outils interviennent chaque jour dans des situations décisives.

Utilisés à bon escient, ils peuvent éclairer et objectiver un choix ; mal choisis ou mal interprétés, ils risquent au contraire de l’orienter dans une mauvaise direction.

Une offre pléthorique

La diversité des tests psychologiques est impressionnante : tests d’aptitude pour surveillant pénitentiaire, questionnaire de personnalité pour managers, échelles de motivation pour élèves en difficulté… et, à l’autre extrémité du spectre, les quiz en ligne ou dans les magazines, parfois présentés comme « scientifiques » mais sans aucune base rigoureuse.

Certains tests psychologiques sont utilisés dans le monde entier, parfois à des milliers d’exemplaires chaque année. Leur popularité, le fait qu’ils aient été créés par une personnalité reconnue ou adoptés par de grandes entreprises ne garantit pourtant en rien leur qualité scientifique. Derrière une apparente simplicité et un succès commercial peuvent se cacher de fortes disparités de qualité. Or, un outil mal construit peut mener à des interprétations erronées et à des décisions inadaptées.

À quoi les tests servent-ils ?

Un test psychologique n’est pas qu’un simple questionnaire. C’est un instrument standardisé (c’est-à-dire prévu pour être utilisé dans des conditions contrôlées, toujours les mêmes), destiné à mesurer une dimension précise, comme le raisonnement, la mémoire, l’attention, la personnalité ou les intérêts professionnels. Par exemple, certaines épreuves de raisonnement sont utilisées depuis plus d’un siècle et ont été améliorées avec le temps. Elles permettent de manière fiable de prédire la capacité d’une personne à s’adapter à des situations nouvelles et complexes.

Utilisés de manière appropriée (c’est-à-dire adaptés à la situation et à la personne évaluée, utilisés par une personne compétente, respectant les règles de standardisation), ces outils ont une réelle valeur ajoutée. Ils permettent d’objectiver des observations (par exemple, pour confirmer ou pour infirmer un trouble d’apprentissage) ou d’aider à la prise de décisions d’orientation scolaire ou professionnelle, en éclairant les motivations, les intérêts ou les compétences des personnes, ou encore de suivre l’évolution d’une compétence ou d’une souffrance psychologique au fil du temps.

Si les tests peuvent jouer un rôle clé dans de nombreux contextes, encore faut-il qu’ils soient conçus avec rigueur. Dans l’idéal, la conception d’un test psychologique s’appuie sur plusieurs années de travail collectif entre chercheurs et praticiens, avec des phases d’expérimentation et une validation par les pairs. En pratique, beaucoup d’outils diffusés dans le monde du travail ou sur Internet échappent à ce cadre scientifique rigoureux, ce qui explique la grande diversité de qualité que l’on trouve sur le marché.

La démarche d’élaboration d’un test psychologique

Construire un test de qualité demande bien plus qu’une idée lumineuse. Le processus commence par un modèle théorique solide. Les tests d’intelligence actuels, par exemple, reposent souvent sur le modèle CHC (Cattell-Horn-Carroll), qui distingue différentes composantes cognitives. À partir de cette base, on élabore des items (par exemple, une question ou un problème à résoudre), que l’on soumet à un large échantillon de participants.

Les données ainsi recueillies font l’objet d’analyses statistiques sophistiquées : on vérifie que le test mesure bien ce qu’il prétend mesurer (validité), que les résultats sont stables et reproductibles (fidélité), et que chaque item contribue réellement à l’évaluation. Cette phase est suivie de l’étalonnage. Les résultats d’un échantillon représentatif de la population à laquelle s’adresse le test sont recueillis.




À lire aussi :
« Dyslexique », « hyperactif », « HPI »… Ces diagnostics qui se multiplient en milieu scolaire


À chaque utilisation, les résultats d’une personne pourront ainsi être comparés à une « norme » de référence. Enfin, toutes ces étapes doivent être documentées dans un manuel détaillé, où sont présentées les preuves scientifiques, les conditions d’utilisation et les limites de l’outil.

Reconnaître un test de qualité

Ainsi, la qualité d’un test se juge d’abord sur la solidité de sa documentation. Un manuel expose clairement ses fondements théoriques, sa méthode de construction, les résultats des analyses statistiques et les conditions précises de passation.

Les normes doivent avoir été établies sur un échantillon représentatif, reflétant la diversité de la population à laquelle le test est destiné. L’absence de ces éléments doit alerter. Un test dépourvu de manuel, dont les promesses se limitent à des slogans vagues comme « Révélez votre potentiel caché » ou qui se contente de vanter sa popularité sans présenter de données scientifiques fiables, doit être abordé avec prudence.

À titre d’exemple, un argument marketing mettrait en avant que « ce test est plébiscité par des milliers d’utilisateurs et recommandé par les plus grands coachs » alors que l’argument scientifique pourrait indiquer que « ce test a été validé sur 1 500 personnes représentatives de la population française ».

Cependant, même lorsqu’un test est élaboré de façon rigoureuse sur le plan scientifique, il reste nécessaire de garder un regard critique sur ses atouts et sur ses limites. Les données psychométriques doivent être examinées avec attention pour faire un choix éclairé. Car un test fiable mais mal choisi peut avoir des conséquences importantes sur la pratique professionnelle.

Par exemple, utiliser avec un enfant un outil dont l’étalonnage a été conçu à partir d’une population d’adolescents peut conduire à sous-estimer les capacités de l’enfant, avec un risque de l’orienter vers un dispositif de soutien inapproprié.

Une utilisation éthique et rigoureuse

Mais avoir un regard critique sur la qualité d’un test ne suffit toujours pas. Encore faut-il que son utilisation respecte des règles strictes. Même l’outil le plus solide sur le plan scientifique peut produire des conclusions erronées s’il est administré dans de mauvaises conditions ou interprété sans tenir compte du contexte. C’est là qu’interviennent les principes d’une utilisation éthique et rigoureuse.

Respecter les conditions standardisées de passation (temps, consignes, cotation, environnement) est indispensable. La confidentialité des résultats doit être assurée, et leur interprétation doit tenir compte du contexte, des observations qualitatives et d’autres sources d’information. Il est, en effet, indispensable, de rappeler qu’un test psychologique, même élaboré scientifiquement, n’est pas omniscient. Il ne peut à lui seul saisir toute la complexité d’une personne ni prédire son avenir.

Un résultat chiffré ne prend sens que replacé dans un ensemble plus large d’informations : observations cliniques, entretiens, éléments contextuels. Se fier uniquement à un score, c’est comme évaluer toute la personnalité de quelqu’un en ne lui posant qu’une seule question, par exemple : « Préférez-vous passer vos vacances à la plage ou à la montagne ? »

En France, l’usage de certains tests est réservé aux psychologues, parce que leur interprétation exige des compétences techniques et cliniques spécifiques. D’autres outils peuvent être utilisés par des non-psychologues, à condition de suivre une formation spécifique, généralement proposée par l’éditeur du test. Mais même dans ce cas, un usage hors cadre légal ou déontologique expose à des décisions inadaptées, potentiellement néfastes pour l’individu, ou discriminatoires.

Dans un marché pléthorique, savoir faire la différence entre des tests valides scientifiquement et d’autres plus douteux est devenu une compétence en soi. C’est l’objectif du MOOC Tout comprendre sur les tests en psychologie : usages, limites et bonnes pratiques) diffusé sur FUN MOOC. Il propose aux professionnels et au grand public de comprendre les principes de construction des tests, d’identifier les critères de qualité et de distinguer preuves scientifiques et arguments commerciaux.


Le MOOC Tout comprendre sur les tests en psychologie : usages, limites et bonnes pratiques, a été conçu par Jean-Luc Bernaud, Pascal Bessonneau, Richard Gucek, Lin Lhotellier, Even Loarer, Katia Terriot et Aline Vansoeterstede, membres de l’Institut national d’étude du travail et d’orientation professionnelle (Inétop) du Conservatoire national des arts et métiers (Cnam).

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Tests psychologiques : à quels outils se fier sur un marché pléthorique ? – https://theconversation.com/tests-psychologiques-a-quels-outils-se-fier-sur-un-marche-plethorique-264056

Why Jimmy Kimmel’s First Amendment rights weren’t violated – but ABC’s would be protected if it stood up to the FCC and Trump

Source: The Conversation – USA – By Wayne Unger, Associate Professor of Law, Quinnipiac University

A crowd protests in Hollywood, Calif., on Sept. 18, 2025, after the suspension of the ‘Jimmy Kimmel Live!’ taping earlier in the day. David Pashaee / Middle East Images via AFP, Getty Images

The assassination of conservative activist Charlie Kirk has sparked a wave of political commentary.

There were the respectful and sincere comments condemning the killing. Former President Barack Obama said, “What happened was a tragedy and … I mourn for him and his family.” And former Vice President Mike Pence said, “I’m heartsick about what happened to him.”

But Kirk’s killing also elicited what many saw as inappropriate comments. MSNBC terminated commentator Matthew Dowd after he said, “Hateful thoughts lead to hateful words, which then lead to hateful actions.” American Airlines grounded pilots accused of celebrating Kirk’s death.

Perhaps the most notable reaction to remarks seen as controversial about the Kirk killing hit ABC comedian Jimmy Kimmel. His network suspended him indefinitely after comments that he made about the alleged shooter in Kirk’s death.

Countless defenders of Kimmel quickly responded to his indefinite suspension as an attack on the First Amendment. MSNBC host Chris Hayes posted the following on X: “This is the most straightforward attack on free speech from state actors I’ve ever seen in my life and it’s not even close.”

But is it?

FCC Chairman Brendan Carr’s statement about how Jimmy Kimmel’s remarks could hurt ABC affiliate stations.

Free speech? It depends

The First Amendment limits government officials from infringing one’s right to free speech and expression.

For example, the government cannot force someone to recite the Pledge of Allegiance or salute the American flag, because the First Amendment, as one Supreme Court justice wrote, “includes both the right to speak freely and the right to refrain from speaking at all.”

And government cannot limit speech that it finds disagreeable while permitting other speech that it favors.

However, the First Amendment does not apply to private employers. With the exception of the 13th Amendment, which generally prohibits slavery, the Constitution applies only to government and those acting on its behalf.

So, as a general rule, employers are free to discipline employees for their speech – even the employees’ speech outside of the workplace. In this way, U.S. Sen. Lindsey Graham correctly said on X, “Free speech doesn’t prevent you from being fired if you’re stupid and have poor judgment.”

This is why Amy Cooper’s employer, an investment firm, was free to terminate her following her 2020 verbal dispute in New York’s Central Park with a bird-watcher over her unleashed dog. She called the police, falsely claiming that the bird-watcher, a Black man, was threatening her life. The incident, captured on video, went viral and Cooper was fired, with her employer saying, “We do not condone racism of any kind.”

This is also why ABC was able to fire Roseanne Barr from the revival of her show, “Roseanne,” after she posted a tweet about Valerie Jarrett, a Black woman who had been a top aide to President Obama, that many viewed as racist.

But as a scholar of constitutional law, I believe Kimmel’s situation is not as straightforward.

A small monument made out of marble has the First Amendment to the US Constitution printed on it.
A marble plaque inscribed with the First Amendment sits on Independence Mall in Philadelphia, Pa.
Raymond Boyd/Getty Images

Threat complicates things

Neither Cooper’s employer nor Barr’s employer faced any government pressure to terminate them.

Kimmel’s indefinite suspension followed a vague threat from the chairman of the Federal Communications Commission, Brendan Carr. As complaints about Kimmel’s statement exploded in conservative media, Carr suggested in a podcast interview that Kimmel’s statements could lead to the FCC revoking ABC affiliate stations’ licenses.

“We can do this the easy way or the hard way,” Carr said.

But the Supreme Court has been crystal clear. Government officials cannot attempt to coerce private parties in order to punish or suppress views that the government disfavors.

In a 2024 case, National Rifle Association v. Vullo, a unanimous Supreme Court plainly said that the government’s threat of invoking legal sanctions and other coercion to suppress speech it doesn’t like violates the First Amendment. That principle is so profound and fundamental that it got support from every member of an often bitterly divided court.

A threat to revoke broadcast licenses would almost certainly be seen in a court of law as a government action tantamount to coercion. And Carr’s public comments undoubtedly connect that threat to Kimmel’s disfavored comments.

If the FCC had indeed moved to strip ABC affiliates of their licenses to broadcast because of what Kimmel said, ABC and its parent company, Disney, could have sued the FCC to block the license revocations on First Amendment grounds, citing the NRA v. Vullo case.

But the network seemingly caved to the coercive threat instead of fighting for Kimmel. This is why so many are decrying the Kimmel suspension as an attack on free speech and the First Amendment – even though they might not fully understand the law they’re citing.

The Conversation

Wayne Unger does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Why Jimmy Kimmel’s First Amendment rights weren’t violated – but ABC’s would be protected if it stood up to the FCC and Trump – https://theconversation.com/why-jimmy-kimmels-first-amendment-rights-werent-violated-but-abcs-would-be-protected-if-it-stood-up-to-the-fcc-and-trump-265703

Dos nuevos cometas ya son protagonistas del cielo vespertino

Source: The Conversation – (in Spanish) – By Josep M. Trigo Rodríguez, Investigador Principal del Grupo de Meteoritos, Cuerpos Menores y Ciencias Planetarias, Instituto de Ciencias del Espacio (ICE – CSIC)

El cometa 2025 A6 Lemmon, captado el 14 de septiembre de 2025 desde Alalpardo (Madrid). Alfonso José Merino

Los aficionados a la astronomía tendrán las próximas semanas la oportunidad de disfrutar de dos cometas de largo periodo descubiertos este mismo año: C/2025 A6 (Lemmon) y el recientemente catalogado C/2025 R2 (SWAN). Ambos objetos poseen órbitas muy excéntricas que los llevan a regiones externas de nuestro sistema planetario, con periodos orbitales de más de mil años.

Para verlos –o aún mejor, fotografiarlos– podremos guiarnos empleando unas cartas estelares. En otras palabras, necesitamos un cielo oscuro y saber dónde buscarlos. A continuación doy algunas directrices para conseguir observarlos.

El aumento de brillo del cometa Lemmon

Este cometa descubierto a principios de enero por el astrónomo estadounidense Carson Fuls en el marco del programa de seguimiento de cuerpos menores del Observatorio Mount Lemmon posee una órbita muy excéntrica. Los cálculos orbitales de Syuichi Nakano, del Central Bureau for Astronomical Telegrams, indican que, en el extremo más lejano de su órbita (llamado “afelio”), el cometa estaba a 36 000 millones de kilómetros del Sol. Eso corresponde a un período orbital de unos 1 350 años, por lo que debió ser visible en el siglo VII de nuestra era.

En cualquier caso, este pequeño cometa tuvo el pasado 16 de abril un encuentro relativamente próximo a Júpiter (a unos 349 millones de km). Como consecuencia del mismo, sufrió un tirón gravitacional del planeta gigante que ha reducido parte de su energía orbital, viendo acortado su período en unos doscientos años. Un excelente ejemplo de que aún los cometas con órbitas de alta inclinación pueden ser significativamente afectados por los encuentros con los planetas gigantes.

El C/2025 A6 Lemmon pasará a 101 millones de km de la Tierra el 21 de octubre. Posteriormente alcanzará el punto más cercano al Sol de su órbita (conocido como perihelio) el 8 de noviembre, encontrándose a 79 millones de km del astro rey. Se espera que sobreviva a esa fase de mayor calentamiento por la radiación solar y retorne al espacio profundo, como parece haber hecho en anteriores ocasiones.

En las últimas semanas, este cometa ha seguido incrementando a buen ritmo su brillo, tal y como revelan los datos enviados a la Base de Datos de Observaciones de Cometas (COBS), que recopila las observaciones de estos objetos. Si mantiene las expectativas, su brillante coma, la envoltura de gas y polvo que se entiende desde el núcleo, llegará a ser visible a simple vista con relativa facilidad desde zonas rurales a finales de octubre.

Se espera que llegue a magnitud +3 la última semana, es decir, similar a las estrellas más débiles que forman la conocida Osa Mayor. Incluso podría ser algo más brillante, conforme evolucione y se acerque a la Tierra.

En la coma ya desarrollada del cometa 2025 A6 Lemmon ya puede apreciarse el comienzo de la cola. Captado el 14 de septiembre de 2025 desde Alalpardo, Madrid.
Alfonso J. Merino

El cometa irá incrementando su brillo progresivamente, mientras recorre el firmamento cruzando las constelaciones de Leo Menor, la Osa Mayor, los Perros de Caza y Boyero. En la actualidad, C/2025 A6 Lemmon se encuentra prácticamente en el límite de observación a simple vista, pero va ganando brillo cada noche. Recomiendo las cartas celestes de Gideon van Buitenen para localizarlo puntualmente.

Precisamente la semana que se muestre más brillante y asequible estará ya en la constelación de Boyero, relativamente cerca de la luminosa estrella Arturo. En todo caso, su observación dependerá de buscar un lugar sin contaminación lumínica con el horizonte oeste despejado, dado que se hallará a finales de octubre a baja altura sobre el horizonte, tras la puesta del Sol.

El súbito descubrimiento del cometa SWAN

Hace poco más de una semana, otro cometa fue descubierto saliendo de su conjunción con el Sol, tal como llamamos a la mayor proximidad angular al astro rey. Lo halló el instrumento Solar Wind Anisotropies (SWAN) de la sonda SOHO, capaz de monitorizar el campo angular cercano a nuestra estrella.

El cometa C/2025 R2 SWAN fue captado el pasado 16 de septiembre de 2025, con su cola iónica deslabazada, desde Farm Tivoli, Namibia.
Gerald Rhemann y Michael Jäger

El nuevo cometa estará bien situado las próximas semanas para observarlo con prismáticos o pequeños telescopios. Deberemos buscar un entorno rural, con el oeste libre de contaminación lumínica, puesto que no es visible a simple vista. Con telescopios se aprecia su coma y una parte de su larga y fina cola iónica.

Haciendo uso de las citadas cartas celestes de van Buitenen podremos localizarlo entre las estrellas. Si no disponemos de un telescopio computerizado, procuremos tener una estrella brillante cercana de referencia inicial para poder “saltar” en el campo de nuestro telescopio hasta llegar a la posición esperada del cometa. Empleemos un ocular que proporcione bajos aumentos y mayor campo angular para distinguir bien el difuso cometa entre las estrellas de fondo.

Localización del cometa C/2025 R2 SWAN entre el 16 de septiembre y el 2 de octubre.
Eddie Irizarry/ Stellarium.

Ahora sólo cabe esperar que estos cometas se comporten como deben y nos maravillen incluso más de lo esperable. Al fin y al cabo, como dijo el célebre descubridor de cometas David H. Levy en su libro Comets: Creators and Destroyers (Cometas: Creadores y Destructores): “Los cometas son como los gatos: tienen colas y hacen exactamente lo que quieren”

The Conversation

Josep M. Trigo Rodríguez recibe fondos del proyecto del Plan Nacional de Astronomía y Astrofísica PID2021-128062NB-I00 financiado por el MICINN y la Agencia Estatal de Investigación.

ref. Dos nuevos cometas ya son protagonistas del cielo vespertino – https://theconversation.com/dos-nuevos-cometas-ya-son-protagonistas-del-cielo-vespertino-265528

Hepatitis B shot for newborns has nearly eliminated childhood infections with this virus in the US

Source: The Conversation – USA (3) – By David Higgins, Assistant Professor of Pediatrics, University of Colorado Anschutz Medical Campus

About 80% of parents currently choose to follow CDC guidelines to vaccinate their babies for hepatitis B at birth. timnewman/iStock via Getty Images Plus
Graphic saying '95% Drop in U.S. childhood hepatitis B infections since 1991, when routine infant vaccination began'

The Conversation, CC BY-ND

Before the United States began vaccinating all infants at birth with the hepatitis B vaccine in 1991, around 18,000 children every year contracted the virus before their 10th birthday – about half of them at birth. About 90% of that subset developed a chronic infection.

In the U.S., 1 in 4 children chronically infected with hepatitis B will die prematurely from cirrhosis or liver cancer.

Today, fewer than 1,000 U.S. children or adolescents contract the virus every year – a 95% drop. Fewer than 20 babies are reported infected at birth.

I am a pediatrician and preventive medicine specialist who studies vaccine delivery and policy. Vaccinating babies for hepatitis B at birth remains one of the clearest, most evidence-based ways to keep American children free of this lifelong, deadly infection.

On Sept. 18, 2025, the Advisory Committee on Immunization Practices, an independent panel of experts that advises the Centers for Disease Control and Prevention, debated changing the recommendation. According to the proposed language of the vote, infants whose mothers test positive for hepatitis B would still receive the vaccine at birth. Infants whose mothers do not test positive for hepatitis B would get the vaccine at 1 month of age, though parents would have the choice for them to receive it earlier. On Sept. 19, however, the committee tabled the vote, delaying it to the next committee meeting, scheduled for Oct. 22-23.

Although such a proposed change sounds small, it is not based on any new evidence. It would undo more than three decades of a prevention strategy that has nearly eliminated early childhood hepatitis B in the U.S.

While the committee regularly reviews vaccine guidance, nothing is business as usual about this meeting. In June 2025, Secretary of Health and Human Services Robert F. Kennedy Jr. disbanded the entire committee and handpicked new members. The committee has long-standing procedures to evaluate the evidence supporting the risks and benefits of a given vaccine, as well as other parameters of its use. But in this case, these procedures are not being followed.

Why the CDC adopted universal hepatitis B shots

Hepatitis B is a virus that infects liver cells, causing inflammation and damage. In adults, it is spread through blood and bodily fluids, which can happen through unprotected sex, contaminated needles or contact with open cuts or sores of someone who is carrying it.

The hepatitis B vaccine has been available since the early 1980s. Before 1991, public health guidance recommended giving newborns and young children the hepatitis B vaccine only if they were at high risk of being infected – for example, if they were born to a mother infected with hepatitis B or living in a household with someone known to have hepatitis B.

That targeted plan failed. Tens of thousands of children were still infected each year.

Newborn lying on exam table touching doctor's stethoscope
Children are most likely to get infected by hepatitis B at birth, when contact with their mother’s blood can transmit the virus.
Ekkasit Jokthong/iStock via Getty Images Plus

Some newborns were exposed when their mothers weren’t properly screened or if their mothers got infected late in pregnancy. Children also became infected through household contacts or in child care settings by exposures as ordinary as shared toothbrushes or a bite that breaks the skin. Because hepatitis B can survive for a week on household surfaces, and many carriers are unaware they are infected, even babies and toddlers of uninfected mothers remained at risk.

Recognizing these gaps, in 1991 the CDC recommended hepatitis B vaccination for every child starting at birth, regardless of maternal risk.

Vaccinating at birth

The greatest danger for infants contracting hepatitis B is at birth, when contact with a mother’s blood can transmit the virus. Without preventive treatment or vaccination, 70% to 90% of infants born to infected mothers will become infected themselves, and 90% of those infections will become chronic. The infection in these children silently damages their liver, potentially leading to liver cancer and death.

About 80% of parents choose to follow the CDC’s guidance and vaccinate their babies at birth. If the CDC’s recommendations change to delaying the first dose to 1 month old, it would leave babies unprotected during this most vulnerable window, when infection is most likely to lead to chronic infection and silently damage the liver.

The hepatitis B vaccines used in the U.S. have an outstanding safety record. The only confirmed risk is an allergic reaction called anaphylaxis that occurs in roughly 1 in 600,000 doses, and no child has died from such a reaction. Extensive studies show no link to other serious conditions.

The current recommendations are designed to protect every child, including those who slip through gaps in maternal screening or encounter the virus in everyday life. A reversion to the ineffective risk-based approach threatens to erode this critical safety net.

The Conversation

David Higgins is a member of the American Academy of Pediatrics and volunteer board member for Immunize Colorado.

ref. Hepatitis B shot for newborns has nearly eliminated childhood infections with this virus in the US – https://theconversation.com/hepatitis-b-shot-for-newborns-has-nearly-eliminated-childhood-infections-with-this-virus-in-the-us-265560

Retraites par répartition ou capitalisation : quels sont les risques ?

Source: The Conversation – France (in French) – By Anne Lavigne, Professeure de Sciences économiques, Université d’Orléans

Même si les débats sur la retraite ont été mis sur pause, ils reviendront sur le devant de la scène. Souvent, la retraite par répartition est présentée comme plus sûre que la retraite par capitalisation soumise aux aléas des marchés financiers. Qu’en est-il vraiment ? Existe-t-il vraiment un système plus sûr que l’autre ? ou chaque système a-t-il des risques propres ?


La retraite par capitalisation est un des serpents de mer des réformes des retraites. Dans ce domaine inflammable et hautement passionnel, les tenants et les opposants d’un système ou de l’autre avancent les avantages de leur système de prédilection et les dangers posés par la solution rivale.

Lors des dernières discussions, que le premier ministre d’alors avait nommées « conclave », la question d’une dose de capitalisation a été évoquée. Cette proposition a été rapidement remise sous la table, en même temps que le conclave entre les partenaires sociaux s’achevait sur un constat d’échec. Les pistes suggérées par son successeur Sébastien Lecornu sur la question des retraites n’incluent pas l’introduction d’une dose de capitalisation, tant la mesure compte de farouches opposants. Après avoir étudié la rentabilité des deux systèmes, nous proposons d’étudier les risques inhérents à la répartition et à la capitalisation.




À lire aussi :
Retraites par capitalisation ou par répartition : quel système est le plus rentable ?


Le rapport entre cotisants et cotisés

Toutes choses égales par ailleurs (notamment si la productivité du travail est inchangée), l’augmentation du nombre de retraités par rapport au nombre de cotisants dégrade la situation financière d’un système en répartition. Cette augmentation peut avoir plusieurs origines :

  • l’allongement de l’espérance de vie qui est un choc démographique durable qui accroît le nombre de retraités (on parle de vieillissement « par le haut » de la population) ;

  • symétriquement, la baisse du taux de fécondité réduit le nombre des cotisants après quelques décennies (on parle de « vieillissement par le bas » de la population).

Gare au baby-boom !

D’autres chocs sont transitoires, par exemple le baby-boom d’après-guerre qui a entraîné une très forte augmentation des naissances pendant un temps limité, entre 1945 et 1970.

Les chocs durables peuvent être absorbés par des « modifications paramétriques » du système (modification du taux de cotisation, du taux de remplacement ou de l’âge de départ à la retraite) alors que les chocs transitoires, comme un baby-boom, peuvent être absorbés par une accumulation de réserves dans le système par répartition lorsque les boomers sont actifs, réserves qui seront utilisées lorsque les boomers arrivent à la retraite.

Dangereuse inflation

Du côté des risques économiques, le ralentissement des progrès de productivité du travail (et, a fortiori, la baisse de cette productivité) réduit le rendement de la répartition : un choc de productivité a un impact analogue à un choc démographique. L’inflation est un autre risque si les paramètres du système ne s’ajustent que partiellement, ou avec retard, sur l’évolution des prix. L’indexation concerne les pensions versées aux retraités, sujet qui fait actuellement débat en France.

Mais il concerne également l’indexation des salaires portés au compte des cotisants, ce qui est moins connu. Au régime général en effet, la pension est calculée sur la base du salaire moyen perçu au cours des 25 meilleures années de carrière. Or un salaire de 1 800 euros perçu en 2000 n’est pas équivalent à un salaire de 1 800 euros perçu en 2025, car l’inflation depuis 2000 a érodé le pouvoir d’achat des 1 800 euros gagnés en 2000. Il faut donc indexer les salaires perçus chaque année, et le choix a été fait d’une indexation sur les prix, pour rendre comparables, en termes de pouvoir d’achat, les différents salaires de carrière.

Sous-indexation rendue nécessaire

Si le gouvernement suit le dernier avis du Comité de suivi des retraites préconisant une sous-indexation partielle et temporaire des pensions des retraités à l’horizon de 2030, il exposera les retraités au risque d’inflation.

Enfin, parce que la répartition instaure une solidarité entre les générations sur la base d’une réciprocité indirecte entre des générations passées, présentes et futures, elle est exposée à un risque politique. Le principe sous-jacent à la répartition est le suivant pour un individu : « J’accepte de cotiser pour les générations qui m’ont précédé (les retraités actuels) parce que je sais, ou j’anticipe, que les générations futures feront de même pour moi. »

La confiance en la répartition est étroitement liée à la confiance que l’on accorde à l’État. Celle-ci repose, en dernier lieu, sur la capacité de ce dernier à mutualiser des risques de toutes natures : démographiques (taille et durée de vie des générations…), économiques (emploi, salaires, taux d’intérêt…) et politiques (guerres…).

Capitalisation : qui assume le risque à la fin des fins ?

La capitalisation est exposée aux fluctuations des marchés financiers, et notamment aux risques de baisse brutale des cours des actions. On pourrait objecter que les krachs boursiers sont des événements rares. Mais, encore une fois, pour un individu donné, si ce risque rare se réalise, c’est sa survie à la retraite qui est en jeu s’il finance sa couverture vieillesse par de l’épargne retraite placée en actions.

Pour autant, même l’existence de risques financiers (c’est-à-dire le risque de perdre une partie des sommes qu’on place en épargne retraite) ne suffit pas à disqualifier la capitalisation. En effet, des techniques financières existent pour se couvrir contre ces risques financiers. C’est notamment le cas des fonds de pension à prestations définies qui s’engagent à verser des prestations de retraite d’un montant prédéterminé, par exemple un pourcentage du dernier salaire d’activité, ou de la moyenne des salaires perçus pendant la vie active, quel que soit le rendement financier des sommes placées en bourse.

Bien évidemment, pour pouvoir garantir un taux de remplacement quelles que soient les fluctuations en bourse, il faut que quelqu’un assume le risque financier, c’est-à-dire recapitalise le fonds de pension en cas de pertes sur les marchés. Et ce quelqu’un, c’est l’employeur qui a créé le fonds de pension pour ses salariés.

Les facteurs démographiques

On lit parfois que la capitalisation, à la différence de la répartition, est protégée contre les risques démographiques. C’est inexact, sauf dans un cas très particulier où les machines seraient parfaitement substituables aux humains.

Imaginons, par exemple, une réduction durable de la fécondité, qui entraînerait moins de naissances, puis une vingtaine d’années plus tard, moins d’actifs. Dans ce cas, comme les travailleurs deviennent plus rares, les salaires augmentent. Et comme le stock de capital devient relativement plus abondant par rapport au nombre de travailleurs employés, son rendement baisse et la capitalisation devient moins rentable.

Idem pour l’augmentation de l’espérance de vie : qu’on soit en répartition ou en capitalisation, un allongement de l’espérance de vie implique qu’on prélève plus sur la richesse produite chaque année pour financer la retraite des retraités (sous la forme de cotisation ou d’épargne supplémentaire) pour un niveau de vie des retraités inchangé, ou qu’on réduise les retraites à effort de financement inchangé.

Capitalisation et épargne nette

Parmi les arguments avancés pour promouvoir l’essor des fonds de pension en France figurent la mobilisation nécessaire d’une épargne longue, d’une part, et la reconquête souhaitée du capital des entreprises françaises par des investisseurs institutionnels nationaux, d’autre part. S’il est vrai que, dans un système fonctionnant en répartition pure, les cotisations ne constituent pas une épargne, car elles sont redistribuées sous forme de pensions aux retraités contemporains, la capitalisation collective n’induit pas une épargne nette structurelle.

France Culture, 2025.

En effet, les cotisants d’un régime fonctionnant en capitalisation pure achètent des titres financiers, mais les retraités vendent les titres accumulés pendant leur vie active. La capitalisation n’engendre une épargne nette positive que si l’épargne des actifs est supérieure à la désépargne des retraités. L’épargne nette susceptible d’être dégagée par un développement des fonds de pension dépend du poids relatif des cotisants par rapport aux retraités, ainsi que des supports d’épargne alternatifs.

Du patriotisme économique

Reste l’argument du patriotisme économique. Alors que les investisseurs étrangers ne contrôlent qu’environ 17 % du capital des entreprises américaines en 2023, les non-résidents détiennent 40,3 % de la capitalisation boursière des sociétés françaises du CAC 40 fin 2022. Pour les tentants du système par capitalisation, celui-ci est un moyen de drainer l’épargne des ménages vers les entreprises françaises.

Mais rien n’est moins sûr. Au bout du compte, l’instauration de fonds de pension ne suffira pas à inciter les Français à investir dans des actions d’entreprises françaises : tout dépend du choix de l’allocation stratégique des affiliés représentés dans les conseils d’administration des fonds, entre actions et obligations, françaises ou étrangères, et donc, in fine, de leur attitude vis-à-vis du risque.

The Conversation

Anne Lavigne est membre du Conseil d’administration de l’Etablissement de retraite additionnelle de la fonction publique, en qualité de personnalité qualifiée. Cette fonction est assurée à titre bénévole.

ref. Retraites par répartition ou capitalisation : quels sont les risques ? – https://theconversation.com/retraites-par-repartition-ou-capitalisation-quels-sont-les-risques-263455