Voici les espoirs médaillés du Canada aux Jeux olympiques d’hiver de 2026, du hockey au ski acrobatique

Source: The Conversation – in French – By Taylor McKee, Assistant Professor, Sport Management, Brock University

L’époque où les athlètes canadiens se contentaient de participer aux Jeux olympiques est révolue. L’excellence est désormais une attente du programme olympique. Les athlètes sont considérés comme les ambassadeurs de leur pays et les symboles de la fierté nationale.


Cette attente sera au premier plan des Jeux Olympiques d’hiver de Milano Cortina 2026, qui se déroulent dans un contexte de tensions géopolitiques récentes. Il n’est donc pas étonnant que le nouveau slogan évoque l’unité et le patriotisme : « Nous sommes tous Équipe Canada ».

S’il ne fait aucun doute que tous les athlètes olympiques sont censés jouer et performer sous pression, les succès historiques du Canada aux Jeux d’hiver ont créé des attentes élevées. Le pays a établi un record du plus grand nombre de médailles d’or remportées par un pays hôte lors d’une seule édition des Jeux olympiques d’hiver avec 14 médailles à Vancouver en 2010.

Professeur en gestion du sport à l’Université Brock, lorsque je demande à mes étudiants de premier cycle quels athlètes canadiens, selon eux, ressentent le plus de pression pour remporter l’or aux Jeux olympiques, la plupart répondent le hockey, même si cette réponse est peut-être trop simpliste.

Les espoirs du curling

Il est certain que les Canadiens attendent de bons résultats des équipes masculines et féminines de hockey, et ce pour une bonne raison. Le Canada est le pays le plus titré de l’histoire olympique en hockey sur glace, avec 23 médailles remportées.

Pourtant, de nombreux amateurs de hockey canadiens reconnaissent la force d’autres nations dans ce sport. Les Canadiens aiment et détestent à la fois les Suédois, les Finlandais, les Slovaques, les Tchèques et les Américains qui jouent pour leurs équipes de la Ligue nationale de hockey. Une défaite face à ces joueurs et ces équipes est dévastatrice, mais explicable.

Le curling, c’est une autre histoire. Ici, les attentes sont claires : des médailles d’or. Les téléspectateurs occasionnels des Jeux olympiques ne réalisent peut-être pas que les Écossais et les Suisses occupent les trois premières places du classement mondial de curling masculin et que les Suissesses ont remporté deux des quatre derniers championnats du monde.

Cela dit, les équipes canadiennes sont redoutables. L’équipe masculine, menée par Brad Jacobs, a remporté l’or en 2014 à Sotchi, et l’équipe féminine, menée par Rachel Homan, est actuellement classée n° 1 mondiale. Loin d’être une affaire conclue, les curleurs canadiens font partie des athlètes les plus scrutés à l’approche de Milan Cortina.




À lire aussi :
Les JO de Montréal 1976, un laboratoire qui a transformé le Québec bien au-delà des stades et des podiums


Les espoirs du patinage de vitesse

Le Canada a des chances réalistes de remporter des médailles en patinage de vitesse sur piste courte et sur piste longue. Laurent Dubreuil est le médaillé d’argent en titre du 1000 m et a terminé quatrième du 500 m à Pékin en 2022.

Ivanie Blondin et Isabelle Weidemann sont membres de l’équipe de poursuite par équipe, médaillée d’or en titre et médaillées d’argent dans d’autres distances. L’épreuve de poursuite par équipe est l’une des plus passionnantes des Jeux olympiques en patinage de vitesse sur longue piste et mérite certainement d’être inscrite dans votre calendrier.

En patinage de vitesse sur courte piste, discipline qui offre généralement les moments les plus dramatiques et les arrivées les plus intenses à chaque édition des Jeux olympiques, le Canada a de sérieuses chances de remporter des médailles avec une équipe complète de 10 patineurs qui se rendront à Milan.

L’équipe féminine compte dans ses rangs Kim Boutin, quadruple médaillée olympique, qui participera à ses troisièmes Jeux olympiques d’hiver consécutifs. Boutin a remporté des médailles dans les trois épreuves individuelles féminines à Pyeongchang en 2018, puis a ajouté une médaille de bronze au 500 m à Pékin en 2022. Au cours de la dernière décennie, elle a remporté 17 médailles aux Championnats du monde de patinage de vitesse sur piste courte de l’ISU et deux autres titres mondiaux aux Championnats de 2025, remportant l’or au relais 3000 m féminin et au relais mixte.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Les espoirs du ski acrobatique

Beaucoup de Canadiens pourraient penser que le patinage de vitesse a rapporté le plus de médailles au Canada au fil des ans. Le patinage de vitesse compte 23 épreuves au total entre la courte piste et la longue piste aux Jeux olympiques de cette année, et le Canada a remporté sa première médaille en patinage de vitesse en 1932.

Cependant, bien qu’il n’ait été ajouté comme sport à part entière qu’en 1992, le Canada a remporté 30 médailles au total dans un autre sport, dont la première médaille d’or canadienne remportée à domicile par Alexandre Bilodeau en 2010 : le ski acrobatique.

Alliant agilité et sens artistique, le ski acrobatique est sans aucun doute l’une des disciplines les plus captivantes et les plus exaltantes.

Les épreuves de ski se composent de huit disciplines distinctes. Le Canada compte de nombreux prétendants aux médailles, avec en tête « le plus grand skieur de bosses de tous les temps », Mikaël Kingsbury, qui vient de remporter le 10 janvier la victoire en bosses masculines à Val Saint-Côme, marquant ainsi une 100e victoire en Coupe du monde pour le skieur.

Et puis, il y a le hockey.




À lire aussi :
Comme au mondial junior ou aux JO de Milan-Cortina, les hockeyeurs québécois sont plus absents que jamais dans la LNH


Les espoirs du hockey sur glace

Cette année marque le début d’une nouvelle ère pour le hockey féminin, puisque les joueuses professionnelles participeront pour la première fois aux Jeux olympiques, suite à la création de la Ligue professionnelle féminine de hockey.

Depuis 1990, une seule équipe autre que le Canada et les États-Unis – la Finlande en 2019 – a atteint la finale des Championnats du monde de hockey sur glace. Le Canada a remporté la médaille de bronze cette année-là.

Médaillée d’or lors de cinq des sept Jeux olympiques précédents, l’équipe féminine canadienne aborde cette année en position de faible favorite, tandis que l’équipe américaine défend son titre de championne du monde.

Compte tenu de l’histoire riche de ces deux équipes et des tensions actuelles entre les deux nations, leur confrontation sera sans aucun doute l’un des moments les plus passionnants de cette année.

Du côté des hommes, une longue attente touche à sa fin : les joueurs de la NHL font leur retour aux Jeux olympiques. Le capitaine canadien Sidney Crosby visera sa troisième médaille d’or olympique.

Le retour des talents professionnels s’accompagne d’une source de tension familière pour les amateurs de hockey canadien : la consternation autour des gardiens de but.

Le Canada reste l’un des favoris du tournoi, brillant avec de nombreuses superstars en attaque et en défense, mais les inquiétudes persistantes concernant les gardiens de but continuent d’alimenter les doutes de certains admirateurs.

Les espoirs olympiques ne manquent pas

L’équipe canadienne compte de nombreux autres espoirs de médailles à Milano Cortina, depuis les skieurs alpins et les athlètes de ski cross aux planchistes, patineurs artistiques et skieurs acrobatiques.

Mais le simple fait d’assister aux Jeux lorsque cela est possible peut être une expérience enrichissante en soi.

Malgré le cynisme et le scepticisme à l’égard du Comité international olympique, les Jeux olympiques d’hiver offriront aux athlètes canadiens l’occasion d’atteindre l’excellence sportive mondiale.

Si nous savons que la pression crée des diamants, ces athlètes pourraient bientôt prouver qu’elle peut aussi produire de l’or.

La Conversation Canada

Taylor McKee reçoit un financement du Conseil de recherches en sciences humaines du Canada.

ref. Voici les espoirs médaillés du Canada aux Jeux olympiques d’hiver de 2026, du hockey au ski acrobatique – https://theconversation.com/voici-les-espoirs-medailles-du-canada-aux-jeux-olympiques-dhiver-de-2026-du-hockey-au-ski-acrobatique-275038

Urbanisme écologique : de la nature en ville à la ville régénérative

Source: The Conversation – France (in French) – By Philippe Clergeau, Professeur émérite en écologie urbaine, Muséum national d’histoire naturelle (MNHN)

Suffit-il de planter quelques arbres dans une rue pour rendre une ville du XXIᵉ siècle plaisante, vivable et durable ? En auscultant les processus en cours, les réflexions menées pour que la ville soit habitable pour les humains comme pour la biodiversité, le Groupe sur l’urbanisme écologique différencie trois approches : celle de la nature en ville, celle de l’urbanisme écologique et celle de l’urbanisme régénératif.


Si l’architecture est bien l’art de la conception des bâtiments, l’urbanisme est celui de l’organisation et de l’aménagement des espaces urbanisés. Car il s’agit bien d’un art que de mettre en musique une multitude de sciences, techniques, designs, savoirs locaux et expertises. L’objectif final n’est aujourd’hui plus seulement de planifier un espace à partir de dimension sociale et économique mais aussi écologique.

Cette ultime ambition a été avant tout hygiéniste et environnementaliste au cours du XXᵉ siècle : il s’agissait de réduire les pollutions et les impacts négatifs des activités humaines sur la santé et le bien-être des citadins. Les notions de durabilité puis de résilience et de sobriété ont ensuite rebattu les cartes des stratégies et des méthodes à mettre en œuvre, tout au moins dans les discours.

De la nature en ville à la biodiversité urbaine

À côté de réflexions sur la mobilité, l’énergie, la gestion des déchets, etc., une première étape d’une approche écologique est d’intégrer de la végétation dans la ville pour les multiples services qu’elle « rend » aux citadins : rafraîchissement de l’air, régulation des pollutions, ambiance, par exemple. C’est ainsi que des milliers d’arbres sont en cours de plantation dans les grandes villes pour limiter les îlots de chaleur.

Cependant, aussi indispensables que soient ces objectifs de végétalisation et de réduction des impacts, cette stratégie conforte une compréhension simplifiée des systèmes urbains et une gestion par les services compétents « en silo ». Dans les collectivités, seul le service des parcs et jardins ou bien celui de la voirie sont impliqués dans la végétalisation de l’espace public et la plupart du temps, leur action se concentre sur un site, un quartier ou une rue avec un type classique et récurrent de végétation, par exemple les plantations d’une seule espèce d’arbres pour les alignements des boulevards.

Cette vision ne permet pas une durabilité, car, d’une part, ces monocultures sont fragiles face aux accidents climatiques ou sanitaires, comme l’arrivée d’un pathogène, qui peuvent entraîner la mortalité de l’ensemble de la plantation monospécifique et, d’autre part, la vision d’une organisation globale manque généralement.

Une approche plus fonctionnelle semble alors indispensable. Si l’on se concentre toujours sur la biodiversité, il ne s’agit en effet plus seulement de végétaliser mais plutôt de favoriser une biodiversité, avec diverses espèces de végétaux qui vont interagir entre eux et permettre l’installation et le maintien d’une faune et d’une flore spontanée. On ne plante pas seulement des espèces efficaces, par exemple les platanes pour l’ombrage des boulevards, on essaie de prendre soin du sol et de choisir des espèces diversifiées pour limiter les maladies et multiplier les bénéfices pour la société. Cette étape est celle de l’urbanisme écologique qui tente aussi de repenser la conception et l’aménagement urbain en encourageant la création de quartiers verts, le développement des transports doux, l’utilisation de matériaux durables et locaux pour la construction, le souci de l’eau, l’amélioration de la qualité de l’air, le renforcement de la biodiversité.

Vers un urbanisme régénératif

Mais il est possible d’aller encore plus loin.

Alors que l’urbanisme écologique cible surtout l’adaptation et la limitation des impacts négatifs, l’urbanisme régénératif vise à restaurer le fonctionnement des écosystèmes et des processus écologiques. Il sort ainsi de l’anthropocentrisme et prend en compte la complexité des jeux d’échelles du fonctionnement du système ville-nature. Au-delà de cibler des impacts positifs pour la société humaine, il met en lumière aussi les impacts positifs pour toutes les autres espèces.

Ainsi développer une biodiversité est bien inscrit dans l’urbanisme écologique mais en général, les processus écologiques ne sont pas pris en compte à l’échelle globale, notamment les continuités écologiques indispensables aux dispersions des espèces. La fragmentation par les rues et les bâtiments limitent la dispersion des espèces pour atteindre des habitats urbains comme les parcs et les jardins. Il faut alors de véritables « corridors » qui relient les différents habitats, comme, par exemple, des haies qui relient deux forêts pour une faune et une flore forestière. Ainsi un urbanisme régénératif vise notamment à reconnecter ville et campagne, et pas seulement par des trames vertes et bleues mais aussi en considérant la quantité et la qualité de tous les habitats pour que l’ensemble du système s’autoentretienne.

Tout projet implique alors d’intégrer dès sa conception le vivant humain et non humain. Il prend aussi en considération l’héritage de milieux abîmés. L’objectif est une ville non seulement durable mais aussi autogérée, multifonctionnelle, thermiquement vivable, neutre en carbone, biodiversitaire, inventant une nouvelle démocratie et une nouvelle économie.

Des travaux récents ont formalisé cette démarche d’abord dans des pays anglo-saxons, comme le Canada et l’Australie, puis récemment en France. Aujourd’hui, le concept attire l’attention de projets urbains qui essaient d’adhérer aux définitions contemporaines de la conception régénérative : cibler un impact net positif et mutuellement bénéfique pour la nature comme pour la société en vue d’améliorer les conditions d’habitabilité.

Cela implique des projets qui, d’un côté, minimisent leurs impacts négatifs (moins d’énergie consommée, moins d’émissions de gaz à effet de serre, moins de destruction des habitats naturels, etc.) et, d’un autre côté, maximisent des impacts positifs pour les humains en créant des offres d’habitat accessibles et abordables, en réduisant les inégalités sociales, en assurant l’accès aux services urbains, etc., mais aussi pour les autres espèces vivantes en dépolluant des zones, en récréant des habitats, en favorisant leur déplacement, etc. Pour ce faire, l’urbanisme régénératif s’appuie non seulement sur une qualité des diagnostics, mais aussi sur une conception participative ancrée sur le site, pour orienter la création d’un projet adaptable et évolutif dans le temps.

L’exemple de Blatchford, au Canada

Un bel exemple en est le projet de réaménagement du quartier de Blatchford, à Edmonton, dans l’Alberta (Canada). Conçu en 2013, ce projet a tâché de requalifier 217 hectares de fonciers appartenant à l’ancien aéroport de la ville. Pour aboutir au schéma directeur adopté, qui réintègre des écosystèmes naturels, qui s’appuie uniquement sur des énergies renouvelables, qui est neutre en carbone, et qui réduit considérablement son empreinte écologique, une phase de diagnostic socio-écologique à la large échelle a été primordiale.

Le diagnostic a couvert plusieurs volets comme les aspects environnemental et écologique du site : zones polluées et types de pollution, espèces clés de l’écosystème et leurs dynamiques de déplacement et migratoires, potentiel de production d’énergie renouvelable, perméabilité du sol, régime pluviométrique, etc. Ils ont pris en compte également les aspects socio-économiques : installation de commerces, demande de logement à l’échelle de la ville, situation socio-économique du quartier, etc. Ces résultats ont été croisés et ont permis aux équipes d’identifier et prioriser les interventions pour aboutir aux impacts positifs pour la nature et la société.

Le terrain, qui était presque complètement artificialisé, a fait l’objet de plusieurs aménagements paysagers qui ont notamment créé une diversité d’habitats pour la faune et la flore (30 % de sa surface en espace à caractère naturel). Un des points centraux a été la gestion des eaux de pluie principalement par des solutions fondées sur la nature comme des jardins de pluie qui retiennent et infiltrent les eaux de pluie ou des fossés végétalisés.

L’écosystème intègre une diversité d’espèces mais aussi tout un ensemble de processus qui assurent la durabilité du système. En ville, favoriser la biodiversité consiste à se rapprocher de ces fonctionnements complexes
L’écosystème intègre une diversité d’espèces, mais aussi tout un ensemble de processus qui assurent la durabilité du système. En ville, favoriser la biodiversité consiste à se rapprocher de ces fonctionnements complexes.
Isabelle Gounand, Fourni par l’auteur

D’indispensables adhésions et actions citoyennes

Régénérer implique un processus d’évolution d’un système socio-écologique pour qu’il atteigne de meilleures conditions de santé. Régénérer, c’est non seulement prendre au milieu mais lui rendre encore plus comme préconisé par le philosophe Michel Serres dans le Contrat naturel (1990). Cela pour éviter que l’être humain soit un parasite qui finit par détruire son hôte. Cette reconnaissance des imbrications est désormais promue dans certaines politiques publiques.

Mais face aux adaptations et anticipations d’envergure à opérer, les oppositions, les dénis et les marches arrière se multiplient. Il est décisif de susciter des adhésions citoyennes qui sont des conditions cruciales pour cultiver des écologies régénératrices. Et éviter que l’écologie ne dérive vers le réglementaire et le techno-solutionnisme.

Cela exige d’organiser des processus participatifs et coopératifs aux différents stades des transformations des milieux habités. Les visions partagées, les terrains d’entente ne vont pas de soi mais s’inscrivent dans une suite de débats, conflits, concertations et médiations quant aux héritages, valeurs et intentionnalités en jeu. Le défi est désormais d’instaurer la fabrique collective de cohabitations vivifiantes.

The Conversation

Philippe Clergeau est animateur du Groupe sur l’Urbanisme Ecologique

Chris Younes et Eduardo Blanco ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. Urbanisme écologique : de la nature en ville à la ville régénérative – https://theconversation.com/urbanisme-ecologique-de-la-nature-en-ville-a-la-ville-regenerative-270520

Quand la République romaine suspendait l’impôt militaire : une leçon pour la France d’aujourd’hui ?

Source: The Conversation – France (in French) – By Fabian Battaglini, Professeur assistant en économie, EDC Paris Business School

En – 167, avec sa victoire sur la Macédoine, la République romaine suspend le *tributum*, l’impôt militaire direct qui finance ses armées. VukKostic/Shutterstock

En – 167 avant notre ère, après une victoire écrasante sur le royaume de Macédoine, Rome choisit de suspendre son impôt militaire, le « tributum ». Plutôt que d’imposer une fiscalité lourde, la République privilégie la stabilité politique entre plébéiens (peuple) et patriciens (élite), et entre Rome et les peuples conquis.


Faut-il augmenter les impôts pour financer le réarmement de la France ? La question divise. Certains plaident pour d’autres priorités, comme une plus grande justice fiscale, à travers des propositions comme la « taxe Zucman » sur les grandes fortunes.

D’autres, comme le général Pierre de Villiers, invoquent l’urgence stratégique. Face à la situation internationale et au sous-investissement en matière de défense accumulé depuis la fin de la guerre froide, le réarmement serait devenu inévitable, quitte à accepter une hausse de la pression fiscale.

La question n’est pas nouvelle. Elle se posait déjà il y a plus de 2 000 ans, dans un contexte autrement plus dramatique, celui de la République romaine confrontée à des guerres existentielles contre Carthage et ses alliés. Loin de conduire à une hausse durable de l’impôt, cette situation a débouché sur une solution paradoxale : en – 167, Rome choisit de suspendre son impôt militaire, le tributum. Pourquoi ?

La guerre fait-elle toujours l’État ?

Selon la célèbre formule du sociologue Charles Tilly, « la guerre a fait l’État et l’État a fait la guerre ». En Europe, à la suite de la « révolution militaire » (XVᵉ–XVIᵉ siècles), la montée en puissance technologique des armées a entraîné la création d’administrations fiscales de plus en plus efficaces. Pour faire la guerre, en effet, il faut lever l’impôt, et pour lever l’impôt, bâtir une bureaucratie et un État plus forts.

L’histoire romaine semble démentir cette logique. Entre – 264 et – 146, Rome mène plusieurs guerres contre Carthage et ses alliés qui mobilisent toutes ses ressources. Survie de la République en jeu, pertes humaines massives, flottes détruites et reconstruites à plusieurs reprises… tout semble réuni pour provoquer une « révolution fiscale ».

L’inverse se produit. En – 167, au lendemain de sa victoire contre la Macédoine, Rome suspend le tributum, l’impôt militaire direct qui finance ses armées. Sous la République, cet impôt ne sera rétabli que très ponctuellement, pendant les guerres civiles de la fin de la République, entre – 49 et – 31. Comment expliquer qu’un État en guerre choisisse de suspendre, et non de renforcer, sa fiscalité militaire – a fortiori à une époque où les dépenses militaires consommaient la majorité des dépenses de l’État ?

Suspension de l’impôt militaire romain

Le tributum n’est pas un impôt ordinaire. Dès sa création, probablement au Vᵉ siècle, il ne frappe que les citoyens propriétaires et n’est levé que quand Rome part en campagne. En théorie, il doit être remboursé si la guerre rapporte suffisamment de butin. Pendant les guerres puniques, il joue un rôle crucial pour financer l’effort militaire.

Contrairement à ce que l’on observe dans l’Europe moderne (à partir de 1453), cette pression fiscale ne donne pas naissance à une administration centrale puissante. Rome reste ce que l’historien James Tan appelle un « État minimal », ou thin state : peu de bureaucratie, une fiscalité largement déléguée aux communautés locales et aux fermiers d’impôts, et une réticence marquée à centraliser les ressources publiques.

Une hypothèse pourrait être que Rome suspend le tributum parce qu’elle devient riche grâce à ses conquêtes. L’explication ne tient qu’en partie. Jusqu’à la fin du IIᵉ siècle avant notre ère, la plupart des guerres romaines coûtent plus qu’elles ne rapportent au Trésor public. Et même après les grandes victoires, Rome ne cherche pas à maximiser systématiquement ses revenus provinciaux. Au contraire, elle adopte une stratégie que la politologue Margaret Levi appelle « soumission quasi-volontaire », ou quasi voluntary compliance. Plutôt que d’imposer une fiscalité lourde à ses provinces, elle préfère déléguer la collecte aux élites locales, ménager les notables, et privilégier la stabilité politique à l’extraction fiscale maximale.

Négociation politique entre élite et plébéiens

Dans un article académique à paraître, nous étudions la décision de suspendre le tributum au moyen du modèle de négociation de Nash. Il s’agit d’un modèle relevant de la théorie du choix rationnel. Nous l’appliquons à la négociation entre élite et plèbe dans le cadre des contraintes institutionnelles imposées par les pratiques constitutionnelles de la République romaine.




À lire aussi :
Comment investissait-on son argent à Rome ou dans la Grèce antique ?


Contrairement aux monarchies européennes absolutistes, Rome ne peut décider unilatéralement de sa politique fiscale. À Rome, les arrangements constitutionnels avec leurs droits de veto croisés – comme la possibilité pour les représentants de la plèbe d’opposer leur veto à toute décision du Sénat contraire à ses intérêts –, ainsi que l’organisation militaire fondée sur le citoyen-soldat (il n’y a pas d’armée professionnelle permanente à Rome à cette époque), ont créé un environnement institutionnel singulier.

Cet environnement se caractérise par une interdépendance structurelle entre élites et plébéiens : aucun groupe ne peut imposer unilatéralement ses choix. En particulier, les plébéiens disposent de la capacité de perturber la conscription et la collecte du tributum par le recours à la sécession, ou secessio plebis, l’équivalent d’une grève. Quant aux élites, elles contrôlent les ressources matérielles et dominent les processus décisionnels formels.

Cette interdépendance impose la négociation. C’est précisément dans cette dynamique de négociation que se trouve la clé du paradoxe. Selon les conditions externes – notamment les revenus attendus des guerres et la contribution pratiquement gratuite des alliés italiens de Rome, ou socii, notre modèle économique suggère que la suspension de l’impôt devient l’issue rationnelle d’une négociation entre les parties interdépendantes.

La suspension du tributum n’est pas seulement une conséquence des victoires militaires et des revenus qu’elles génèrent. Elle est l’expression d’un choix politique : privilégier la coopération avec les citoyens plutôt que la maximisation des recettes publiques.

Suspension du consensus fiscal

La suspension du tributum ainsi que son élargissement aux alliés italiens (socii) après les guerres sociales (de – 91 à – 87) ont un effet paradoxal. En exemptant durablement tous les citoyens romains de l’impôt militaire direct, la République consolide la paix sociale à court terme. Mais ce choix affaiblit progressivement le contrôle politique de la plèbe sur le financement de la guerre.

Sous le régime du tributum, avant – 167, l’effort militaire fait l’objet d’un arbitrage collectif explicite. Lever l’impôt suppose un vote du Sénat, une justification publique et un engagement visible des citoyens-propriétaires, à la fois contribuables et soldats. La fiscalité joue un rôle politique essentiel : elle apporte un pouvoir de négociation à la plèbe qui peut bloquer la conscription et la collecte du tributum.

Après – 133, lorsque le financement militaire repose de plus en plus sur la taxation des provinces, le butin et les ressources prélevées à l’extérieur, ce pouvoir de négociation disparaît. La République peut alors faire la guerre sans solliciter directement ses citoyens à Rome. La contrainte budgétaire devient invisible pour le corps civique et la décision militaire se trouve partiellement soustraite à la négociation politique interne.

Ce qui apparaît comme un succès fiscal – financer la guerre sans impôt citoyen – fragilise en réalité les institutions républicaines en dissociant décision, financement et responsabilité collective. Dans un second article en cours de rédaction, nous soutenons que cette autonomisation du financement militaire constitue un mécanisme central par lequel la République romaine favorise la compétition intraélite et ouvre la voie aux guerres civiles de la fin de la République.

Le Sénat et le peuple romain

À Rome, l’absence de révolution fiscale après les guerres puniques ne résulte pas d’une simple abondance de ressources extérieures. Elle s’explique par une dynamique de négociation structurelle entre acteurs interdépendants. Ce constat rejoint une approche centrale en économie politique historique. Les trajectoires de formation de l’État ne sont pas déterminées uniquement par des chocs externes – comme la guerre – mais par la manière dont ces chocs interagissent avec des institutions existantes.

La combinaison de contraintes constitutionnelles et de pouvoirs de blocage mutuels oblige à rechercher des solutions coopératives. La fiscalité de guerre ne peut être durable que si elle est perçue comme équitable, temporaire et intégrée dans un pacte politique crédible.

La leçon pour aujourd’hui est moins fiscale que politique. Qu’il s’agisse de financer la défense, la transition écologique ou la cohésion sociale, la question décisive n’est pas seulement celle des bases imposables ou des taux, mais celle des conditions institutionnelles du consentement, seules à même de transformer la contrainte fiscale en engagement partagé. La République romaine a survécu cinq siècles en partie parce qu’elle a su, à des moments cruciaux, privilégier la négociation sur l’extraction maximale.

C’est peut-être là, finalement, la véritable leçon de la République romaine pour nos démocraties modernes : la force d’un État ne se mesure pas seulement à sa capacité de prélèvement, mais à sa capacité de créer du consensus. Il nous faut réinventer le pacte politique qui sous-tend le principe du Senatus Populusque Romanus, « le Sénat et le peuple romain », en quelque sorte.

The Conversation

Fabian Battaglini ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quand la République romaine suspendait l’impôt militaire : une leçon pour la France d’aujourd’hui ? – https://theconversation.com/quand-la-republique-romaine-suspendait-limpot-militaire-une-lecon-pour-la-france-daujourdhui-266153

Parlez-vous l’« algospeak » ? Les dessous d’une néologie particulière

Source: The Conversation – France (in French) – By Anne Gensane, Enseignante chercheuse en sciences du langage, Université d’Artois

Un langage codé qui ressemble à une nouvelle forme d’argot. Terimakasih0/Pixabay, CC BY

Aujourd’hui, les contenus en ligne sont massivement surveillés par des algorithmes chargés de filtrer ce qui est jugé sensible ou contraire aux règles des plateformes (propos injurieux ou insultes). Pour continuer à s’exprimer malgré ces restrictions, les internautes ont développé ce que l’on appelle désormais l’« algospeak ». Mais exprimer quoi ? Comment ? Pourquoi ? Et à quel prix ?


Le mot « algospeak » est formé des termes anglais algo, troncation d’« algorithme », et speak, « parler ». À ce jour, il reste cependant un néologisme non référencé dans les dictionnaires généralistes les plus connus. Il désigne un ensemble de pratiques linguistiques consistant à modifier volontairement la forme ou le sens des mots afin d’évoquer des sujets considérés comme problématiques par les plateformes en échappant à la détection automatisée. Du point de vue de la néologie (analyse de la (re)création des mots), on parle de « néologismes de forme » (modifications graphiques, substitutions phonétiques…) et de « néosémies » (glissements ou détournements de sens).

L’objectif de l’algospeak est double. Il s’agit, d’une part, d’éviter des sanctions telles que la suppression du contenu ou même du compte ; d’autre part, de rester compréhensible par les autres utilisateurs. Il ne s’agit pas seulement d’inventer de nouveaux mots, mais de négocier en permanence avec des systèmes de contrôle automatisés.

Comment parler « algo » ?

Les travaux anglophones consacrés à l’algospeak sont relativement nombreux. Nous pouvons notamment trouver des recensements de termes observés. En revanche, les études francophones restent lapidaires ; c’est pourquoi la constitution de corpus spécifiques représente aujourd’hui un enjeu majeur pour la recherche en néologie (et en argotologie contemporaine). Nous recherchons activement des informateurs pour nous aider à finaliser une typologie.

Concrètement, comment contourne-t-on un filtre lexical en français ?

Un émoji (🍆) peut se substituer à un mot, une graphie peut être altérée en remplaçant des lettres par des chiffres (la « v10lence »), ou en lui incorporant des points entre chaque lettre (le s.u.i.c.i.d·e), des astérisques peuvent remplacer des lettres (le v***) voire peuvent être finalement supprimées : il est possible de nommer avec une seule lettre (le V). Des périphrases et des métaphores peuvent permettre, également, d’évoquer indirectement certaines réalités. Nous pourrions ajouter que dans les contenus audiovisuels, un bip sonore peut masquer un terme problématique (comme une image peut être brièvement floutée afin de préserver la visibilité d’une vidéo).

La compréhension de ces messages suppose une compétence interprétative particulière. Le destinataire doit être capable d’assembler différents indices et de reconnaître des conventions implicites. L’algospeak repose ainsi sur une forme de connivence linguistique, où la compréhension n’est jamais totalement garantie.

Argot et « algo »

À bien des égards, l’algospeak peut sembler familier : il n’est pas sans rappeler des formes connues de création ou d’innovation linguistique. Il fait par exemple penser aux formes scripturales du célèbre « langage SMS » d’antan

Mais surtout, il présente des affinités avec les pratiques argotiques néologiques qui reposent elles aussi sur le détournement du sens et de la forme des mots afin de permettre une communication entre initiés. Dans ces deux cas, il s’agit d’une néologie fonctionnelle : le langage est transformé pour répondre à une contrainte précise.

Cependant, il nous faut nommer ici au moins deux différences majeures qui distinguent l’algospeak de l’argot « classique ». D’abord, l’argot est de tradition orale, au contraire de l’algospeak. Ensuite, la contrainte n’est plus principalement sociale, mais algorithmique. Là où l’argot visait souvent à se distinguer d’un groupe dominant ou à exclure en tout cas certains interlocuteurs humains, l’algospeak cherche avant tout à devenir invisible pour des systèmes d’intelligence artificielle.

Les locuteurs ne cherchent pas nécessairement à marquer une identité collective forte, mais à rendre leurs propos indétectables par des dispositifs dont les règles sont changeantes et rarement explicitées. Il s’agit de dire autrement ce qui ne peut plus être dit directement.

Un caractère éphémère ?

L’algospeak est, par définition, un langage éphémère. Dès qu’une expression est repérée par un filtre automatique, il perd sa valeur stratégique et doit être remplacé. On peut ainsi parler d’une véritable obsolescence programmée du langage, où l’éphémère constitue une propriété centrale. Ce n’est pas autant le cas pour les pratiques argotiques bien qu’elles soient tout à fait labiles : la vitesse du changement n’est pas tout à fait la même.

Pour autant, toutes les créations de l’algospeak ne disparaissent pas aussitôt. Certaines parviennent à se stabiliser et à dépasser leur fonction initiale de contournement. Elles peuvent être reprises dans d’autres contextes, parfois à l’oral, parfois dans des usages argotiques plus classiques. Le terme « tana » qui désigne, pour l’insulter, une jeune femme qui est jugée trop visible (vraisemblablement la forme tronquée du nom de la série Hannah Montana, 2006-2011), par exemple, illustre cette circulation entre sphères numériques et pratiques langagières plus larges. Il devient aussi difficile de déterminer l’origine exacte d’un mot : est-il né pour déjouer un algorithme, ou appartenait-il déjà à des usages préexistants ?

Cette porosité montre que l’algospeak ne constitue pas un phénomène isolé. Il pourrait témoigner d’une évolution plus générale du lexique, marquée par l’effacement progressif des frontières entre langage numérique et parlers ordinaires.

Des enjeux éthiques

L’algospeak repose sur un savoir-faire collectif, construit et transmis au sein de communautés d’internautes. Il s’appuie sur l’expérience : on apprend, au moyen d’essais et d’erreurs, ce qui risque d’être modéré et comment reformuler ce qu’il vaut mieux éviter de dire explicitement. Ces pratiques mobilisent ainsi de nouvelles compétences liées à l’anticipation de la modération algorithmique.

Mais cette adaptation n’est pas sans conséquences. Modifier les mots pour éviter la censure peut en atténuer la force symbolique. Remplacer un terme explicite par un émoji ou une périphrase permet de rester visible, mais peut aussi rendre certaines réalités moins lisibles voire les banaliser. L’algospeak apparaît dès lors comme une solution ambivalente : il ouvre des espaces d’expression tout en transformant profondément la manière dont les choses sont nommées et perçues.

S’il s’agissait surtout, au départ, de modérer le contenu pour lutter contre une « désinformation » au sujet de la pandémie causée par le coronavirus, le problème est désormais déplacé.

L’algospeak met en lumière des enjeux centraux liés aux rapports entre langage, intelligence artificielle et… pouvoir. Il illustre la capacité d’adaptation des locuteurs face à des systèmes de contrôle invisibles et omniprésents, mais cette créativité linguistique n’est pas sans ambiguïté : si elle permet de préserver une libre expression dans un espace public, elle a le pouvoir de transformer la manière de nommer le réel qui dérange. Or, comme l’ont montré par exemple les (socio)linguistes, nommer le réel n’est jamais un acte neutre : c’est déjà exercer un pouvoir symbolique sur lui.

L’algospeak pose dès lors une question éthique centrale : comment continuer à s’exprimer librement, dans une volonté de prévention par exemple, dans un environnement de plus en plus surveillé, tout en restant compréhensible et sans perdre l’impact symbolique des mots ? À travers ces détours linguistiques se joue peut-être, discrètement mais à terme, une redéfinition assez profonde de notre manière de dire le monde.

The Conversation

Anne Gensane ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Parlez-vous l’« algospeak » ? Les dessous d’une néologie particulière – https://theconversation.com/parlez-vous-l-algospeak-les-dessous-dune-neologie-particuliere-274356

Cellules HeLa : l’odyssée de la première lignée cellulaire humaine « immortelle »

Source: The Conversation – France in French (3) – By Jean-François Bodart, Professeur des Universités, en Biologie Cellulaire et Biologie du Développement, Université de Lille

_Henrietta Lacks (HeLa): The Mother of Modern Medicine_ (détail) : portrait d’Henrietta Lacks réalisé en 2017 par l’artiste peintre Kadir Nelson. Collection of the Smithsonian National Museum of African American History and Culture and National Portrait Gallery, Gift from Kadir Nelson and the JKBN Group, LLC

Isolées voici soixante-quinze ans, les cellules HeLa sont sans doute aujourd’hui encore les cellules humaines les plus largement utilisées dans les laboratoires de recherche biomédicale. Prélevées en 1951 – sans son consentement – chez une patiente nommée Henrietta Lacks, ces cellules ont contribué à de nombreuses avancées médicales. Retour sur les raisons d’un brillant succès, non dépourvu d’une part d’ombre.


Génétique, biologie cellulaire, virologie, toxicologie, cancérologie… La liste des domaines dans lesquels les cellules HeLa ont fait avancer les connaissances est impressionnante. À ce jour, plus de 120 000 articles scientifiques font référence à des travaux menés grâce à cette lignée cellulaire.

Parmi les raisons qui expliquent ce succès de ces cellules auprès des biologistes, la principale est probablement qu’elles sont immortelles : contrairement aux autres cellules qui finissent par s’épuiser et mourir, dans des conditions appropriées, les cellules HeLa se divisent indéfiniment. Ces cellules ont été isolées – sans son consentement – à partir de la tumeur d’une patiente, Henrietta Lacks.

Quelle est la nature de ces cellules ? D’où viennent‑elles ? Et pourquoi continuent‑elles d’intéresser le domaine de la santé, plus de sept décennies après leur prélèvement ?

Des cellules obtenues hors de tout consentement

Photo d’Henrietta Lacks, vers 1945
Henrietta Lacks, vers 1945.
Oregon State University / Wikimedia Commons

L’histoire des cellules HeLa débute en 1951, lorsque Henrietta Lacks, une jeune femme afro-américaine d’origine modeste, se présente au Johns Hopkins Hospital, à Baltimore (Maryland), car elle souffre de saignements utérins en dehors de ses périodes de règles.

Le diagnostic ne tarde pas à tomber : Henrietta Lacks souffre d’un cancer agressif du col de l’utérus, qui l’emportera quelques mois plus tard, à l’âge de 31 ans.

Durant sa prise en charge, un médecin prélève, le 8 février 1951 – sans en informer sa patiente – des fragments de la tumeur, qui seront envoyés au laboratoire de culture tissulaire du service de chirurgie de l’hôpital, dirigé par le biologiste George Gey et son épouse Margaret.

Depuis de longues années, tous deux tentaient de cultiver des cellules humaines in vitro, mais ne parvenaient pas à les garder en vie au-delà de quelques divisions.

Cette fois, pourtant, les choses se passent différemment : dès leur mise en culture dans des tubes étiquetés HeLa (pour Henrietta Lacks), les cellules se multiplient sans s’arrêter, et survivent au transport, à la congélation et à la décongélation des échantillons.

C’est le début de l’odyssée des cellules HeLa : cette première lignée de cellules humaines « immortelles », distribuée largement par George Gey, envahit dans les années qui suivent les laboratoires du monde entier. Elle y sert notamment de test pour les nouvelles techniques de culture cellulaire, et devient souvent un bon indicateur de la viabilité d’une procédure : si un protocole fonctionne sur ces cellules, il est probable qu’il fonctionne dans d’autres lignées.

Au fil des décennies, ces cellules seront à l’origine de nombreux résultats de recherche. Un succès dont la famille d’Henrietta Lacks ne sera informée que tardivement, à partir de 1973. L’histoire des cellules HeLa, révélée dans les années 1990, fit l’objet d’un livre – The Immortal Life of Henrietta Lacks – par la journaliste américaine Rebecca Skloot, adapté au cinéma en 2017.

La bande-annonce du film adapté de l’ouvrage de Rebecca Skloot, The Immortal Life of Henrietta Lacks.

Bien que des travaux menés grâce aux cellules HeLa aient fait l’objet de dépôts de brevets, pendant plusieurs décennies, les descendants d’Henrietta Lacks n’ont reçu aucun dédommagement. Cependant, en 2023, une procédure a abouti à la signature d’un accord entre la famille Lacks et le groupe de biotechnologies Thermo Fischer, dont le montant n’a pas été divulgué.

Des cellules immortelles

HeLa est une lignée de cellules humaines issue d’un cancer du col de l’utérus. Ce sont des cellules épithéliales, semblables à celles qui tapissent normalement la surface des organes ou des muqueuses, à la manière d’un carrelage serré. En culture, elles forment un « tapis » plutôt régulier, se divisent très vite et tolèrent les manipulations répétées.

La particularité de la lignée cellulaire HeLa est d’être une lignée dite « immortelle » : alors que les cellules normales se divisent un nombre limité de fois avant de s’épuiser, les cellules HeLa peuvent, dans de bonnes conditions, être multipliées indéfiniment.

Cette « immortalité » tient à un fonctionnement cellulaire qui transgresse plusieurs mécanismes limitant la durée de vie des cellules normales.

Les cellules HeLa présentent notamment une activité élevée de télomérase : à l’intérieur du noyau des cellules, cette enzyme participe à « réparer » les extrémités des chromosomes qui « s’abîment » à chaque division. Cette activité élevée protège les cellules HeLa d’un des effets délétères du vieillissement.

Leur cycle cellulaire est par ailleurs dérégulé : les freins moléculaires qui empêchent normalement des multiplications cellulaires rapides sont desserrés.

Enfin, sur le plan génétique, plusieurs anomalies (ou aneuploïdie) ont été observées sur les chromosomes lors du séquençage complet de leur ADN : fragments dupliqués, perdus ou réarrangés. Il est établi que ces réarrangements modifient fortement le nombre de copies de nombreux gènes, dont des gènes clés de la prolifération ou de l’activité de la télomérase, ainsi que leur niveau d’expression, ce qui entraîne un comportement différent des cellules HeLa par rapport aux cellules humaines normales.

Ce n’est pas nécessairement problématique si des mécanismes généraux sont étudiés (division cellulaire, réponse au stress, outils de biologie moléculaire), mais ces altérations peuvent constituer un biais s’il est nécessaire par exemple de tirer des conclusions fines sur un tissu sain ou sur tous les cancers en général. Il est donc nécessaire la nécessité de bien caractériser les sous-lignées cellulaires HeLa utilisées (comme nous le verrons plus loin, il existe différentes sortes de cellules HeLa) et de les comparer avec d’autres modèles cellulaires.

Microscopie à fluorescence de cellules HeLa (les microtubules du cytosquelette sont indiqués en magenta et l’ADN, en bleu cyan).
Microscopie à fluorescence de cellules HeLa (les microtubules du cytosquelette sont indiqués en magenta et l’ADN, en bleu cyan).
National Institutes of Health (NIH) / Wikimedia Commons

Pourquoi ces cellules ont‑elles eu autant de succès ?

Trois raisons principales expliquent l’engouement persistant pour ces cellules.

Premièrement, elles constituent un modèle humain pratique : ces cellules expriment des voies de signalisation et des gènes typiques d’un tissu humain, tout en étant robustes, faciles à cultiver et à transfecter, c’est‑à‑dire capables d’intégrer un ADN ou ARN étranger afin de fabriquer une protéine ou de modifier l’expression d’un gène. De fait, la lignée s’est avérée un outil idéal pour tester des concepts, des molécules, ou de nouveaux vecteurs d’expression.

Deuxièmement, ces cellules ont montré une incroyable polyvalence, étant utilisées en virologie, cancérologie, toxicologie et en biologie moléculaire moderne.

Enfin, la lignée HeLa a servi de « langue commune », assurant de choisir un modèle que des centaines d’autres équipes connaissaient. La lignée a servi de « mètre étalon » pour mettre au point des techniques reproductibles, qu’il s’agisse de microscopie, de tests de viabilité ou de cribles à haut débit.

Ce que HeLa a permis de découvrir

Plusieurs exemples emblématiques permettent de comprendre les apports de ces cellules. Dans les années 1950, des millions de tubes de cellules HeLa ont été produits, afin de les infecter avec le virus de la poliomyélite pour l’étudier, et enfin tester un vaccin à grande échelle.

En rendant possibles la culture de grandes quantités de virus et le test systématique de l’efficacité du vaccin, les HeLa ont donc contribué de manière déterminante à la mise au point, la vérification et l’industrialisation rapide d’un vaccin antipoliomyélitique.

Le séquençage du génome HeLa a montré que ces cellules ont intégré de façon incomplète l’ADN de papillomavirus humain (HPV) de type 18. Le HPV est un virus très répandu, transmis surtout par voie sexuelle, dont certains types peuvent provoquer des cancers, dont celui du col de l’utérus, qui coûta la vie à Henrietta Lacks.




À lire aussi :
Papillomavirus et cancers : les éléments pour comprendre la campagne de vaccination dans les collèges


Cette observation a fourni une preuve supplémentaire de certains mécanismes de cancérogenèse, contribuant à établir que des types de HPV jouent un rôle direct dans les cancers du col de l’utérus, ouvrant la voie au développement de vaccins contre les papillomavirus.

La lignée HeLa a également servi de modèle pour comprendre l’action de nombreux agents chimiothérapeutiques. Dans la mesure où ces cellules peuvent aisément intégrer du matériel génétique, elles ont par ailleurs servi de banc d’essai pour de nombreux outils de biologie moléculaire : production de protéines, visualisation de phénomènes cellulaires grâce à des protéines fluorescentes, modification de l’expression de gènes spécifiques.

Soulignons que les caractéristiques des cellules HeLa ont parfois joué des tours aux scientifiques : extrêmement prolifératives et robustes, elles ont parfois envahi des cultures censées provenir d’autres tissus humains, sans que les équipes de recherche s’en rendent immédiatement compte.

Résultat : de nombreuses publications se sont en réalité avérées fondées sur des cellules HeLa non reconnues plutôt que sur la sorte de cellules sur lesquelles les scientifiques pensaient travailler. Cette situation a brouillé l’interprétation de nombreux résultats, attribués à tort à tel ou tel type cellulaire.

La prise de conscience de ces contaminations a conduit à instaurer des tests d’authentification génétique systématiques, ainsi qu’à mettre en place des bases de données de référence, afin de limiter ces erreurs potentielles.

Une lignée « immortelle », mais des cellules qui ne sont plus les mêmes

Malgré l’essor des cellules souches, des organoïdes et d’autres lignées humaines spécialisées, la lignée HeLa n’a pas disparu des laboratoires et reste l’un des modèles les plus utilisés aujourd’hui encore, notamment pour des expériences de « routine » ou pour calibrer de nouveaux protocoles.

Il serait cependant faux de croire que la lignée cellulaire HeLa est restée la même depuis 1951. Il existe aujourd’hui différentes souches de cellules HeLa, provenant de lots de cellules qui partageaient les mêmes caractéristiques initiales, mais ont depuis divergé. L’étude comparative de ces souches révèle qu’elles se distinguent les unes des autres par des anomalies chromosomiques différentes et des disparités dans les profils d’expression génique.

En d’autres termes, des cellules HeLa qui proviennent de deux laboratoires ne sont plus parfaitement identiques : chaque sous‑lignée a accumulé ses propres mutations et réarrangements au fil des passages (un passage désigne l’ensemble des manipulations qui permettent de passer d’une culture mère « vieillissante » à une culture fille « jeune »).

Cette dérive reflète l’instabilité naturelle d’un génome tumoral et l’adaptation continue aux conditions de culture (type de milieu, sérum, densité, stress…). À ce titre, ces cellules HeLa sont donc tout autant des outils de biologie qu’un modèle d’évolution en boîte de culture. Elles constituent un exemple permettant d’analyser la plasticité du génome tumoral.

À la lumière de cette dérive de profils génomiques aberrants, les cellules HeLa sont des modèles dont il faut maintenant interpréter les résultats avec précaution.

Connaître l’histoire de la lignée HeLa et de ses sous-lignées est devenu crucial pour une interprétation correcte des résultats. Pour en tenir compte, la communauté scientifique a largement instauré des tests d’authentification des lignées cellulaires, des bases de données de référence.

Ce que nous apprennent encore les cellules HeLa

Pionnières de la culture de cellules humaines, les cellules HeLa sont donc devenues des standards de laboratoire, pour s’établir en modèle d’instabilité tumorale. Une lignée cellulaire est comparable à une population vivante, qui évolue.

Malgré ses limites, une lignée robuste et bien décrite comme HeLa reste aujourd’hui encore un atout précieux pour tester des hypothèses, des médicaments ou de nouveaux outils de biologie moléculaire, avant de passer aux modèles plus complexes. Plus de sept décennies après leur première mise en culture, les cellules HeLa continuent donc d’occuper une place de choix sur les paillasses des biologistes.

Photo d’une plaque commémorative en mémoire d’Henrietta Lacks, dans l’État de Virginie, aux États-Unis.
Plaque commémorative en mémoire d’Henrietta Lacks, dans l’État de Virginie, aux États-Unis.
Emw / Wikimedia Commons, CC BY-SA

Le fait qu’elles aient été prélevées sans qu’Henrietta Lacks ne soit informée, ni ne donne son accord, constitue en outre un rappel salutaire de l’existence de potentielles dérives en matière de recherche biomédicale.

En matière d’éthique médicale, le cas de cette patiente interroge la façon dont le consentement, la dignité et les droits des patients doivent être respectés lorsque leurs tissus sont utilisés pour faire progresser la science.

The Conversation

Jean-François Bodart ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Cellules HeLa : l’odyssée de la première lignée cellulaire humaine « immortelle » – https://theconversation.com/cellules-hela-lodyssee-de-la-premiere-lignee-cellulaire-humaine-immortelle-275184

Violences dans les clubs français : près de 60 % des sportifs concernés, selon une étude inédite

Source: The Conversation – in French – By Grégoire Bosselut, Maître de Conférences HDR, spécialiste en psychologie sociale appliquée au sport, Université de Montpellier

Près de six sportifs sur dix déclarent avoir subi des violences dans leur club, en France. Psychologiques, physiques, sexuelles ou liées à la négligence, ces agressions restent encore largement invisibles, tant les victimes parlent peu. Une étude menée auprès de plus de 2 200 athlètes offre pour la première fois un portrait précis de ces violences, des profils concernés et des sports le plus à risque.


Le sport est volontiers présenté comme un lieu d’épanouissement, de dépassement de soi et d’apprentissage, de valeurs positives. Pourtant, derrière cette image se cache une réalité moins lumineuse. L’environnement sportif, qu’il soit amateur ou compétitif, peut aussi être le théâtre de violences multiples, de la part des entraîneurs, des bénévoles, des parents mais surtout des autres athlètes. Elles sont trop souvent banalisées ou ignorées. Or, la frontière entre exigences sportives et comportements abusifs reste floue pour beaucoup d’athlètes.

Une réalité massive et encore largement invisible

Notre recherche, menée en France en 2024 auprès de 2 250 athlètes âgés de 14 à 45 ans, apporte un éclairage inédit sur l’ampleur du phénomène dans les clubs sportifs français. Elle révèle que 59 % des participants déclarent avoir vécu au moins une forme de violence depuis leur arrivée dans leur club actuel. De manière plus précise, les violences psychologiques sont les plus fréquentes : insultes, humiliations, cris, menaces ou pression excessive sont rapportés par près de la moitié des sportifs (47 %). Elles sont suivies par la négligence (ne pas s’occuper d’un athlète blessé – 25 %), les violences physiques (coups, étranglements – 23 %) et les violences sexuelles (harcèlement, exhibitionnisme – 21 %). Ces chiffres, déjà considérables, sont probablement en deçà de la réalité, tant les victimes se montrent réticentes à témoigner.

Ces résultats rejoignent ceux d’études menées à l’étranger révélant que les violences psychologiques constituent la forme la plus répandue dans le contexte sportif. Elles apparaissent d’autant plus insidieuses qu’elles peuvent se confondre avec les normes véhiculées dans l’environnement sportif ou avec l’incontournable « force mentale » nécessaire à la performance sportive. On encourage ainsi les athlètes à « s’endurcir », à « accepter la douleur », à « se sacrifier ». Ces injonctions normalisées brouillent les repères et peuvent masquer des comportements abusifs.

L’enquête révèle également que les victimes subissent rarement une violence de manière isolée, mais plutôt une multitude de comportements abusifs qui s’entrecroisent ou se cumulent : 21 % des répondants déclarent avoir vécu à la fois des violences psychologiques et de la négligence, 15 % rapportent des violences psychologiques combinées à des violences physiques, 10 % rapportent à la fois des violences sexuelles et de la négligence et 9 % rapportent des violences psychologiques combinées à des violences sexuelles et de la négligence.

Les sports collectifs et les hommes sont les plus à risque

Les sports collectifs (football, rugby, handball, basket) et les sports de combat apparaissent comme les plus à risque, en particulier pour les violences physiques entre pratiquants, probablement en raison des contacts fréquents, luttes de territoire et dynamiques d’équipe.

Les pratiquants qui apparaissent comme les plus à risque sont les hommes de plus de 20 ans pratiquant un sport collectif, dont 57 % déclarent des violences physiques. À l’inverse, les sports de précision et artistiques, comme le tir à l’arc, la gymnastique rythmique, la danse ou la natation synchronisée, présentent des prévalences nettement plus faibles (7 %).

Plus le niveau augmente, plus la violence se banalise

Notre étude met également en évidence un lien net entre le niveau de pratique sportive et la probabilité d’être victime de violence. Les athlètes de niveau national ou international sont les plus exposés, en particulier aux violences psychologiques, sexuelles et à la négligence. Par exemple, les sportifs de haut niveau de moins de 35 ans rapportent 73 % de violences psychologiques.

Ces chiffres s’expliqueraient par la quête de résultat et d’excellence pouvant créer un climat propice aux excès : pression régulière, normalisation des douleurs physiques et difficultés psychologiques. L’idée que l’objectif de performance prime sur tout tend à justifier des comportements qui, hors du monde sportif, seraient considérés comme inacceptables.

Violences sexuelles : deux profils particulièrement à risque

Les violences sexuelles touchent un cinquième des répondants (21 %), avec deux profils particulièrement exposés.

D’une part, les jeunes adultes âgés de 20 à 34 ans et engagés dans une pratique au niveau départemental ou régional pour qui le taux grimpe à 28 %. Il est possible que la proximité d’âge avec l’encadrement et donc une plus grande familiarité dans les relations contribuent à cette vulnérabilité.

D’autre part, plus d’un tiers des athlètes de haut niveau (32 %), quel que soit leur genre, leur sport, etc., rapportent avoir vécu des violences sexuelles depuis leur arrivée dans leur club. À ce niveau très compétitif, les relations de pouvoir entre entraîneurs et sportifs sont souvent très asymétriques, ce qui peut faciliter l’abus.

Suite (2022), documentaire de la championne de steeple Emma Oudiou sur les violences sexuelles dans l’athlétisme.

Près de 94 % des jeunes athlètes de haut niveau ont subi des violences

Certains groupes cumulent plusieurs formes de violence. Le profil le plus exposé est celui des athlètes de haut niveau âgés de 20 à 24 ans et présents depuis plus de trois ans dans leur club. Seuls 6 % d’entre eux ne rapportent aucune violence, tandis que 14 % déclarent avoir subi les quatre formes de violence.

Un autre groupe très exposé est composé des sportifs régionaux de sports collectifs ayant une ancienneté supérieure à six ans au sein de leur club dont 7 % rapportent avoir vécu les quatre formes de violences.

À l’opposé, les pratiquants non compétitifs de plus de 35 ans engagés dans des sports artistiques ou de précision, comme le tir à l’arc, apparaissent comme les moins touchés (81 % ne rapportent aucune violence).

Pourquoi les victimes se taisent-elles ?

Un phénomène nous a particulièrement interpellés lors de l’étude : les athlètes ayant vécu des violences sont également ceux qui abandonnent le plus souvent le questionnaire au cours de sa passation avant de les avoir toutes déclarées. Ce constat laisse donc penser que ces chiffres de violence sont sous-estimés.

Il est possible que la simple évocation des violences subies déclenche des émotions difficiles à gérer, conduisant les participants à interrompre leurs réponses. Certains peuvent également hésiter à se confronter à leurs souvenirs ou à mettre des mots sur des expériences traumatiques, ce qui entraîne une forme d’évitement. Ce mécanisme de retrait révèle que les violences physiques, négligence et sexuelles, sont probablement sous-estimées dans les données finales, et plus largement dans la littérature actuelle.

Ce biais rappelle qu’un nombre non négligeable de victimes de violences en sport demeure invisible, tant dans les enquêtes que dans la société. Il met en lumière un défi majeur pour les travaux futurs : comment recueillir la parole de ces sportifs en souffrance sans les mettre en difficulté émotionnelle ?

Un enjeu majeur pour le sport français

Notre étude invite à réfléchir aux transformations nécessaires pour que les clubs sportifs, qu’ils soient de niveau compétitif ou non, deviennent des lieux exempts de toute violence : une meilleure formation des éducateurs et des entraîneurs ainsi qu’une plus grande sensibilisation des sportifs quant à ce qui constitue une violence ou non.

Le sport peut et doit rester un espace d’émancipation. Mais pour cela, il doit cesser d’être, pour trop d’athlètes, un espace où les violences – surtout les plus invisibles – sont encore trop souvent tues.

Si vous êtes victime ou témoin d’une violence dans le sport, les services de l’État ont mis en place un mail pour que l’on vous vienne en aide : signal-sports@sports.gouv.fr
Si vous êtes victime ou témoin d’une violence dans le sport, les services de l’État ont mis en place un mail pour que l’on vous vienne en aide : signal-sports@sports.gouv.fr.
Gouvernement français

The Conversation

Grégoire Bosselut est membre de la Société Française de Psychologie du Sport (SFPS).

Elise Marsollier est vice présidente de la Société Française de Psychologie du Sport (SFPS), en charge des enjeux sociétaux.

ref. Violences dans les clubs français : près de 60 % des sportifs concernés, selon une étude inédite – https://theconversation.com/violences-dans-les-clubs-francais-pres-de-60-des-sportifs-concernes-selon-une-etude-inedite-272107

Migration africaine : pourquoi se focaliser sur l’Europe fait rater l’essentiel

Source: The Conversation – in French – By Nadine Biehler, Researcher, German Institute for International and Security Affairs

Les images de canots pneumatiques surchargés de réfugiés se dirigeant vers l’Europe et les récits de mauvais traitements et d’exploitation des migrants sur des routes migratoires dangereuses ont fini par dominer la perception de la migration africaine dans les débats publics et politiques européens.

Ces images laissent penser que tout un continent est en mouvement vers le nord, principalement à cause des conflits. Ces récits sont profondément trompeurs. Néanmoins, ils influencent l’opinion publique et les décisions politiques.

Les craintes d’une migration massive de l’Afrique vers l’Europe sont exagérées. Les données montrent que la migration en provenance d’Afrique a augmenté, mais à un rythme plus lent que celui de croissance de la migration dans le monde entier, et qu’elle se déroule en grande partie sur le continent.

Comme la migration en provenance d’Afrique est principalement perçue comme une crise imminente pour l’Europe, les réponses politiques ont tendance à se concentrer sur le contrôle des frontières et la dissuasion, plutôt que sur la coopération, le potentiel de développement de la migration ou la protection.

Nous sommes des chercheurs travaillant sur la migration, les déplacements forcés et l’analyse de données. Nous avons mis en commun notre expertise dans un nouveau document de travail afin d’analyser les dernières données du Département des affaires économiques et sociales des Nations unies (DAES) sur les migrations mondiales. Nous avons également examiné les données actuelles sur les déplacements forcés.

Nous avons constaté que :

  • la plupart des migrations africaines ont lieu à l’intérieur de l’Afrique

  • la majorité des migrants africains qui traversent les frontières ne fuient pas la violence

  • la grande majorité des personnes contraintes de fuir ne quittent jamais leur propre pays ou région, et encore moins le continent.

Il est essentiel de comprendre ces schémas de mobilité pour élaborer des politiques migratoires européennes plus réalistes et plus efficaces.

Les données

Les estimations du Département des affaires économiques et sociales de l’ONU (DAES) sur les migrations sur lesquelles s’appuie notre article constituent la source de données mondiale la plus complète disponible sur les migrations. Elles mesurent le nombre de migrants vivant dans un pays à un moment donné (données sur les stocks). Cependant, elles ne précisent pas quand ils ont déménagé (données sur les flux) ni pourquoi. De plus, les chiffres du DAES excluent les mouvements à l’intérieur des pays.

Notre article complète ces estimations avec des données fournies par l’Agence des Nations Unies pour les réfugiés et le Centre de surveillance des déplacements internes sur les déplacements forcés. Cela inclut les déplacements internes, particulièrement répandus en Afrique.

Cette étude a révélé que la plupart des migrations africaines ont lieu à l’intérieur de l’Afrique.

À l’échelle mondiale, on comptait environ 304 millions de migrants internationaux en 2024. Les Africains représentaient environ 15 % de ce total.

En d’autres termes, la majorité des migrants dans le monde ne sont pas originaires d’Afrique.

Ce qui est encore plus frappant, c’est la destination des migrants africains.

En 2024, environ 25 millions d’Africains vivaient dans un pays africain autre que celui où ils étaient nés ou dont ils avaient la nationalité. Ce chiffre dépassait d’environ 21 % le nombre d’Africains vivant hors du continent (20,7 millions).

Cela signifie que la migration africaine est principalement intracontinentale, une tendance de longue date qui s’est encore accentuée au fil du temps.

Plusieurs facteurs permettent d’expliquer cette situation.

Les voyages en Afrique sont souvent moins chers et plus sûrs que les voyages vers d’autres continents. Les accords régionaux de libre circulation, tels que ceux conclus en Afrique de l’Ouest et de l’Est, facilitent la mobilité transfrontalière. Dans le même temps, les voies légales vers l’Europe, l’Amérique du Nord ou l’Asie restent limitées et coûteuses pour la plupart des Africains, avec des taux de rejet de visas élevés et peu de possibilités de migration régulière.

La migration africaine est également liée au genre. Les hommes sont plus susceptibles de migrer que les femmes, en particulier lorsqu’ils quittent le continent. Cet écart est moins important pour les migrations au sein de l’Afrique. Cela suggère que des voies légales plus accessibles et des voyages moins dangereux contribuent à surmonter les obstacles à la migration pour les femmes.

Déplacements forcés

Les guerres et les conflits obligent de plus en plus de personnes à quitter leur foyer dans le monde entier, et l’Afrique ne fait pas exception.

À la fin de 2024, plus de 120 millions de personnes dans le monde avaient été déplacées de force par la guerre et la violence. Cependant, la majorité d’entre elles (73,5 millions, soit 60 % des personnes déplacées de force dans le monde) n’ont jamais quitté leur propre pays pour demander l’asile ailleurs. Elles sont restées déplacées à l’intérieur de leur pays d’origine.

Cette réalité est particulièrement marquée en Afrique qui concentre près de la moitié des déplacés dans le monde.

Le Soudan et la République démocratique du Congo représentent près de 80 % des déplacements internes en Afrique.

Même lorsque les Africains franchissent les frontières pour chercher protection, ils restent généralement près de chez eux.

En 2024, près de 87 % des 12,2 millions de réfugiés et de demandeurs d’asile africains dans le monde vivaient sur le continent africain. Seule une petite minorité a cherché refuge en dehors de l’Afrique.

Cela remet en question l’idée répandue selon laquelle les déplacements forcés en Afrique se traduisent automatiquement par une migration massive vers l’Europe.

En réalité, ce sont les pays voisins, souvent eux-mêmes touchés par la pauvreté ou l’instabilité, et parfois à la fois pays d’origine et de destination des personnes déplacées de force, qui assument la plus grande partie de la responsabilité d’accueillir les populations déplacées.

Même en tenant compte des scénarios de déplacement futurs liés à la crise climatique, la Banque mondiale estime que les personnes touchées resteront dans leur région.

Néanmoins, tant au niveau mondial qu’en Afrique, la migration volontaire domine : sur les 45,8 millions de migrants africains dans le monde, les réfugiés et les demandeurs d’asile représentent 12,2 millions.

Cela vaut également pour la migration africaine vers les pays de l’Union européenne, où les permis de séjour pour raisons professionnelles, éducatives ou familiales (2024 : environ 670 000) dépassent largement les premières demandes d’asile (2024 : environ 240 000).

Pourquoi ces conclusions sont importantes

Tout d’abord, les données montrent clairement que la migration africaine ne concerne pas principalement l’Europe. Elle concerne avant tout l’Afrique elle-même. Pour les décideurs politiques européens et ceux d’autres pays du Nord, nos conclusions suggèrent la nécessité de repenser les priorités. Soutenir les pays d’accueil des réfugiés en Afrique, élargir les voies de migration légales et investir dans des données fiables sur la migration peuvent garantir une gestion plus efficace de la migration. Se concentrer uniquement sur la dissuasion n’est pas approprié.

Deuxièmement, nos conclusions soulignent l’importance des pays et des régions africains en tant que destinations migratoires et États d’accueil des réfugiés. Des pays tels que l’Ouganda, la Côte d’Ivoire, l’Afrique du Sud ou le Nigeria accueillent des millions de migrants et de réfugiés, souvent avec des ressources bien moindres que les États plus riches en matière d’intégration et de protection.

Pour les gouvernements africains, cela signifie qu’il faut continuer à renforcer les cadres régionaux et continentaux de mobilité. Ceux-ci permettraient aux personnes de se déplacer en toute sécurité et légalement pour des raisons professionnelles, éducatives ou familiales. La migration intra-régionale est déjà l’épine dorsale de la mobilité africaine. Elle devrait le rester.

Troisièmement, l’analyse démontre que les données du DAES sont indispensables mais incomplètes. Elles excluent la migration interne, la migration sans papiers et de nombreuses formes de mobilité temporaire ou circulaire courantes en Afrique. Les réductions budgétaires imposées aux institutions internationales de collecte de données risquent d’affaiblir encore davantage l’élaboration de politiques fondées sur des données probantes.

Il est essentiel de comprendre comment les personnes se déplacent réellement – et pourquoi – pour concevoir des politiques migratoires équitables et réalistes.

The Conversation

Nadine Biehler travaille à la SWP pour le projet de recherche « Politique stratégique en matière de réfugiés et de migration », financé par le ministère fédéral allemand de la Coopération économique et du Développement (BMZ).

Emma Landmesser travaille à la SWP pour le projet de recherche « Politique stratégique en matière de réfugiés et de migration », financé par le ministère fédéral allemand de la Coopération économique et du Développement (BMZ).

Rebecca Majewski does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Migration africaine : pourquoi se focaliser sur l’Europe fait rater l’essentiel – https://theconversation.com/migration-africaine-pourquoi-se-focaliser-sur-leurope-fait-rater-lessentiel-274919

Comment mesurer la précarité énergétique ?

Source: The Conversation – in French – By Dorothée Charlier, Maîtresse de conférences en économie de l’énergie et de l’environnement, IREGE, IAE Savoie Mont Blanc

La précarité énergétique est un phénomène bien réel, mais difficile à cerner précisément. Selon la manière dont elle est mesurée, certaines personnes peuvent ne pas être reconnues comme concernées et passer à côté des dispositifs d’aide, qu’il s’agisse de se chauffer correctement en hiver ou de se protéger de la chaleur en été.


Alors que la hausse durable des prix de l’énergie et le changement climatique accentuent les situations d’inconfort thermique, la précarité énergétique s’impose comme un enjeu social majeur en France et en Europe. Les chiffres abondent – ménages consacrant une part élevée de leurs revenus à l’énergie, ménages ayant eu froid chez eux, situations d’impayés ou de restrictions de chauffage – et nourrissent une inquiétude légitime.

Pourtant, cette visibilité croissante masque une réalité plus complexe : selon l’indicateur mobilisé, on ne désigne pas toujours les mêmes ménages comme « précaires », et une partie importante de la population demeure invisible aux yeux des politiques publiques. Alors comment bien mesurer la précarité énergétique ?

Définir la précarité énergétique : un consensus fragile

En France, la précarité énergétique fait l’objet d’une définition juridique depuis l’article 11 de la loi Grenelle II de 2010, qui la caractérise comme la difficulté pour un ménage de satisfaire ses besoins énergétiques essentiels en raison d’une combinaison de facteurs, notamment des revenus insuffisants, des logements peu performants sur le plan énergétique et des prix élevés de l’énergie.

Cette définition, reprise et largement mobilisée dans les travaux statistiques et les politiques publiques, est proche de celle retenue au niveau européen, qui insiste également sur l’incapacité des ménages à accéder à des services énergétiques essentiels à un coût abordable. Elle a le mérite de souligner le caractère fondamentalement multidimensionnel du phénomène.

Pourtant, dans la pratique, cette richesse conceptuelle est souvent réduite à un ou deux indicateurs simples, principalement fondés sur les dépenses énergétiques.

En France, un ménage est fréquemment considéré comme précaire lorsqu’il consacre plus de 8 ou 10 % de ses revenus à l’énergie et appartient aux ménages à bas revenus. Ces indicateurs présentent des avantages évidents, simplicité de calcul, comparabilité dans le temps et lisibilité pour le grand public. Mais leurs limites sont désormais bien établies. Ils mesurent les dépenses réalisées plutôt que les besoins réels, et ignorent les stratégies de restriction adoptées par de nombreux ménages en difficulté, dont les factures peuvent sembler modérées bien qu’ils subissent un inconfort élevé.

Par exemple, en France, près de 35 % des personnes déclarent avoir souffert du froid dans leur logement au cours de l’hiver 2024-2025, selon le dernier tableau de bord de l’Observatoire national de la précarité énergétique (ONPE).

QU’EST CE QUE L’ONPE ?

  • Créé en 2011 à la suite de la loi Grenelle II, l’Observatoire national de la précarité énergétique (ONPE) est une instance partenariale de référence chargée de produire une connaissance partagée, de suivre l’évolution de la précarité énergétique et d’éclairer les politiques publiques dans les domaines du logement et de la mobilité.

Dans la même édition, une proportion significative de ménages déclare avoir restreint volontairement le chauffage pour éviter des factures élevées, illustrant comment les stratégies d’adaptation peuvent rendre invisibles aux yeux des statistiques officielles des situations pourtant difficiles.

À l’inverse, certains ménages apparaissent comme précaires au regard de leurs dépenses, alors même qu’ils vivent dans des logements confortables mais énergivores, sans subir de privations. Il s’agit notamment de ménages aux revenus relativement élevés, vivant dans des logements gourmands en énergie pour lesquels une facture importante reste compatible avec le niveau de vie.

Plus généralement, ces situations rappellent que les indicateurs fondés sur des seuils, qu’il s’agisse de dépenses ou de température intérieure, sont imparfaits : une même température peut être vécue comme acceptable par certains, par choix ou par habitude, et comme inconfortable par d’autres, selon les préférences, l’âge ou l’état de santé.

Pour dépasser les limites des indicateurs fondés sur les dépenses, les indicateurs dits « subjectifs » ont progressivement pris de l’importance. Ils reposent sur le ressenti des ménages et sur des situations concrètes telles que le fait d’avoir eu froid chez soi, d’être en situation d’impayés ou de vivre dans un logement humide ou dégradé.

Leur principal avantage est de rendre visibles des formes de privation réelle, indépendamment du niveau de dépenses observé, et de capter des dimensions invisibles dans les données comptables, comme l’inconfort, le stress ou les effets sur la santé. Toutefois, ces indicateurs présentent eux aussi des limites, car les réponses dépendent fortement des normes sociales, des attentes individuelles et de la capacité à exprimer une difficulté, ce qui peut conduire à des sous ou sur déclarations selon les franges de la population.

Consciente de ces enjeux, la France a donc fait le choix de ne pas s’appuyer sur un indicateur unique, mais sur un panier d’indicateurs, à l’image du tableau de bord de l’ONPE. Celui-ci combine des indicateurs de dépenses, de restrictions, de ressenti et d’impayés, reconnaissant ainsi le caractère multidimensionnel de la précarité énergétique. Cette approche constitue un progrès important, mais elle soulève une difficulté persistante : comment interpréter simultanément ces signaux et les traduire en décisions opérationnelles lorsque les ménages ne sont concernés que par certaines dimensions et pas par d’autres ?

Le piège du binaire : une vision trop rigide d’un phénomène continu

Être précaire ou ne pas l’être ? La plupart des indicateurs actuels reposent sur une logique binaire : un ménage est classé soit comme précaire, soit comme non précaire, en fonction du dépassement d’un seuil. Cette approche est rassurante, car elle permet de compter, de comparer, de cibler. Mais elle repose sur une hypothèse implicite discutable : celle d’une frontière nette entre les ménages « en difficulté » et les autres.

Or, la réalité est bien différente. La précarité énergétique est un processus, non un état figé. Elle peut être transitoire, s’aggraver progressivement par exemple avec la hausse des prix de l’énergie, ou au contraire être contenue par des stratégies d’adaptation. De nombreux ménages se situent dans une zone intermédiaire : ils ne remplissent pas les critères statistiques de la précarité, mais ils vivent sous une contrainte permanente, exposés au moindre choc.

C’est dans ce contexte qu’émerge la notion de vulnérabilité énergétique. Elle ne désigne pas une situation actuelle de privation, mais un risque de basculer dans la précarité à la suite d’un événement : hausse des prix, perte de revenus, problème de santé, épisode climatique extrême. Cette approche permet de dépasser la logique du « tout ou rien » et de s’intéresser aux trajectoires des ménages. Elle met en lumière une population souvent invisible dans les statistiques classiques, mais pourtant essentielle à considérer si l’on veut prévenir plutôt que réparer.

L’importance des choix de mesure apparaît nettement lorsque l’on considère les ménages les plus modestes : en 2022, parmi les 10 % les plus pauvres de la population, près de 69 % des ménages seraient en situation de précarité énergétique en l’absence à la fois du bouclier tarifaire et du chèque énergie. Cette proportion tombe à 62 % avec le seul bouclier tarifaire, puis à environ 43 % lorsque le bouclier et les chèques énergie sont pris en compte, illustrant combien les dispositifs publics et les conventions de mesure modifient l’ampleur statistique du phénomène.

Mesurer autrement : apports des approches multidimensionnelles

Une première manière de renouveler la mesure de la précarité énergétique consiste donc à recourir à des indicateurs « dits » composites. L’idée est de ne plus se limiter à un seul critère, mais de regrouper plusieurs dimensions du problème dans un indicateur unique. Celui-ci peut par exemple prendre en compte à la fois le niveau de revenu des ménages, la qualité énergétique de leur logement, leurs difficultés à payer les factures, les restrictions de chauffage ou encore l’inconfort thermique ressenti.

Cette approche se distingue des méthodes qui juxtaposent plusieurs indicateurs séparés, comme celles utilisées par l’ONPE. Ici, les différentes dimensions de la précarité énergétique sont combinées dans un même outil, ce qui permet d’avoir une vision plus globale des situations.

Inspirée des travaux sur la pauvreté multidimensionnelle, cette méthode aide à mieux comparer les ménages entre eux et à identifier plus finement ceux qui sont les plus exposés.

L’INDICE DE PAUVRETÉ MULTIDIMENSIONNELLE

  • Mesurer la pauvreté avec un seul indice, par exemple le revenu, présente un risque : celui de n’avoir qu’une image partielle du phénomène. Pour ne pas invisibiliser certaines populations qui subissent ce fléau, l’indice de pauvreté multidimensionnelle, créé à l’Université d’Oxford en 2010 et utilisé dès cette année-là par le Programme des Nations unies pour le développement (PNUD), compile dix indices : la mortalité infantile, la nutrition, les années de scolarité, la sortie de scolarité, l’électricité, l’eau potable, les sanitaires, le sol de l’habitat, le combustible utilisé pour cuisiner, les biens mobiliers.

Par exemple, un ménage aux revenus modestes vivant dans un logement mal isolé, qui limite fortement son chauffage pour contenir ses factures et déclare un inconfort thermique, peut ne pas dépasser individuellement les seuils de dépenses ou de température retenus par les indicateurs classiques, mais apparaître clairement comme précaire lorsqu’on combine ces différentes dimensions au sein d’un indicateur composite.

Mais ces indicateurs ne sont pas sans limites. Ils reposent sur des choix normatifs, parfois peu visibles, notamment sur l’importance accordée à chaque dimension. Par exemple, le poids accordé aux dépenses énergétiques par rapport à l’inconfort thermique ou à la qualité du logement peut conduire à classer différemment deux ménages aux situations pourtant proches, selon que l’on privilégie une contrainte budgétaire, une privation ressentie ou une vulnérabilité structurelle. Ces choix donc restent en partie arbitraires et peuvent limiter l’appropriation de ces indicateurs par les acteurs publics et la compréhension du phénomène par le grand public.

Une autre manière d’aborder la précarité énergétique, de plus en plus utilisée en sciences sociales, consiste à recourir à des méthodes de classification statistique. Leur principe est simple : au lieu de décider à l’avance à partir de quel seuil un ménage est considéré comme « précaire », ces méthodes commencent par regrouper les ménages qui se ressemblent, en tenant compte simultanément de plusieurs dimensions de leur situation.

Concrètement, les ménages sont classés en fonction de caractéristiques observées comme le type de logement, le niveau des dépenses d’énergie, les difficultés de paiement, les restrictions de chauffage ou encore l’inconfort thermique. Les méthodes de classification rassemblent ainsi des personnes aux profils proches, sans imposer au préalable de seuils arbitraires sur chacun de ces indicateurs.

Ce n’est qu’ensuite que l’on interprète les groupes obtenus. On observe alors qu’ils correspondent assez clairement à des situations distinctes : des ménages sans difficulté particulière, des ménages vulnérables, et des ménages en situation de précarité énergétique avérée. Ces groupes présentent non seulement des points communs sur les critères utilisés pour les classer, mais aussi sur d’autres caractéristiques sociales ou économiques, comme la composition familiale ou le type de territoire.

Ces méthodes permettent ainsi de mieux comprendre les différentes formes de précarité énergétique, et de dépasser une approche trop rigide fondée uniquement sur des seuils souvent arbitraires.

Pourquoi mesurer la précarité énergétique restera toujours difficile

Même avec des outils plus sophistiqués, mesurer la précarité énergétique restera un exercice délicat. Les besoins énergétiques varient selon le climat, la composition du ménage, l’état de santé, l’âge, ou encore les normes culturelles. Ce qui constitue un inconfort pour certains peut être perçu comme acceptable pour d’autres.

Les ménages en difficulté effectuent souvent des arbitrages complexes entre différentes dépenses essentielles : se chauffer, se nourrir, se déplacer, se soigner. Ces arbitrages sont difficiles à observer dans les données et échappent en grande partie aux indicateurs traditionnels.

Plutôt que de chercher une mesure unique et définitive, l’enjeu est donc de construire des outils capables d’éclairer la diversité des situations et des trajectoires. Dans un contexte de transition énergétique et de dérèglement climatique, mieux mesurer la précarité énergétique devient moins une question de précision statistique qu’une nécessité pour anticiper, prévenir et adapter les politiques publiques.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Comment mesurer la précarité énergétique ? – https://theconversation.com/comment-mesurer-la-precarite-energetique-273860

Surmonter la rumination mentale : quand la méditation aide les proches aidants

Source: The Conversation – in French – By Anna Andrianova, Candidate au Ph.D. et chargée de cours, Université Laval

La méditation n’efface pas les contraintes objectives associées au rôle de la personne proche aidante, mais elle offre un espace mental de répit et des outils concrets pour y faire face. (Andrea Piacquadio/Pexels), CC BY

Un adulte québécois sur trois soutient un proche en perte d’autonomie, souvent sans même savoir qu’il joue ce rôle. Alors que le Canada amorce un virage démographique majeur, il devient urgent de reconnaître la détresse des proches aidants et de leur offrir des solutions concrètes. Parmi elles, la méditation émerge comme une piste prometteuse.


Québec a lancé la semaine dernière une nouvelle Politique nationale de soutien à domicile qui va bonifier de 107 millions de dollars au budget existant des services de soutien à domicile. Certains personnes proches aidantes (PPA) pourront ainsi toucher un revenu.

En prenant soin au quotidien d’un parent âgé, d’un conjoint malade ou d’un enfant handicapé, ces personnes proches aidantes (PPA) accumulent souvent fatigue, anxiété et pensées négatives répétitives (PNR), c’est-à-dire des ruminations ou des inquiétudes récurrentes.

Notre groupe de chercheurs faisons partie de l’équipe de recherche de l’étude Mind‑AID, qui vise à vérifier de façon scientifique comment la pratique de la méditation peut aider à soulager les proches aidants accompagnant un proche vivant avec la maladie d’Alzheimer ou un autre trouble neurocognitif. Mind-AID invite des volontaires à suivre un programme de méditation guidée, sur huit semaines, tout en participant à des évaluations de leur bien-être psychologique.


Cet article fait partie de notre série La Révolution grise. La Conversation vous propose d’analyser sous toutes ses facettes l’impact du vieillissement de l’imposante cohorte des boomers sur notre société, qu’ils transforment depuis leur venue au monde. Manières de se loger, de travailler, de consommer la culture, de s’alimenter, de voyager, de se soigner, de vivre… découvrez avec nous les bouleversements en cours, et à venir.


Le fardeau caché des PPA

Au Québec, on appelle PPA les gens qui, sans en faire une profession ni une activité de bénévolat encadré, prennent soin d’un proche en raison d’une maladie, d’un handicap ou du grand âge. La loi 56, adoptée en 2020, entérine d’ailleurs cette appellation et vise à mieux les reconnaître et les soutenir.

Souvent, il s’agit d’un rôle assumé dans l’ombre du quotidien.

Plus la PPA consacre d’heures à aider, plus sa qualité de vie se dégrade : irritabilité, troubles du sommeil, culpabilité et symptômes dépressifs apparaissent. Le stress chronique déclenche une cascade menant à l’usure physique et mentale, à l’anxiété, voire à un risque accru de maladies cardiovasculaires ou de dépression clinique.

Prendre soin d’autrui peut donc gravement nuire à sa propre santé – un paradoxe auquel le Québec répond désormais par une politique et un plan d’action dédiés.

Prisonniers des pensées : la spirale de la rumination

Au-delà des contraintes pratiques, beaucoup des personnes proches aidantes sont piégées par leurs pensées : elles ressassent la journée passée ou anticipent les problèmes à venir.

Ces pensées négatives répétitives – rumination sur le passé ou inquiétudes tournées vers l’avenir – constituent un processus impliqué dans la dépression, l’anxiété et le stress post-traumatique.

Elles perturbent le sommeil, diminuent l’attention et, à long terme, peuvent altérer le cerveau et accroître le risque de maladie d’Alzheimer. Chez les proches aidants, ces pensées négatives agissent comme un mécanisme clé transformant le stress en détresse psychologique; apprendre à les réguler est donc essentiel.

La méditation pleine conscience à la rescousse

La méditation pleine conscience consiste à porter une attention sans jugement à l’instant présent, souvent via l’observation de la respiration. Des centaines d’études montrent qu’elle réduit la rumination : la méditation désactive partiellement le «mode par défaut» du cerveau, réseau activé lorsque l’esprit vagabonde.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Le programme MBSR (Mindfulness-Based Stress Reduction) de Jon Kabat-Zinn a popularisé cette approche dès les années 1980. Depuis, les interventions basées sur la méditation pleine conscience ont prouvé leur efficacité pour diminuer stress, anxiété et symptômes dépressifs. Chez les personnes proches aidantes, des essais pilotes révèlent une baisse de la détresse psychologique, une meilleure régulation émotionnelle et même des améliorations physiologiques (p. ex. marqueurs d’inflammation).

La méditation n’efface pas les contraintes objectives du rôle de PPA, mais elle offre un espace mental de répit et des outils concrets pour y faire face.

Mind-AID : la recherche au service de ceux qui aident

L’objectif de notre recherche est double : d’une part, offrir aux personnes proches aidantes une occasion de prendre soin d’elles-mêmes grâce à la méditation pleine conscience; d’autre part, générer des connaissances pour mieux les soutenir. Mind-AID s’inscrit ainsi dans les efforts plus larges déployés au Québec pour reconnaître et appuyer les PPA, en innovant du côté des interventions psychosociales.

Les résultats de l’étude permettront de déterminer si la méditation pleine conscience peut effectivement réduire les PNR et améliorer des indicateurs clés comme l’anxiété, la dépression ou la qualité de vie. En cas de succès, cette approche pourrait être déployée à plus grande échelle via le réseau de la santé et des services sociaux et des organismes communautaires.

Le programme comporte trois volets: de courtes vidéos éducatives, des séances de méditation et des exercices informels conçus pour s’intégrer facilement au quotidien exigeant des PPA.

Des ressources existent

La méditation pleine conscience pourrait être une piste à explorer pour apprivoiser ce tourbillon mental et prévenir l’épuisement psychologique.

Bien sûr, ce n’est pas une baguette magique. Il faut du temps et de la pratique pour en ressentir les effets. Mais les témoignages comme les études scientifiques suggèrent qu’apprendre à «lâcher prise» sur ses pensées est possible – et porteur d’espoir.

Le projet Mind-AID se donne pour mission d’apporter des solutions concrètes à ces enjeux. En introduisant la méditation pleine conscience dans la boîte à outils des PPA, il mise sur un levier d’action interne encore sous-exploité : la capacité de chacun à entraîner son esprit pour mieux résister au stress.

Et si prendre soin de soi devenait la première étape pour mieux prendre soin des autres ? Pas d’obligation de performance : juste l’invitation à faire une pause et redécouvrir le soin de soi – une respiration à la fois.

La Conversation Canada

Anna Andrianova est travailleuse sociale, membre de l’Ordre professionnel des travailleurs sociaux et des thérapeutes conjugaux et familiaux du Québec. Elle a obtenu plusieurs bourses de recherche prestigieuses, dont la Bourse d’études supérieures du Canada au niveau doctoral (BESC D) des Instituts de recherche en santé du Canada (IRSC), une bourse doctorale du Fonds de recherche du Québec – Société et culture (FRQSC), la bourse de formation du Partenariat AGE-WELL–EPIC-AT, remise en collaboration avec le Réseau québécois de recherche sur le vieillissement (RQRV), une bourse du Réseau de recherche en santé des populations du Québec, la bourse d’excellence Nicolas-et-Suzanne-Zay et la bourse doctorale François-et-Rachel-Routhier de la Faculté des sciences sociales de l’Université Laval, ainsi que des bourses du Centre de recherche et d’expertise en gérontologie sociale (CREGÉS) et du Centre de recherche VITAM – Centre de recherche en santé durable.

Sophie Ethier est chercheure et professeure titulaire à l’École de travail social et de criminologie de l’Université Laval. Elle reçu un financement du ministère de l’Économie, de l’Innovation et de l’Énergie du Québec pour financer cette étude.

Julie Bernier-Carbonneau, Mathieu Boisvert et Olga Babina ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. Surmonter la rumination mentale : quand la méditation aide les proches aidants – https://theconversation.com/surmonter-la-rumination-mentale-quand-la-meditation-aide-les-proches-aidants-255702

Pourrait-on faire fonctionner des data centers dans l’espace ?

Source: The Conversation – in French – By David Monniaux, Chercheur en informatique, Centre national de la recherche scientifique (CNRS), Université Grenoble Alpes (UGA)

Différents acteurs de la tech envisagent d’utiliser des satellites pour faire des calculs. En d’autres termes, il s’agit d’envoyer des data centers dans l’espace. Est-ce réaliste ? Un informaticien fait le point.


On parle de l’idée d’installer dans l’espace, en orbite, des data centers destinés à l’intelligence artificielle. Par exemple, en novembre 2025, Google annonçait son projet Suncatcher.

Quel crédit accorder à cette proposition ? Je vais d’abord expliquer les difficultés techniques qui font que cela semble très compliqué et coûteux pour un avantage peu clair, avant de formuler des hypothèses sur les raisons qui motivent ces annonces.

L’intelligence artificielle, c’est beaucoup de calcul

L’apprentissage automatique à grande échelle est au cœur des applications d’intelligences artificielles (IA) génératives (ChatGPT et consorts). Pour cela, il faut beaucoup de processeurs de calcul, qui consomment de l’électricité et rejettent sous forme de chaleur l’énergie ainsi consommée. Sur Terre, un grand data center de calculs d’intelligence artificielle peut consommer 100 mégawatts (MW) et au-delà ; on a même projeté la construction de data centers à 1 000 MW.

Dans l’espace, du point de vue technique, se posent alors quatre problèmes :

  • les composants électroniques sont irradiés par les rayons cosmiques, ce qui peut causer des pannes ;

  • il faut produire de l’électricité ;

  • il faut évacuer la chaleur produite ;

  • les installations ne sont pas aisément accessibles pour intervenir.

Les radiations perturbent les composants électroniques

Récemment, un Airbus A320 a fait une embardée dans le ciel, car son informatique de commande avait été touchée par des rayons cosmiques. En effet, dans l’espace et, dans une moindre mesure, en altitude (les avions de ligne volent à une dizaine de kilomètres d’altitude), l’électronique est soumise à un rude régime.

Les rayonnements cosmiques peuvent au pire détruire certains composants, au mieux perturber temporairement leur fonctionnement. Pour cette raison, les fournisseurs conçoivent pour équiper les engins spatiaux des processeurs spéciaux résistant aux rayonnements, par exemple le LEON et le NOEL-V, mais ceux-ci ont des performances de calcul modestes (par exemple, le NOEL-V, pourtant moderne, est environ dix fois plus lent qu’un seul cœur de mon ordinateur portable, qui en comporte 12). Si l’on utilise dans l’espace des composants destinés à des applications terrestres conventionnelles, les radiations peuvent provoquer des pannes qui nécessitent des redémarrages de chaque processeur, allant d’une fois toutes les quelques semaines à plusieurs fois par jour, suivant les conditions d’utilisation, d’autant plus fréquemment que le processeur est gravé finement (haute performance).

Produire suffisamment d’électricité

Les géants de la tech parlent actuellement de construire des data centers terrestres consommant de l’ordre de 1 000 MW. À titre de comparaison, les réacteurs de centrales nucléaires françaises ont des puissances électriques nominales (ce qu’elles peuvent produire à 100 % de leur puissance normale d’utilisation) entre 890 MW et 1 600 MW. En d’autres termes, un tel data center consommerait complètement la puissance d’un des petits réacteurs français.

Or, dans l’espace, pour produire de l’électricité, il faut utiliser des panneaux solaires ou des procédés plus exotiques et peu utilisés – microréacteur nucléaire ou générateur à radioéléments, ces derniers étant utilisés pour des sondes partant vers des régions éloignées du Soleil et où il serait donc difficile d’utiliser des panneaux solaires.

Aujourd’hui, les panneaux solaires de la Station spatiale internationale produisent environ 100 kilowatt (kW) de puissance, autrement dit 1 000 fois moins que ce que consomme un data center de 100 MW. Suivant l’orbite, il peut être nécessaire de gérer les périodes où le satellite passe dans l’ombre de la Terre avec des batteries (qui ont une durée de vie limitée), ou accepter que chaque satellite ne fonctionne qu’une partie du temps, ce qui pose d’autres problèmes.

Évacuer la chaleur

Il peut paraître surprenant, vu le froid de l’espace, qu’il soit difficile d’y évacuer de la chaleur. Sur Terre, nous évacuons la chaleur des data centers directement dans l’air, ou encore via des liquides pour ensuite restituer cette chaleur à l’air via une tour de refroidissement. Dans l’espace, il n’y a pas d’air à qui transférer de la chaleur, que ce soit par conduction ou par convection.

Ainsi, la seule façon d’évacuer de la chaleur dans l’espace est le rayonnement lumineux qu’émet tout objet. Quand un objet est très chaud, comme du fer chauffé à blanc, ce rayonnement est intense (et en lumière visible). En revanche, pour des objets tels qu’un ordinateur en fonctionnement ou un corps humain, ce rayonnement (en lumière infrarouge, invisible aux yeux humains mais visible à l’aide de caméras spéciales), est peu intense. Il faut donc de grandes surfaces de radiateurs pour disperser de la chaleur dans l’espace. Organiser l’évacuation de chaleur n’a rien d’évident dans un satellite…

Des problèmes très terre-à-terre

Venons-en à des problèmes plus pratiques. Quand on a un problème dans un data center sur Terre, on envoie un·e technicien·ne. Dans l’espace, cela impliquerait une mission spatiale. Certes, certaines tâches pourraient être accomplies par des robots, mais on est à des ordres de grandeur de complications par rapport à une maintenance dans un bâtiment terrestre. Or, les panneaux solaires et les autres composants ont une durée de vie limitée. Enfin, communiquer avec un satellite est plus compliqué et offre un moindre débit que d’installer un raccordement fibre optique dans une zone bien desservie sur Terre.

Bien entendu, il y aurait également la question de la masse considérable de matériel à transférer en orbite, celle du coût des lancements et de l’assemblage.

On peut également évoquer la pollution, pour l’observation astronomique, du ciel par le passage de constellations de satellites, ainsi que la pollution des orbites par les débris des satellites détruits.

En résumé, même s’il était éventuellement possible techniquement de faire des calculs d’intelligence artificielle dans un satellite en orbite (ou sur une base lunaire), cela serait à un coût considérable et au prix de grandes difficultés. Dans les propos de ceux qui annoncent des data centers spatiaux, on peine à trouver une bonne raison à tant de complications. Parmi certaines justifications avancées, celle d’échapper dans l’espace aux législations des États.

Pourquoi donc parler de mettre des data centers en orbite ?

La question intéressante, plutôt que de savoir s’il serait possible de faire un centre de calcul IA dans l’espace, est donc de savoir à qui cela profite de parler dans les médias de projets relevant plus de la science-fiction que du développement industriel réaliste. Il est bien entendu périlleux de prétendre identifier les objectifs derrière les actes de communication, mais nous pouvons fournir quelques hypothèses.

L’industrie spatiale états-unienne, notamment SpaceX, nourrit l’idée de l’espace comme dernière frontière, avec en ligne de mire l’installation sur Mars, voire la colonisation de cette planète – qu’importe qu’elle soit froide (- 63 °C en moyenne à l’équateur), à l’atmosphère très ténue, et sans protection contre le rayonnement cosmique, autrement dit très hostile à la vie.

L’industrie de l’intelligence artificielle, quant à elle, nourrit l’idée du dépassement du cerveau humain.

Ces deux industries ont un besoin intense de capitaux – par exemple, OpenAI a une dette de 96 milliards de dollars (81,2 milliards d’euros). Pour les attirer, elles ont besoin de récits qui font rêver. Toutes deux créent la « fear of missing out » (ou FOMO), la peur de passer à côté d’une évolution importante et de devenir obsolètes.

D’ailleurs, cette communication fonctionne. La preuve, j’ai rédigé cet article qui, même si c’est pour expliquer à quel point ces projets sont irréalistes, leur accorde une publicité supplémentaire…

The Conversation

David Monniaux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Pourrait-on faire fonctionner des data centers dans l’espace ? – https://theconversation.com/pourrait-on-faire-fonctionner-des-data-centers-dans-lespace-274582