Why Canada must step up to protect children in a period of global turmoil

Source: The Conversation – Canada – By Catherine Baillie Abidi, Associate Professor, Child & Youth Study, Mount Saint Vincent University

Over half a billion children are now living in conflict zones, according to a 2025 Save the Children report, and the world is turning its back on them.

At a time of unprecedented global insecurity, funding and resources to care for, protect and engage with children affected by armed violence continue to decline.

The Donald Trump administration’s recent announcement of unprecedented American cuts to funding for international organizations — including reductions to the United Nations Offices of the Special Representatives of the Secretary-General for Children in Armed Conflict and on Violence Against Children — further undermines an already fragile system.

Cuts like these can have a devastating effect on some of the world’s most vulnerable populations, undermining important work to identify and prevent violations against children, and to assist children in rebuilding their lives in the aftermath of violence. Canada cannot sit on the sidelines.

Preventing violence against children

Violence against children is a global crisis. Without a seismic shift in how states take action to prevent such violence, the costs will continue to impact people around the world.

As a global community, we have a collective responsibility to build communities where children are not only safe and thriving, but where their capacity and agency as future peace-builders, leaders and decision-makers in their families, schools and communities are built upon and nurtured in wartime and post-conflict societies. These are core responsibilities that the global community is failing at miserably.

As many as 520 million war-affected children deserve better.

Canada has a long history of serving as a champion of children’s rights in armed conflict. Canadians have led global initiatives, including leading the first International Conference on War-affected Children, championing the Ottawa Treaty to ban landmines and developing the Vancouver Principles on Peacekeeping and Preventing the Recruitment and Use of Child Soldiers .

Canada is also the founder and chair of the Group of Friends of Children and Armed Conflict, an informal but vital UN network focused on child protection.

Now more than ever — amid American economic and political disengagement from core child protection priorities — there is both an opportunity and an imperative for Canada to demonstrate active leadership in the promotion of children’s rights and enhanced safety for children impacted by the devastation of armed conflict.

Complacency threatens to perpetuate generational impacts of violence.

Global leadership required

The Canadian government must once again stand up and provide global leadership on children and armed conflict by bolstering strategic alliances and funding efforts to protect and engage children impacted by armed conflict.

As a community of Canadian scholars dedicated to studying children, organized violence and armed conflict, we are deeply concerned about the growing vulnerability of children worldwide.

We see an opportunity for Canada to reclaim its role as a global leader in advancing and protecting children’s rights, especially in a time of political upheaval and heightened global insecurity. Canada can reassert itself and live up to its global reputation as a force for good in the world. It can stand on the global stage and draw attention to a crisis with generational impacts.

Children need protection from the effects of war, but they also need to be seen as active agents of peace who understand their needs and can help secure better futures.

Investments of attention and funding today can make significant differences in the emotional and social development of children who are navigating post-conflict life.




Read more:
The lasting scars of war: How conflict shapes children’s lives long after the fighting ends


Canada must take the lead

These investments are critical to the social structures of peaceful communities. Canadian leadership is well-positioned to take on this role, not only because of the country’s history and reputation, but because Canadian scholars are at the forefront, are organized around this issue and can be leveraged for maximum impact.

Prime Minister Mark Carney’s recent celebrated speech at the World Economic Forum’s annual conference at Davos signalled a possible and important shift in alliances, priorities and global moral leadership for Canada.

Canadian foreign policy can build upon this. Making the vulnerability of children affected by armed conflict and the capacity of children to be agents of peace a key foreign policy issue would positively affect the lives of millions of children globally. It would also signal to the world that Canada is ready to take on the significant global human rights challenges it once did.


The following scholars, members of The Canadian Community of Practice on Children and Organized Violence & Armed Conflict, contributed to this article: Maham Afzaal, PhD Student, Queens University; Dr. Marshall Beier, McMaster University; Sophie Greco, PhD Candidate, Wilfrid Laurier University; Ethan Kelloway, Honours Student, Mount Saint Vincent University; Dr. Marion Laurence, Dalhousie University; Dr. Kate Swanson, Dalhousie University; Orinari Wokoma, MA student, Mount Saint Vincent University.

The Conversation

Catherine Baillie Abidi receives funding from Social Science and Humanities Research Council of Canada.

Izabela Steflja receives funding from the Social Sciences and Humanities Research Council of Canada.

Kirsten J. Fisher receives funding from the Social Sciences and Humanities Research Council of Canada.

Myriam Denov receives funding from the Social Science and Humanities Research Council of Canada, and the Canada Research Chair Program.

ref. Why Canada must step up to protect children in a period of global turmoil – https://theconversation.com/why-canada-must-step-up-to-protect-children-in-a-period-of-global-turmoil-274398

L’UFC, la mécanique bien huilée de la violence et de sa spectacularisation

Source: The Conversation – in French – By Blaise Dore-Caillouette, Doctorant en communication, Université de Montréal

L’Ultimate Fighting Championship a transformé un sport de combat brutal en empire de 10 milliards de dollars. Son secret ? Faire de la violence le cœur même du spectacle. Bonus financiers pour les K.O. les plus impressionnants, dramatisation des rivalités, valorisation des combattants offensifs. Voici comment l’UFC a érigé la spectacularisation de la violence en modèle d’affaires.

Moi-même pratiquant de MMA, je poursuis actuellement des recherches doctorales en communication à l’Université de Montréal. Mes recherches portent sur les études médiatiques, les Cultural Studies et la communication politique.

Une organisation globale

Créé en 1993, l’UFC a été conçu à l’origine pour déterminer quel style d’art martial était le plus efficace dans un combat limité par le moins de règles possible. Les arts martiaux mixtes sont donc devenus un sport de combat mêlant frappes, projections et techniques de soumission qui combine plusieurs disciplines comme la boxe, le judo, le jiu-jitsu brésilien et la lutte. L’UFC est aujourd’hui une organisation globale, capitalisant une dizaine de milliards de dollars et rassemblant les meilleurs combattants de toutes disciplines.

Mais ce qui distingue véritablement l’UFC, ce n’est pas seulement la qualité de ses athlètes, mais sa capacité à transformer un affrontement technique, stratégique et violent en spectacle, où chaque geste, chaque coup et chaque réaction est mis en scène pour maximiser l’impact émotionnel sur le public.

La violence dans les disciplines sportives ainsi que sa spectacularisation n’ont évidemment rien de nouveau. Que ce soit au football américain, au hockey, ou même à la boxe, les affrontements, les rivalités et les moments de tension et de violence sont médiatisés et amplifiés pour captiver le public. Il est cependant intéressant de constater que, à la différence des autres sports, le MMA est de nature plus violente, et que l’UFC capitalise et amplifie cette violence pour la spectaculariser.

MMA, une discipline sportive intrinsèquement plus violente

À la différence des autres sports de combat, les règles encadrant les contacts physiques en MMA sont beaucoup moins restrictives, ce qui rend le combat plus brutal et imprévisible. À l’inverse, il y a des sports de combat comptant de nombreuses restrictions, comme la boxe qui interdit les frappes au sol, les soumissions ou les projections.




À lire aussi :
Active Clubs : le corps comme champ de bataille de l’extrême droite


Depuis l’adoption des Unified Rules of MMA (2009), un ensemble de règles interdit désormais certaines techniques trop dangereuses comme les coups de tête ou les coups de pied au visage d’un adversaire au sol. Il n’en demeure pas moins que les combattants risquent des blessures graves à chaque combat. En effet, le MMA autorise un éventail de techniques qui peut être dangereux pour l’intégrité physique des combattants.



Les frappes avec les coudes et les genoux, par exemple, sont parmi celles qui infligent le plus de dégâts. Elles provoquent fréquemment des coupures, des saignements abondants et des K.O. rapides. Les combats peuvent également se poursuivre au sol, ce qui permet non seulement de frapper un adversaire au tapis, mais aussi d’appliquer des étranglements, ou des clés articulaires qui peuvent mettre fin au combat en quelques secondes.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Amplification de la spectacularisation de la violence

La violence est souvent spectacularisée dans les sports, car elle capte l’attention du public et renforce l’intensité dramatique des compétitions. Par exemple, au hockey, les bagarres sont devenues de véritables moments attendus par les spectateurs. On peut d’ailleurs les revivre au ralenti, en gros plans ou au sein de montages vidéo. En boxe, les K.O. spectaculaires sont mis en avant dans les moments clés.

Toutefois, l’UFC pousse encore plus loin cette logique en transformant la violence elle-même en moteur du spectacle. En effet, plusieurs éléments distinguent la spectacularisation de la violence dans l’UFC des autres arts martiaux ou disciplines sportives.




À lire aussi :
« Rage bait » : le mot de l’année met en évidence une mutation des médias sociaux vers la fabrication de la colère


Par exemple, l’UFC récompense directement à la hauteur de 50 000$ US les affrontements spectaculaires avec les bonus « Performance of the Night », ce qui incite les combattants à adopter un style offensif et à chercher les K.O. ou les soumissions les plus impressionnants. Cette politique valorise non seulement la violence des combats, mais crée aussi une dynamique où les athlètes savent qu’un combat particulièrement violent peut accroître leur notoriété et leurs revenus.

K.O particulièrement violent, où l’on voit que les athlètes sont encouragés à frapper leur adversaire – même inconscient – tant que l’arbitre n’a pas arrêté le combat.

L’UFC met à cet égard systématiquement de l’avant les combattants capables d’offrir des moments forts, et privilégie les profils connus pour leurs violences.

Parallèlement, l’UFC contribue à renforcer cette culture en valorisant publiquement les combats les plus violents et en critiquant ceux jugés trop prudents ou stratégiques. Cette culture instaure une pression implicite sur les combattants pour offrir un spectacle violent à chaque affrontement. L’ensemble de ces mécanismes, sans compter les nombreux autres que l’on retrouve dans tous sports de contacts (gros plans, ralentis et montages vidéo de tout genre sur les moments violents, pour en nommer quelques-uns), fait de la violence un élément central et soigneusement orchestré du spectacle UFC.

La dramatisation des rivalités

Les rivalités personnelles entre athlètes participent également à cette dramatisation de la violence dont je parle. Elles sont fréquemment mises de l’avant lors des conférences et tout au long de la promotion de l’affrontement.

Les combattants sont encouragés à accentuer leurs différends par des déclarations provocantes, des échanges verbaux intenses ponctués d’insultes. Il n’est pas rare de voir les combattants s’échanger des coups de poing en pleine conférence de presse.

Dans cette vidéo, les deux athlètes intensifient la tension de leur combat à venir avec des déclarations provocantes.

Cette spectacularisation de la violence transforme chaque affrontement en événement dramatique, où l’enjeu émotionnel dépasse la simple compétition sportive et contribue à capter l’attention du public.

Si l’UFC amplifie la violence de manière inédite, comme nous l’avons vu, d’autres sports, de la boxe au football américain, mobilisaient déjà des procédés semblables. Cette tendance démontre que la spectacularisation de la violence façonne les pratiques sportives modernes et la manière dont elles sont consommées par le public.

La Conversation Canada

Blaise Dore-Caillouette ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’UFC, la mécanique bien huilée de la violence et de sa spectacularisation – https://theconversation.com/lufc-la-mecanique-bien-huilee-de-la-violence-et-de-sa-spectacularisation-271153

AI is coming to Olympic judging: what makes it a game changer?

Source: The Conversation – France – By Willem Standaert, Associate Professor, Université de Liège

As the International Olympic Committee (IOC) embraces AI-assisted judging, this technology promises greater consistency and improved transparency. Yet research suggests that trust, legitimacy, and cultural values may matter just as much as technical accuracy.

The Olympic AI agenda

In 2024, the IOC unveiled its Olympic AI Agenda, positioning artificial intelligence as a central pillar of future Olympic Games. This vision was reinforced at the very first Olympic AI Forum, held in November 2025, where athletes, federations, technology partners, and policymakers discussed how AI could support judging, athlete preparation, and the fan experience.

At the 2026 Winter Olympics in Milano-Cortina, the IOC is considering using AI to support judging in figure skating (men’s and women’s singles and pairs), helping judges precisely identify the number of rotations completed during a jump. Its use will also extend to disciplines such as big air, halfpipe, and ski jumping (ski and snowboard events where athletes link jumps and aerial tricks), where automated systems could measure jump height and take-off angles. As these systems move from experimentation to operational use, it becomes essential to examine what could go right… or wrong.

Judged sports and human error

In Olympic sports such as gymnastics and figure skating, which rely on panels of human judges, AI is increasingly presented by international federations and sports governing bodies as a solution to problems of bias, inconsistency, and lack of transparency. Judging officials must assess complex movements performed in a fraction of a second, often from limited viewing angles, for several hours in a row. Post-competition reviews show that unintentional errors and discrepancies between judges are not exceptions.

This became tangible again in 2024, when a judging error involving US gymnast Jordan Chiles at the Paris Olympics sparked major controversy. In the floor final, Chiles initially received a score that placed her fourth. Her coach then filed an inquiry, arguing that a technical element had not been properly credited in the difficulty score. After review, her score was increased by 0.1 points, temporarily placing her in the bronze medal position. However, the Romanian delegation contested the decision, arguing that the US inquiry had been submitted too late – exceeding the one-minute window by four seconds. The episode highlighted the complexity of the rules, how difficult it can be for the public to follow the logic of judging decisions, and the fragility of trust in panels of human judges.

Moreover, fraud has also been observed: many still remember the figure skating judging scandal at the 2002 Salt Lake City Winter Olympics. After the pairs event, allegations emerged that a judge had favoured one duo in exchange for promised support in another competition – revealing vote-trading practices within the judging panel. It is precisely in response to such incidents that AI systems have been developed, notably by Fujitsu in collaboration with the International Gymnastics Federation.

What AI can (and cannot) fix in judging

Our research on AI-assisted judging in artistic gymnastics shows that the issue is not simply whether algorithms are more accurate than humans. Judging errors often stem from the limits of human perception, as well as the speed and complexity of elite performances – making AI appealing. However, our study involving judges, gymnasts, coaches, federations, technology providers, and fans highlights a series of tensions.

AI can be too exact, evaluating routines with a level of precision that exceeds what human bodies can realistically execute. For example, where a human judge visually assesses whether a position is properly held, an AI system can detect that a leg or arm angle deviates by just a few degrees from the ideal position, penalising an athlete for an imperfection invisible to the naked eye.

While AI is often presented as objective, new biases can emerge through the design and implementation of these systems. For instance, an algorithm trained mainly on male performances or dominant styles may unintentionally penalise certain body types.

In addition, AI struggles to account for artistic expression and emotions – elements considered central in sports such as gymnastics and figure skating. Finally, while AI promises greater consistency, maintaining it requires ongoing human oversight to adapt rules and systems as disciplines evolve.

Action sports follow a different logic

Our research shows that these concerns are even more pronounced in action sports such as snowboarding and freestyle skiing. Many of these disciplines were added to the Olympic programme to modernise the Games and attract a younger audience. Yet researchers warn that Olympic inclusion can accelerate commercialisation and standardisation, at the expense of creativity and the identity of these sports.

A defining moment dates back to 2006, when US snowboarder Lindsey Jacobellis lost Olympic gold after performing an acrobatic move – grabbing her board mid-air during a jump – while leading the snowboard cross final. The gesture, celebrated within her sport’s culture, eventually cost her the gold medal at the Olympics. The episode illustrates the tension between the expressive ethos of action sports and institutionalised evaluation.

AI judging trials at the X Games

AI-assisted judging adds new layers to this tension. Earlier research on halfpipe snowboarding had already shown how judging criteria can subtly reshape performance styles over time. Unlike other judged sports, action sports place particular value on style, flow, and risk-taking – elements that are especially difficult to formalise algorithmically.

Yet AI was already tested at the 2025 X Games, notably during the snowboard SuperPipe competitions – a larger version of the halfpipe, with higher walls that enable bigger and more technical jumps. Video cameras tracked each athlete’s movements, while AI analysed the footage to generate an independent performance score. This system was tested alongside human judging, with judges continuing to award official results and medals. However, the trial did not affect official outcomes, and no public comparison has been released regarding how closely AI scores aligned with those of human judges.

Nonetheless, reactions were sharply divided: some welcomed greater consistency and transparency, while others warned that AI systems would not know what to do when an athlete introduces a new trick – something often highly valued by human judges and the crowd.

Beyond judging: training, performance and the fan experience

The influence of AI extends far beyond judging itself. In training, motion tracking and performance analytics increasingly shape technique development and injury prevention, influencing how athletes prepare for competition. At the same time, AI is transforming the fan experience through enhanced replays, biomechanical overlays, and real-time explanations of performances. These tools promise greater transparency, but they also frame how performances are understood – adding more “storytelling” “ around what can be measured, visualised, and compared.

At what cost?

The Olympic AI Agenda’s ambition is to make sport fairer, more transparent, and more engaging. Yet as AI becomes integrated into judging, training, and the fan experience, it also plays a quiet but powerful role in defining what counts as excellence. If elite judges are gradually replaced or sidelined, the effects could cascade downward – reshaping how lower-tier judges are trained, how athletes develop, and how sports evolve over time. The challenge facing Olympic sports is therefore not only technological; it is institutional and cultural: how can we prevent AI from hollowing out the values that give each sport its meaning?


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Willem Standaert ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. AI is coming to Olympic judging: what makes it a game changer? – https://theconversation.com/ai-is-coming-to-olympic-judging-what-makes-it-a-game-changer-274313

LSD, champignons hallucinogènes, ayahuasca… contre la tentation d’un « exceptionnalisme psychédélique »

Source: The Conversation – in French – By Zoë Dubus, Post docorante en histoire de la médecine, Sciences Po

LSD, psilocybine extraite de champignons hallucinogènes, mescaline issue de cactus, ayahuasca… les psychédéliques connaissent un regain d’intérêt en recherche médicale, pour des usages récréatifs ou expérientels voire stimulants, et bénéficient de représentations plus positives que les autres psychotropes. Ils ne doivent pas pour autant être considérés comme une catégorie « supérieure » aux autres substances psychoactives.


La « renaissance psychédélique », ce renouveau de l’intérêt scientifique autour de ces psychotropes, suscite des espoirs considérables : ces substances offriraient-elles des traitements miracles contre la dépression, le trouble de stress post-traumatique ou les addictions ? Rendraient-elles leurs usagers plus empathiques, plus écologistes, voire moralement meilleurs ? Seraient-elles finalement « supérieures » aux autres psychotropes ?

Comme le suggèrent des travaux en sciences sociales et en psychologie, ces attentes relèvent d’un imaginaire qui surestime les propriétés intrinsèques des substances et sous-estime la force des contextes d’usage ou des croyances préétablies, tout en dépolitisant profondément la manière de les aborder.

Ces représentations, partagées par une partie des usagers de psychédéliques voire par certains thérapeutes, sont en effet trompeuses : elles reposent sur des généralisations hâtives, amplifient des attentes démesurées et ne résistent ni à l’étude de la diversité des usages ni aux risques documentés.

La singularité des psychédéliques classiques justifie-t-elle des règles d’exception ?

Aucune de ces propositions ne justifie par ailleurs un « exceptionnalisme psychédélique », c’est-à-dire l’idée selon laquelle les substances psychédéliques classiques – psilocybine, le principe actif des champignons hallucinogènes ou « champignons magiques », LSD, DMT/ayahuasca et mescaline – seraient si singulières qu’elles devraient bénéficier de règles d’exception par rapport aux autres psychotropes en vertu d’une supposée « supériorité ».




À lire aussi :
Addiction à l’alcool : un jour, traiter avec un psychédélique issu de champignons hallucinogènes ou du LSD ?


Au contraire : la cohérence scientifique, l’équité et la réduction des risques (RdR) exigent de rompre avec les narratifs qui hiérarchisent moralement les substances – et donc, par ricochet, leurs usagers –, de reconnaître les risques liés à la prise de ces produits (y compris en thérapie), d’intégrer la RdR au cœur des pratiques et d’instaurer des garde-fous éthiques solides.

Promesses thérapeutiques, risques et enjeux éthiques

L’évaluation des propriétés thérapeutiques des psychédéliques depuis une vingtaine d’années présente un intérêt marqué pour la prise en charge de plusieurs pathologies (par exemple, une amélioration rapide des symptômes voire une guérison complète dans certains tableaux dépressifs ou anxieux). Mais ces données font face à des défis méthodologiques spécifiques : difficultés à évaluer en « double aveugle contre placebo » (les participants devinent la substance qui leur a été administrée), mesure du biais « d’attente » (l’espoir des patients comme de l’équipe soignante de voir ce traitement avoir un effet), rôle crucial de la psychothérapie, questions concernant la durabilité et la sécurité.




À lire aussi :
Des hallucinogènes autorisés pour soigner des troubles psychiatriques : que nous dit la science ?


En outre, même en environnement contrôlé, ces substances ne sont pas dépourvues de risques avec, par exemple, des épisodes d’angoisse sévère, la réapparition de souvenirs traumatiques mal pris en charge, etc. Des thérapeutes sont même accusés d’agressions sexuelles, par exemple dans le cadre d’un essai clinique canadien en 2015. Sur le plan éthique, la suggestibilité accrue observée sous psychédéliques impose donc des protections renforcées : un consentement réellement éclairé qui explicite les effets attendus et leurs limites, la prévention des abus (notamment sexuels) et des dérives sectaires ainsi qu’une formation unifiée des praticiens.

Le long processus de réhabilitation de l’usage thérapeutique de ces substances repose sur des essais rigoureux. L’European Medicine Agency a organisé, en 2024, un atelier multiacteurs pour réfléchir à un cadre réglementaire de l’Union européenne vis-à-vis de ces traitements, puis a intégré, en 2025, des attendus spécifiques aux recherches sur psychédéliques concernant le traitement de la dépression, encourageant notamment à plus de rigueur statistique et à une meilleure évaluation des biais.

Aux États-Unis, la Food and Drug Administration (FDA) (l’Agence du médicament dans ce pays, ndlr) a publié en 2023 ses recommandations méthodologiques, insistant sur la nécessité d’essais plus nombreux et d’une évaluation précise de la contribution de la psychothérapie.

Au-delà de ces aspects techniques, il est crucial d’interroger les dimensions politiques des pathologies concernées. Les psychédéliques sont étudiés dans le traitement de la dépression et des addictions, mais ces troubles sont profondément liés aux conditions sociales. Aucune substance ne peut à elle seule résoudre l’anxiété liée à la pauvreté, la solitude, les discriminations ou la crise écologique. Un traitement efficace implique donc une évolution globale qui reconnaisse les déterminants politiques du mal-être.

Nuancer l’impact de la « plasticité cérébrale »

Des études en neurosciences récentes, largement relayées car passionnantes, suggèrent que les psychédéliques favoriseraient la plasticité cérébrale, c’est-à-dire la capacité d’apprendre de nouvelles choses ou de modifier ses schémas cognitifs. Pour autant, les personnes consommant des psychédéliques deviennent-elles systématiquement des hippies anticapitalistes, écologistes, pacifistes et humanistes ? Loin s’en faut.

Si certaines études observent des changements durables vers davantage d’ouverture ou de connexion, ces effets dépendent du contexte, des attentes et des valeurs préexistantes. Une personne déjà concernée par le bien-être animal pourra renforcer cette sensibilité après une expérience psychédélique et devenir végétarienne ; à l’inverse, des recherches montrent aussi des appropriations d’extrême droite des imaginaires psychédéliques.

Par ailleurs, l’écosystème psychédélique est traversé par des logiques extractivistes, entrepreunariales et néocoloniales. Le risque de captation privative (dépôts de brevets massifs, retraites thérapeutiques réservées aux élites, encadrement extrêmement limité pour réduire le coût de la prise en charge) est réel et bien documenté pour le cas états-unien.




À lire aussi :
Quand le capitalisme s’intéresse aux psychédéliques : pour le meilleur et pour le pire


Dans la Silicon Valley, l’usage pour optimiser la performance au travail illustre ces dérives. En outre, des juristes et des anthropologues alertent au sujet de la biopiraterie et de la nécessité de protéger les traditions autochtones liées aux substances comme le cactus peyotl au Mexique ou l’arbuste iboga au Gabon, tous deux fortement menacés par la surexploitation, problèmes auxquelles s’ajoutent les questions plus globales d’expropriation permanente des terres indigènes, la déforestation et le changement climatique.

D’autres soulignent que les usages traditionnels peuvent s’inscrire dans des logiques guerrières ou malveillantes. Contrairement aux idées reçues largement partagées dans certains milieux psychédéliques, rien ne permet donc de les ériger en catalyseurs universels de transformations positives.

Contre une hiérarchie morale des psychotropes

En raison de leur faible toxicité et de la rareté de cas documentés d’addiction à ces substances, les psychédéliques sont parfois séparés des autres psychotropes. Le neuroscientifique américain Carl Hart critique ainsi la distinction entre de « bonnes drogues » (les psychédéliques) et de « mauvaises drogues » (opioïdes, stimulants), qui nourrit une rhétorique stigmatisante légitimant des politiques répressives discriminatoires qui touchent particulièrement les populations racisées et précarisées.

Réserver un traitement de faveur aux seuls psychédéliques dans les débats sur la réforme des stupéfiants sur la base de ce supposé exceptionnalisme serait en effet très préjudiciable. Rappelons qu’utilisés avec des connaissances adéquates, et malgré un marché illégal sans contrôle qualité, la majorité des usages de stupéfiants – héroïne ou crack compris – sont considérés comme « non problématiques », c’est-à-dire sans dommages majeurs pour la santé, les relations sociales ou le travail. Selon le « Tableau général de la demande et de l’offre de drogues. Office des Nations unies contre la drogue et le crime » (ONU, 2017, ONUDC), à l’échelle mondiale, la proportion des personnes qui consomment des drogues et qui souffriraient de troubles liés à cet usage serait d’environ 11 %.

Il faut de surcroît rappeler que la prise récréative ou expérientielle de psychédéliques comporte des risques : exacerbations psychiatriques chez des sujets vulnérables, reviviscence de traumas, expérience très intense dénuée de sens, dépersonnalisation, mais également interactions dangereuses avec d’autres médicaments, importance des techniques de set and setting qui visent à sécuriser l’expérience (set signifiant « prendre en compte le bien-être psychique de la personne » et setting correspondant au cadre de l’expérience).

Il s’agit de faire connaître ces risques aux usagers afin que ces derniers puissent consommer de manière plus sûre, selon les principes de la réduction des risques.Présenter ces substances comme différentes des autres psychotropes ne peut avoir qu’un effet délétère en minimisant la perception de ces risques.

La nécessité d’une lente et rigoureuse évaluation des psychédéliques

La généralisation de l’usage de psychédéliques en thérapie ne pourra se faire qu’au prix d’une lente et rigoureuse évaluation de leurs bénéfices, mettant au cœur de la pratique le bien-être et l’accompagnement au long cours des patients. Ce modèle suppose des prises de décisions politiques pour financer et rembourser un tel dispositif, mouvement à l’opposé de ce que nous observons actuellement dans le champ de la santé.

Les psychédéliques ne sont pas des produits d’exception. Ils doivent être intégrés à une réflexion plus large et nuancée sur l’évolution de nos représentations de l’ensemble des psychotropes, de leurs usages médicaux à ceux ayant une visée exploratoire ou de plaisir, informée par la science plutôt que par des paniques morales, des enjeux politiques ou des phénomènes de mode.

The Conversation

Zoë Dubus est membre fondatrice de la Société psychédélique française

ref. LSD, champignons hallucinogènes, ayahuasca… contre la tentation d’un « exceptionnalisme psychédélique » – https://theconversation.com/lsd-champignons-hallucinogenes-ayahuasca-contre-la-tentation-dun-exceptionnalisme-psychedelique-271779

ChatGPT ou l’illusion du dialogue : comprendre comment l’IA modifie le rapport au savoir, avec la philosophie d’Hartmut Rosa

Source: The Conversation – in French – By Frédéric Bernard, Maître de conférences en neuropsychologie, Université de Strasbourg

Les outils d’intelligence artificielle semblent dialoguer avec les internautes qui les interrogent. Mais il n’y a aucune réciprocité dans ce type d’échanges, les réponses de ChatGPT résultent d’une production de langage automatisée. Quelles conséquences cette illusion a-t-elle sur notre rapport au savoir ? Mobiliser le concept de « résonance », développé par le philosophe Hartmut Rosa permet de mieux évaluer ces transformations.


L’usage des intelligences artificielles (IA) génératives, et en particulier de ChatGPT, s’est rapidement imposé dans le champ éducatif. Élèves comme enseignants y ont recours pour chercher des informations, reformuler des contenus ou accompagner des apprentissages. Mais, au-delà de la question de l’efficacité, une interrogation plus fondamentale se pose : quel type de relation au savoir ces outils favorisent-ils ?

Pour éclairer cette question, il est utile de mobiliser le concept de « résonance », développé par le sociologue et philosophe allemand Hartmut Rosa. La résonance désigne une relation au monde dans laquelle le sujet est à la fois affecté, engagé et transformé, sans que cette relation soit entièrement maîtrisable. Rosa voit dans cette forme de rapport au monde une manière de résister à l’aliénation produite par l’accélération contemporaine.

Dans son ouvrage Pédagogie de la résonance, il applique ce cadre au domaine éducatif et précise les conditions dans lesquelles une relation résonante au savoir peut émerger. C’est à l’aune de ces critères que nous proposons d’interroger l’usage de ChatGPT en contexte éducatif.




À lire aussi :
L’IA dans l’enseignement supérieur : les leçons de Platon et du mythe de Theuth


Que signifie « entrer en résonance » avec le savoir ?

Chez Hartmut Rosa, la résonance ne se réduit ni au plaisir d’apprendre, ni à l’engagement ponctuel, ni à la simple interaction. Elle désigne une relation au monde dans laquelle le sujet est d’abord affecté – quelque chose le touche, le surprend ou le déstabilise. Cette affectation appelle ensuite une réponse active : le sujet s’engage, répond, tente de faire quelque chose de ce qui lui arrive.

Mais la résonance ne se limite pas à cette dynamique interactive. Elle implique une transformation durable du sujet, parfois aussi de son rapport au monde, et repose sur une condition essentielle : elle ne peut être ni produite à volonté ni entièrement maîtrisée. Pour Rosa, une relation totalement disponible et contrôlable est, par définition, une relation muette.

Ces critères permettent désormais d’interroger ce que l’usage de ChatGPT fait – ou ne fait pas – au rapport au savoir en contexte éducatif.

ChatGPT peut-il satisfaire aux conditions de la résonance ?

ChatGPT se caractérise par une disponibilité quasi permanente : il répond sans délai, s’adapte aux demandes de l’utilisateur et semble toujours prêt à accompagner l’apprentissage. Cette facilité d’accès peut apparaître comme un atout pédagogique évident.

Pourtant, à la lumière de la notion de résonance développée par Hartmut Rosa, elle soulève une difficulté majeure. Une relation résonante au savoir suppose une part d’indisponibilité, une part de résistance et d’imprévisibilité sans lesquelles le rapport au monde risque de devenir purement instrumental.

Cette disponibilité permanente s’accompagne d’une interaction qui peut donner le sentiment d’une relation engageante. ChatGPT répond, reformule, encourage, s’ajuste au niveau de l’utilisateur et semble parfois « comprendre » ce qui lui est demandé. Le sujet peut ainsi se sentir affecté, soutenu, voire stimulé dans son rapport au savoir. Pourtant, cette affectation repose sur une asymétrie fondamentale : si le sujet peut être touché et répondre activement, l’agent conversationnel ne l’est jamais en retour.

La réponse de ChatGPT ne procède pas d’une expérience, d’un engagement ou d’une exposition au monde, mais d’une production de langage optimisée. L’échange peut alors prendre la forme d’un dialogue en apparence vivant, sans que s’instaure pour autant la réciprocité qui caractérise une relation véritablement résonante.

Des transformations à sens unique

La question de la transformation permet de préciser encore cette asymétrie. L’usage de ChatGPT peut incontestablement modifier le rapport du sujet au savoir : il peut faciliter la compréhension, accélérer l’accès à l’information, soutenir l’élaboration d’idées ou influencer des pratiques d’apprentissage. À ce titre, le sujet peut effectivement en ressortir transformé.

Mais cette transformation n’est jamais réciproque. Rien, dans l’échange, ne peut véritablement arriver à l’agent conversationnel : il ne conserve pas de trace existentielle de la relation, n’en est ni affecté ni engagé, et ne voit pas son rapport au monde durablement modifié. La transformation, lorsqu’elle a lieu, concerne donc exclusivement le sujet humain, ce qui marque une différence décisive avec les relations résonantes décrites par Rosa, où les deux pôles de la relation sont susceptibles d’être transformés.

On pourrait toutefois objecter que ChatGPT n’est pas toujours pleinement disponible ni fiable. Il lui arrive de produire des erreurs, d’inventer des références ou de fournir des informations inexactes – ce que l’on désigne souvent comme des « hallucinations ». Ces moments d’échec peuvent interrompre l’échange et surprendre l’utilisateur.




À lire aussi :
Quand l’IA fait n’importe quoi, le cas du gratte-ciel et du trombone à coulisse


Mais cette forme d’indisponibilité n’est pas celle que décrit Rosa. Elle ne procède pas d’une résistance signifiante du monde, ni d’une altérité qui interpelle le sujet, mais d’un dysfonctionnement du dispositif. Loin d’ouvrir un espace de résonance, ces ruptures tendent plutôt à fragiliser la confiance et à rompre la relation, en rappelant que l’échange repose sur une production de langage fondée sur des modèles probabilistes intégrant des régularités, des associations et des inférences apprises, plutôt que sur une rencontre.

On pourrait également faire valoir que certains agents conversationnels peuvent être configurés pour adopter des réponses plus rugueuses, plus critiques ou moins accommodantes, introduisant ainsi une forme de résistance dans l’échange. Cette rugosité peut déstabiliser l’utilisateur, ralentir l’interaction ou rompre avec l’illusion d’une aide toujours fluide.

Toutefois, cette résistance reste fondamentalement paramétrable, réversible et sous contrôle. Elle ne procède pas d’une altérité exposée à la relation, mais d’un choix de configuration du dispositif. L’indisponibilité ainsi produite est scénarisée : elle peut être activée, modulée ou désactivée à la demande. À ce titre, elle ne satisfait pas à la condition d’indisponibilité constitutive qui, chez Rosa, rend possible une véritable relation de résonance.

Assistance cognitive ou relation résonante ?

La comparaison avec le livre permet de mieux saisir ce qui distingue une indisponibilité scénarisée d’une indisponibilité constitutive. Contrairement à ChatGPT, le livre ne répond pas, ne s’adapte pas et ne reformule pas à la demande. Il impose son rythme, sa forme, ses zones d’opacité, et résiste aux attentes immédiates du lecteur. Pourtant, cette absence de dialogue n’empêche nullement la résonance ; elle en constitue souvent la condition.

Le texte peut affecter, déstabiliser, transformer durablement le sujet précisément parce qu’il demeure indisponible, irréductible à une simple fonctionnalité. À la différence d’un agent conversationnel, le livre expose le lecteur à une altérité qui ne se laisse ni paramétrer ni maîtriser, et c’est cette résistance même qui rend possible un rapport résonant au savoir.

Cela ne signifie pas que l’usage de ChatGPT soit incompatible avec toute forme de résonance. À condition de ne pas l’ériger en point d’entrée privilégié dans le rapport au savoir, l’outil peut parfois jouer un rôle de médiation secondaire : reformuler après une première confrontation, expliciter des tensions, ou aider à mettre en mots une difficulté éprouvée. Utilisé de cette manière, ChatGPT n’abolit pas l’indisponibilité constitutive de la rencontre avec un contenu, mais intervient après coup, dans un temps de reprise et de clarification. Il s’agirait alors moins de produire la résonance que de préserver les conditions dans lesquelles elle peut, éventuellement, advenir.

L’analyse conduite à partir de la notion de résonance invite à ne pas confondre assistance cognitive et relation résonante au savoir. ChatGPT peut indéniablement soutenir certains apprentissages, faciliter l’accès à l’information ou accompagner l’élaboration d’idées. Mais ces apports reposent sur une logique de disponibilité, d’adaptation et de contrôle qui ne satisfait pas aux conditions de la résonance telles que les décrit Hartmut Rosa.

Le risque, en contexte éducatif, serait alors de substituer à un rapport au savoir fondé sur la confrontation, la résistance et la transformation, une relation essentiellement instrumentale, aussi efficace soit-elle. La question n’est donc pas de savoir s’il faut ou non recourir à ces outils, mais comment les inscrire dans des pratiques pédagogiques qui préservent – voire réactivent – les conditions d’un rapport véritablement résonant au savoir.

The Conversation

Frédéric Bernard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. ChatGPT ou l’illusion du dialogue : comprendre comment l’IA modifie le rapport au savoir, avec la philosophie d’Hartmut Rosa – https://theconversation.com/chatgpt-ou-lillusion-du-dialogue-comprendre-comment-lia-modifie-le-rapport-au-savoir-avec-la-philosophie-dhartmut-rosa-274259

Les fichiers Epstein, la boîte de Pandore de la transparence américaine

Source: The Conversation – in French – By Frédérique Sandretto, Adjunct assistant professor, Sciences Po

Plusieurs millions de documents viennent d’être rendus accessibles au grand public dans l’affaire du financier Jeffrey Epstein, mort en 2019 en prison – la cause officielle du décès, un suicide par pendaison, suscitant à ce jour de nombreux doutes. Il faudra beaucoup de temps et d’énergie pour analyser en totalité cet immense afflux d’informations. Au-delà des nouvelles révélations, l’épisode pose d’importantes questions sur l’articulation entre, d’une part, le devoir de transparence et, d’autre part, la nécessité de protéger la présomption d’innocence.


La publication, le 30 janvier 2026, des « Epstein Files » par le département de la justice des États-Unis (DOJ) a eu l’effet de l’ouverture d’une véritable boîte de Pandore, libérant dans l’espace public une masse documentaire d’une ampleur inédite et déclenchant une onde de choc allant bien au-delà du champ judiciaire.

Ce qui était présenté comme un geste de clarté et de responsabilité démocratique s’est transformé en un événement politique et médiatique majeur, révélateur des fragilités contemporaines de la transparence institutionnelle.

Une divulgation de documents d’une ampleur sans précédent

La divulgation s’inscrit dans le cadre de l’Epstein Files Transparency Act, adopté à la fin de l’année précédente par le Congrès à une quasi-unanimité des élus des deux Chambres et ratifié peu après. Ce texte imposait au DOJ la publication de l’ensemble des dossiers relatifs aux enquêtes menées sur Jeffrey Epstein et son réseau, avec l’objectif explicite de mettre un terme aux soupçons persistants d’opacité et de traitement préférentiel favorisant certaines des personnalités concernées. Pour le DOJ, cette publication marque officiellement la fin d’un processus de divulgation long et juridiquement encadré, présenté comme l’ultime étape d’une obligation désormais satisfaite.

Pourtant, loin de refermer l’affaire, cette ouverture massive des archives semble inaugurer une nouvelle phase de controverse, où la transparence affichée nourrit la défiance plus qu’elle ne la dissipe.

L’ampleur des éléments rendus publics est sans précédent. Entre trois et cinq millions de documents, près de 2 000 vidéos et environ 180 000 photographies, issus de procédures civiles, d’enquêtes fédérales, de saisies numériques et de correspondances accumulées sur plusieurs décennies, ont été mis à la disposition du grand public.

Cette profusion donne l’impression d’une transparence totale, presque absolue, mais elle pose immédiatement un problème de lisibilité. Une grande partie des fichiers est partiellement caviardée pour des raisons juridiques, d’autres sont fragmentaires ou dépourvus de contexte précis. Le public se trouve confronté à un matériau brut, massif et hétérogène, difficile à hiérarchiser et à interpréter sans un travail d’analyse approfondi. La transparence promise se heurte ainsi à une réalité paradoxale : montrer beaucoup ne signifie pas nécessairement expliquer clairement.

Cette difficulté est accentuée par l’apparition de nouveaux noms qui viennent s’ajouter à une liste déjà longue de personnalités associées, de près ou de loin, à l’univers relationnel d’Epstein.

La place manque ici pour analyser la portée de la totalité des révélations relatives à ces personnalités qui n’étaient jusque-là pas évoquées, par exemple la future reine de Norvège Mette-Marit et l’ancien premier ministre travailliste de ce même pays Thorbjorn Jagland, ou encore l’ancien ministre slovaque des affaires étrangères Miroslav Lajcak. Parmi les noms qui ont attiré une attention médiatique immédiate figurent trois cas sur lesquels nous nous attarderons particulièrement : ceux de Sarah Ferguson, Peter Mandelson et Caroline Lang.

Des révélations propices à tous les soupçons

Dans le cas de Sarah Ferguson, duchesse d’York et ancienne épouse (1986-1996) du prince Andrew – frère de l’actuel roi Charles et dont la proximité avec Epstein a été largement documentée bien avant les révélations du 30 janvier, au point que son frère lui a retiré le statut de prince en octobre dernier –, les documents font état de relations sociales avec Epstein dans les années 1990 et 2000, notamment des rencontres et des échanges dans des cercles mondains communs.

Certaines accusations relayées par des témoignages évoquent des contacts répétés et des sollicitations financières indirectes, bien que la principale intéressée ait toujours nié toute implication dans des activités illégales et rappelé que ces relations relevaient d’un cadre social sans dimension criminelle établie. La présence de son nom dans les fichiers illustre néanmoins la manière dont des liens sociaux, même anciens ou périphériques, peuvent être réinterprétés à la lumière du scandale.

Peter Mandelson, figure centrale de la vie politique britannique et ancien commissaire européen au commerce (2004-2008), apparaît quant à lui dans des correspondances et des agendas liés à Epstein. Les accusations évoquées dans certains témoignages ne portent pas sur des faits pénaux établis, mais sur des fréquentations répétées et une proximité assumée avec le financier, y compris après la première condamnation de celui-ci en 2008. Mandelson a reconnu publiquement avoir côtoyé Epstein dans un cadre social et professionnel, tout en niant toute connaissance ou participation à des activités criminelles.

La récurrence de son nom dans les fichiers alimente cependant le débat sur la responsabilité morale des élites et sur la persistance de relations avec Epstein malgré les alertes judiciaires déjà connues à l’époque des faits. Après avoir été limogé de son poste d’ambassadeur aux États-Unis en septembre dernier à cause de ses liens avec le criminel américain, Mandelson a annoncé le 1er février qu’il quittait le parti travailliste britannique, dont il était une figure historique.

Le cas de Caroline Lang, fille de Jack Lang et déléguée générale du syndicat de la production indépendante, poste dont elle a démissionné à la suite de la révélation de la présence de son nom dans les dossiers Epstein, est plus opaque et contribue à la confusion générale. Les documents la mentionnent dans des échanges et des listes de contacts liés à l’entourage d’Epstein, sans que son rôle précis soit clairement établi. Certaines accusations évoquent des interactions régulières ou une présence lors d’événements organisés par le financier, mais les fichiers ne permettent pas de déterminer la nature exacte de ces relations ni d’établir une implication pénale.

Cette opacité illustre l’un des problèmes majeurs de la divulgation massive : l’exposition de noms sans cadre interprétatif clair, ce qui laisse place à des spéculations difficilement vérifiables.

L’éternelle tension entre devoir d’information et préservation de la présomption d’innocence

La publication de ces informations met en lumière une tension fondamentale entre le droit à l’information et le devoir de prudence. D’un côté, la société civile réclame une transparence totale, considérant que seule la divulgation intégrale des archives peut permettre un examen démocratique des réseaux de pouvoir ayant entouré Epstein. De l’autre, juristes et journalistes rappellent que la diffusion de documents non contextualisés peut porter atteinte à la présomption d’innocence, nuire à des individus cités sans preuve formelle et détourner l’attention des victimes au cœur de l’affaire. La logique de la liste et de l’exposition nominale tend ainsi à remplacer l’analyse rigoureuse des faits.

Cette tension est d’autant plus forte que les fichiers font référence à Donald Trump à plus de 1 500 reprises. Cette omniprésence alimente la défiance à l’égard du président actuel et ravive les critiques sur la lenteur avec laquelle son administration a accepté la divulgation complète des dossiers. Même en l’absence de preuves nouvelles établissant une responsabilité pénale, la répétition de son nom nourrit les soupçons d’un pouvoir réticent à une transparence totale et accentue la polarisation politique autour de l’affaire.

En définitive, la révélation des fichiers Epstein apparaît moins comme un point final que comme une ouverture brutale et incontrôlée, fidèle à la métaphore de la boîte de Pandore. Elle expose les limites d’une transparence réduite à la publication massive de données et met au défi les institutions, les médias et le pouvoir politique.

Pour Donald Trump, cette affaire constitue un test majeur : démontrer que la transparence peut s’accompagner de clarté, de responsabilité et de respect des principes fondamentaux de l’État de droit, sans nourrir durablement la confusion ni la défiance institutionnelle. Au vu de ses premières réactions – il affirme que la publication du 30 janvier l’absout totalement, tout en s’en prenant avec virulence aux « démocrates pourris » qui, selon lui, étaient « presque tous », de même que leurs donateurs, des visiteurs réguliers de la tristement célèbre île d’Epstein –, le locataire de la Maison-Blanche semble au contraire vouloir utiliser cet épisode pour alimenter le climat extrêmement polémique qui règne aujourd’hui dans la vie politique américaine…

The Conversation

Frédérique Sandretto ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les fichiers Epstein, la boîte de Pandore de la transparence américaine – https://theconversation.com/les-fichiers-epstein-la-boite-de-pandore-de-la-transparence-americaine-275002

« Cold case » : comment élucider un crime effacé par le temps ?

Source: The Conversation – in French – By Magalie Sabot, Psychocriminologue à l’Office central pour la répression des violences aux personnes, Université Paris Cité

En 2022, on dénombrait 173 crimes non élucidés (cold cases) en France. Comment travaille la police lorsque la mémoire des témoins s’efface avec le temps ? Magalie Sabot, psychocriminologue à l’Office central pour la répression des violences aux personnes, nous dévoile ses méthodes dans le cadre de l’enquête sur le meurtre d’Ariane Guillot qui s’est déroulé à Nice, en 2001.


À Nice, le parc de la colline du Château est ensoleillé le jour où les enquêteurs de la Direction nationale de la police judiciaire (DNPJ) se rendent sur les lieux du meurtre d’Ariane Guillot, âgée seulement de 25 ans.

Mais sur la scène de crime, en mars 2024, ni rubalise ni gyrophare. Pas de sang, aucune trace, aucun corps. Les enfants jouent à proximité, les promeneurs flânent, indifférents. Un jour comme un autre : les rires ont remplacé les cris depuis bien longtemps.

Le meurtrier s’est évaporé il y a vingt-quatre ans

Personne ne semble se souvenir de la journée qui intéresse les policiers de l’Office central pour la répression des violences aux personnes (OCRVP) et le procureur du pôle cold cases (PCSNE) : celle du mercredi 18 avril 2001, à 17 h 15 précisément.

Aujourd’hui, il ne reste en effet plus rien du meurtre d’Ariane. Alors, l’album photographique de l’époque en main, les enquêteurs tentent de remonter le temps : le positionnement du corps, la localisation des traces de sang, le chemin de fuite de l’auteur.

Le dossier d’enquête précieusement conservé indique qu’Ariane a été tuée d’un seul coup de couteau, en pleine journée, alors qu’elle se promenait avec son neveu de trois ans. Aucun témoin visuel, mais deux personnes pensent avoir entendu, de loin, une femme pouvant être la victime crier ces mots terribles : « J’en ai pas, j’en ai pas… » Le petit garçon est retrouvé en état de choc à côté du corps. Il apporte la piste principale à l’enquête : « Le chasseur, il a tué Ariane ! »

Mémoire et témoignage dans les affaires criminelles

En 2022, on dénombrait en France 173 crimes non élucidés pour lesquels la justice était saisie.

Pour qu’ils ne tombent pas dans l’oubli, la loi du 22 décembre 2021 a permis la création du pôle des crimes sériels ou non élucidés du tribunal judiciaire de Nanterre (PCSNE).

Des études identifient les critères favorisant la résolution des affaires criminelles : les témoignages y occupent une place centrale, ils apporteraient les pistes les plus contributives aux enquêteurs (Berresheim et Weber, 2003/ Kebbel et Milne, 1998/ Mc Ewen, 2009). Mais le cold case est une affaire criminelle qui lutte contre l’oubli et le temps, la qualité des souvenirs constitue donc un enjeu majeur.

Alors, s’appuyant sur les outils numériques, le ministère de l’intérieur et le ministère de la justice créent un nouveau programme d’appel à témoins nommé « En quête d’indices » : « Toute information, tout souvenir, même incertain peut nous aider : votre témoignage est la clé ! » Mais la mémoire est-elle fiable et à quel point faut-il lui faire confiance ?

Pour répondre à ces questions, la police accueille dans ses rangs trois psychocriminologues, un petit « groupe d’appui » venant apporter une analyse psychologique, un éclairage scientifique, à ces dossiers restés irrésolus.

La mémoire est en effet un phénomène complexe qu’il convient de mieux comprendre pour l’optimiser. Des études en neuropsychologie (W. Hirst, 2009, 2015) se sont intéressées à la fiabilité des témoignages après un événement à caractère traumatique. Les chercheurs observent que, même si les personnes affirmaient que leurs souvenirs étaient très vifs et qu’ils avaient particulièrement confiance en leur mémoire, le nombre de détails erronés augmentait au fil des années. La mémoire est donc « vivante » : elle transforme l’information et nous perdons naturellement des souvenirs, oublions des détails et modifions certains aspects des événements.




À lire aussi :
Comment le 11 Septembre s’est imprimé dans nos mémoires


Ces connaissances scientifiques ont des implications concrètes pour les affaires criminelles, elles nous apprennent que la mémoire non consolidée est fragile, sujette aux interférences émotionnelles ou pharmacologiques. Elle aurait même besoin de temps pour se stabiliser. Les neurosciences indiquent qu’il faudrait idéalement deux cycles de sommeil pour encoder une information avec précision. Ainsi, certains services de police aux États-Unis et au Canada conseillent de réaliser un bref interrogatoire initial, puis d’attendre pour mener une audition plus approfondie : le temps de sommeil contribuant à consolider le souvenir, le témoin sera plus fiable et modifiera moins sa version des faits.

Mémoire et traumatisme

Dans notre affaire, le seul témoin est un enfant retrouvé en état de choc, ce qui vient complexifier le rapport à la mémoire. En effet, en cas de stress intense (agression, viol, etc.), le système mnésique va être perturbé par la production de différentes hormones (glucocorticoïdes, adrénaline, cortisol, etc.). La zone cérébrale nommée « amygdale » va être surstimulée, tandis que l’hippocampe sera inhibé. Le souvenir est fragmenté, souvent sensoriel (odeurs, sons, etc.) et l’étude de D. M. Eliott (1997) a mis en avant que 32 % des personnes ayant vécu un événement traumatique présentaient une amnésie partielle.

Les neurosciences aident à comprendre la spécificité de la mémoire des victimes et du risque d’erreur dans leur témoignage : généralement au début de l’agression, au moment où la première vague d’hormones est déclenchée, le souvenir serait plutôt bien enregistré. C’est ensuite que le cerveau « sature » sous l’effet du stress. Les éléments les plus marquants ou liés à la survie (sortie du couteau, attaque, etc.) pourraient être mieux mémorisés. L’audition policière sera ainsi plus fiable si elle met d’abord l’accent sur les souvenirs sensoriels (odeurs, bruits, images, etc.) et émotionnels, mieux encodés, plutôt que sur la chronologie des faits souvent défaillante.

Alors, pour améliorer la qualité des souvenirs remémorés, les services spécialisés de police ont recours à un type d’audition nommé « audition cognitive », développé dans les années quatre-vingt par l’équipe de Fisher et Geiselman aux États-Unis. Des méta-analyses envisagent qu’elle augmente de 34 % les informations rapportées, tout en favorisant leur exactitude (Koehnken et al., 1999. Cette méthode (M. St Yves, 2007) repose sur l’idée que la mémoire sera meilleure si l’on recrée mentalement les conditions d’encodage du souvenir (contexte de l’événement) et que l’on respecte le rythme de la victime en réduisant les questions fermées des enquêteurs (récit libre). L’audition cognitive maximisera encore la récupération en jouant sur la concentration (faire raconter le récit à l’envers) ou en changeant la perspective (décrire la scène depuis un autre point de vue dans l’espace).

Les enquêteurs qui reprennent ces affaires disposent ainsi d’outils solides, validés par la recherche, améliorant les compétences cognitives et apportant aussi un cadre structuré, sécurisant, aux témoins particulièrement impactés par l’événement.

Fiabilité du témoignage d’un enfant

« Le chasseur, il a tué Ariane », la dernière question qui se pose ici est celle de la fiabilité du témoignage d’un enfant de 3 ans.

En 2001, l’équipe de Peterson et Whalen démontrait qu’après un événement stressant (examen médical), 94 % des détails racontés par l’enfant étaient exacts. Cependant, ses capacités mnésiques dépendent de nombreux facteurs comme son degré d’attention lors de l’événement, ses capacités langagières pour évoquer les détails, ses connaissances antérieures et ses sources d’intérêt qui vont participer à donner du sens à l’expérience. Au contraire, en cas d’agressions répétées, les informations ont tendance à se confondre et se regrouper sous une mémoire dite de « scénario ». Mais le premier fait (effet de primauté) et le dernier (effet de récence) sont habituellement mieux mémorisés. Les événements les plus solidement enregistrés dans la mémoire des enfants (dès 3 ans) sont donc les faits uniques, distincts et revêtant une signification pour eux.

Ainsi, une audition spécifique permet aux enquêteurs d’accueillir leur parole : le protocole du National Institute of Child Health and Human Development (NICHD), un standard international reposant sur des décennies de recherche en psychologie et témoignage de l’enfant (M. Cyr, 2019). Ce protocole standardisé permettrait d’augmenter jusqu’à 50 % l’exactitude des informations transmises. Cette méthode se fonde sur le récit libre, des questions ouvertes en excluant toute formulation directive, suggestive. Elle inclut aussi une mise en confiance de l’enfant dans un lieu sécurisant (comme les salles Mélanie aménagées dans certains commissariats) et un entraînement au récit à partir d’un événement neutre et récent.

« Le chasseur » a sans doute tué Ariane. Ce souvenir, recueilli quelques jours après les faits, peut être considéré comme fiable d’un point de vue scientifique. Mais que signifiait le mot « chasseur » pour le petit garçon ? À quels jeux, quelles représentations, quel dessin animé, faisait-il référence ? De cette parole enfantine, l’homme qu’il est devenu, entendu par la police vingt-quatre ans plus tard, en a-t-il gardé le moindre souvenir ? C’est ce que doit déterminer l’enquête, toujours en cours…


Créé en 2023, le Centre de recherche de la police nationale pilote la recherche appliquée au sein de la police nationale. Il coordonne l’activité des opérateurs scientifiques pour développer des connaissances, des outils et des méthodes au service de l’action opérationnelle et stratégique.

The Conversation

Magalie Sabot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. « Cold case » : comment élucider un crime effacé par le temps ? – https://theconversation.com/cold-case-comment-elucider-un-crime-efface-par-le-temps-272398

Une nouvelle carte de la matière noire

Source: The Conversation – in French – By Olivier Ilbert, Astronome au Laboratoire d’Astrophysique de Marseille / Aix-Marseille Université, spécialiste de la formation et de l’évolution des galaxies, Aix-Marseille Université (AMU)

Une nouvelle carte de la matière permet de faire le lien entre les galaxies (en couleur) et la matière noire (contours blancs). Diana Scognamiglio et coll., Fourni par l’auteur

Depuis plus d’un siècle, les astronomes n’ont cessé d’étudier les galaxies, découvrant peu à peu la diversité de leurs formes et de leurs propriétés. Grâce aux progrès de nos instruments d’observation, nous avons pu cartographier la position de millions de galaxies dans l’Univers proche. De vastes régions de l’Univers se révèlent très vides, traversées par d’immenses filaments qui relient des régions où les galaxies se regroupent. Sous l’effet de la gravité, les galaxies sont entraînées inexorablement les unes vers les autres pour façonner ces immenses structures, qui grandissent au fil des milliards d’années de temps cosmique qui s’écoule.

L’étude d’une de ces structures, l’amas de Coma, par Fritz Zwicky en 1933 a mis au jour un des aspects les plus mystérieux de notre compréhension de l’Univers : la majeure partie de la masse de Coma ne peut pas être expliquée par la présence de matière ordinaire.

Les études cosmologiques les plus modernes confirment que le gaz et les étoiles ne représentent qu’environ un sixième de la masse totale de l’Univers. Le reste ? Une matière invisible, baptisée matière noire par les physiciens. L’une des plus grandes énigmes de la physique moderne reste entière : de quoi cette matière noire est-elle faite ? Comme interagit-elle avec la matière ordinaire ? Comment sa présence impacte-t-elle la formation et l’évolution des galaxies ?

Dans notre étude publiée dans Nature Astronomy, et dirigée par Diana Scognamiglio du Jet Propulsion Laboratory de la Nasa, nous présentons une carte détaillée de la distribution de la matière noire. Bien que notre étude ne puisse pas répondre directement à la question fondamentale sur la nature de la matière noire, elle apporte un outil puissant pour relier la matière ordinaire et la matière noire, sur un intervalle de temps cosmique couvrant les deux tiers de l’âge de l’Univers.

Notre nouvelle carte montre en particulier que la matière noire et la matière visible évoluent conjointement.

Comment cette découverte a-t-elle pu être réalisée ?

Dans cette étude, nous avons employé l’une des méthodes les plus puissantes pour révéler la présence de matière noire : le lentillage gravitationnel faible. La présence d’une grande structure de matière noire va entraîner une déformation de l’espace-temps. La lumière d’une galaxie qui se trouve en arrière-plan va être légèrement déviée en traversant la structure. La forme de cette galaxie d’arrière-plan va donc se trouver artificiellement étirée quand sa lumière atteindra nos télescopes.

schéma de lentille gravitationnelle faible
En analysant de nombreuses images du télescope spatial James-Webb, on décèle l’effet de lentille gravitationnelle : l’image des galaxies en arrière-plan est déformée très faiblement par les objets massifs qui se trouvent entre nous et la galaxie.
ESA (contribution d’ATG sous contrat avec l’ESA), CC BY-SA

La clé de notre méthode réside dans l’accumulation de données : en observant un grand nombre de galaxies dans une petite région du ciel, nous pouvons détecter une distorsion cohérente de la forme des galaxies d’arrière-plan et en déduire la masse de la structure en avant-plan.

Pour bâtir une carte de ces déformations de l’espace-temps, il est donc essentiel de mesurer la forme d’un grand nombre de galaxies.

Le miroir de 6,5 mètres du télescope spatiale James-Webb lors d’un test en 2020, avant son lancement. Il est tellement grand qu’il a dû être plié pour entrer dans la fusée, puis déployé dans l’espace.
NASA/Chris Gunn

Près de 255 heures d’observation sur le télescope spatial James-Webb ont permis de couvrir une zone beaucoup plus vaste que celles observées précédemment (environ la surface de trois pleines lunes), avec des détails sans précédent sur la forme des galaxies.

En analysant en détail 250 000 galaxies lointaines (distance, morphologie, masse), nous avons mesuré la densité de matière noire d’avant-plan et créé ainsi une carte de la matière noire dans cette région du ciel.

En effet, notre carte de lentille gravitationnelle faible retrace la distribution projetée de la matière totale, sombre et lumineuse, à travers les amas de galaxies, les filaments et les régions sous-denses. Les pics proéminents correspondent à des amas massifs.

En quoi cette recherche est-elle importante ?

Notre équipe étudie cette région du ciel, baptisée « COSMOS », depuis plus de vingt ans. En comparant cette nouvelle carte de matière noire avec les données accumulées sur les galaxies et le gaz chaud, nous voyons que la matière noire, le gaz chaud et les galaxies retracent souvent les mêmes structures.

En d’autres termes, cette carte nous montre que la matière noire et la matière visible évoluent conjointement.

De plus, COSMOS est aujourd’hui le champ de référence pour les études sur l’évolution des galaxies. Il fournit désormais un repère haute résolution à partir duquel les futures cartes de l’univers sombre pourront être calibrées et comparées.

carte des constellations
Le champ de vue COSMOS dans la constellation du Sextant.
ESO, IAU et Sky & Telescope, CC BY

Quelles sont les suites de ces recherches ?

La prochaine étape consiste à étendre cette cartographie à des volumes beaucoup plus importants de l’Univers à l’aide de missions telles que Euclid de l’Agence spatiale européenne (ESA) et le télescope spatial Nancy-Grace-Roman de la Nasa qui couvriront jusqu’à un tiers du ciel. Tous ces télescopes utilisent COSMOS comme point d’étalonnage.


Tout savoir en trois minutes sur des résultats récents de recherches commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.


Le projet instruire l’émergence des galaxies massives et leur évolution — iMAGE est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Olivier Ilbert a reçu des financements de l’ANR et du CNES (projet HST-COSMOS).

ref. Une nouvelle carte de la matière noire – https://theconversation.com/une-nouvelle-carte-de-la-matiere-noire-274650

We run writing workshops at a South African university: what we’ve learnt about how students are using AI, and how to help them

Source: The Conversation – Africa – By Peet van Aardt, Coordinator: Initiative for Creative African Narratives (iCAN) & Lecturer: Academic Literacy, University of the Free State

Much is being said about the wonders of artificial intelligence (AI) and how it is the new frontier. And while it provides amazing possibilities in fields like medicine, academics are debating its advantages for university students. Peet van Aardt researches student writing and presents academic writing workshops at the University of the Free State Writing Centre, helping students to build clear arguments, summarise essay structure and express their opinions in their own voice. He also spearheads the Initiative for Creative African Narratives (iCAN), a project that assists students in getting their original stories published. Here he shares his experiences and thoughts on the use of generative AI at university.

What are your biggest concerns about the growth of AI-generated material from students?

The use of generative AI to compose assignments and write essays is widely reported, and its potentially detrimental effects on critical thinking and research are clear.

My biggest concern is that it takes away academic agency from students. By that I mean it takes the proverbial pen out of our students’ hands. If they over-rely on it (which we see they tend to do), they no longer think critically and no longer express their own voices.

Young man with a microphone
Student voice might be lost when AI does the writing.
Clout, Unsplash, CC BY

This is particularly important in African universities, where student voice and the intellectual contribution of students to society are drivers of social change and decolonisation.

How can you tell if a text is written by a student or is AI generated?

Flawless grammar and clichés are the first two signs. Generic, shallow reasoning is another. Finally, the generative AI answer does not tend to relate well to topics set in a local context.

If I take student short stories that have been submitted to our iCAN project as an example, I see more and more tales set in some unnamed place (previously, students’ stories often took place in their own towns) or adventures experienced by characters named Stacey, Rick, Damian or other American-sounding people.

Another example: third year students studying Geography were asked to write a ten page essay on the history and future of sustainability and how it applied to Africa. To guide them, the students were referred to a report that addresses challenges in sustainability. What we saw during our consultations in the writing centre were texts that discussed this report, as well as relevant topics such as “global inequality and environmental justice” and “linking human rights, sustainability and peace” – but nowhere was South Africa even mentioned. The students clearly prompted their generative AI tool to produce an essay on the first part of the assignment instructions.

Also, it’s quite easy to determine whether somebody did their own research and created their own arguments when they have to reflect on it.

When students don’t understand the text of their essay, it’s a sign that they didn’t produce it. As academics and writing coaches we increasingly encounter students who, instead of requiring help with their own essay or assignment, need assistance with their AI-produced text. Students ask questions about the meaning and relevance of the text.

Writing centre consultations have always relied on asking the students questions about their writing in an attempt to guide them on their academic exploration. But recently more time needs to be spent on reading what the students present as their writing, and then asking them what it means. Therefore, instead of specifics, we now need to take a step back and look at the bigger picture.

Not all students use generative AI poorly. That is why I still believe in using AI detection tools as a first “flag” in the process: it provides a place to start.

What interventions do you propose?

Students should be asked questions about text, like:

  • Does what it is saying make sense?

  • Does this statement sound true?

  • Does it answer the lecturer’s question?

In some instances teaching and learning is moving back to paper-based assignments, which I support. If possible, we should let students write with pens in controlled environments.

It’s also becoming more important to reignite the skill of academic reading so that students can understand what their AI assistant is producing. This points to the importance of reading for understanding, being able to question what was read, and being able to remember what one has read.

Generative AI is quite western and northern-centric. I believe we in academia have an opportunity to focus, where possible, on indigenous knowledge. Students should be encouraged to reflect on indigenous knowledge more often.

Lastly, academics should not over-rely on generative AI themselves if they don’t want their students to do so. As student enrolment numbers rise, time is becoming a rare luxury for academics, but we cannot expect students to take responsibility for their learning when we want to take shortcuts in our facilitation.

Have you changed your approach given these insights?

We have been revisiting our workshop materials to include more theory and practice on reading. Well-known strategies like the SQ3R method (to survey, question, read, recite and review a text) and the PIE approach (understanding that paragraphs Point to a main idea, support this by Illustration and Explain how and why the writer supports the main idea) are infused, along with various activities to ensure students apply some of these.

Our one-on-one consultations between students and trained, qualified academic writing experts continue to be integral.

If we as academics want to continue facilitating the learning process in students – and truly put them at the centre of education – we have to empower them to think critically and express themselves in their own voices.

The Conversation

Peet van Aardt does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. We run writing workshops at a South African university: what we’ve learnt about how students are using AI, and how to help them – https://theconversation.com/we-run-writing-workshops-at-a-south-african-university-what-weve-learnt-about-how-students-are-using-ai-and-how-to-help-them-273286

JO Milan-Cortina 2026 et Alpes 2030 : qui sont les « éléphants blancs » ?

Source: The Conversation – France (in French) – By Matthieu Llorca, Maitre de conférences-HDR en économie, spécialsé en politiques économiques, banque-finance et économie du sport, Université Bourgogne Europe

Le comité des JO de Milan-Cortina 2026 revendique la réutilisation de 85 % d’infrastructures existantes. TinaGutierrez/Shutterstock

Les Jeux olympiques d’hiver à Milan-Cortina en 2026 puis dans les Alpes françaises en 2030 font resurgir la problématique des « éléphants blancs ». Ces mégaprojets, souvent des équipements sportifs et des infrastructures de mobilité, amènent plus de coûts que de bénéfices à l’État et aux collectivités. Alors, concrètement, comment le Comité international olympique et les pays hôtes y répondent-ils ?


Les équipements sportifs mobilisés lors des Jeux olympiques (JO) d’hiver font l’objet de multiples débats, concernant leurs coûts économiques, leurs impacts environnementaux et leurs usages post-JO. Pour répondre à ces critiques, le Comité international olympique (CIO) prône l’usage de sites temporaires ou existants (héritages de Jeux passés) à la construction de nouvelles installations temporaires.

Au cours des Jeux d’hiver du XXIe siècle et ceux à venir de 2026 et de 2030, les controverses sur les sites sportifs – surcoûts, retards, etc. – portent sur le saut à ski, les pistes de bobsleigh, le patinage de vitesse et artistique. Ces quatre sports ont toujours été présents aux Jeux d’hiver, depuis la première édition à Chamonix 1924.

Les Jeux olympiques d’hiver de Milan-Cortina 2026 coûteront 4 milliards d’euros à la charge de la Simico, l’agence publique chargée des infrastructures, pour la construction et rénovation des sites sportifs et infrastructures de transport, et autour de 1,7 milliard d’euros pour le Comité d’organisation des Jeux olympiques (COJO), soit un total provisoire de 5,7 milliards d’euros.

Ces mégaprojets appelés « éléphants blancs » font craindre des coûts exorbitants pour les pays hôtes et les collectivités locales, sans bénéfices à long-terme. Selon la professeur d’architecture et d’urbanisme Juliet Davis, « ils représentent des infrastructures sportives coûteuses, construites pour les Jeux, qui deviennent obsolètes, sous-utilisées, voire laissées à l’abandon, faute d’utilité ou de planification adéquate, et qui sont un fardeau financier pour les villes hôtes des Jeux ».

Décryptage avec les Jeux olympiques d’hiver de Milan-Cortina 2026 et des Alpes françaises 2030.

Quatre sites abandonnés entre 2002 et 2018

De 2002 à 2018, seuls quatre sites abandonnés sont recensés : à Turin 2006, le site de saut à ski de Pragelato et la piste de bobsleigh/luge de Cesanatorinese, à Pyeongchang en 2018, le centre de ski alpin de Jeongseon et l’ovale de patinage de vitesse de Gangneung. Sur un total de 67 sites permanents, seul 6 % sont désertés entre 2002 et 2018 contre 11,4 % pour l’ensemble des Jeux d’hiver organisés entre 1924 et 2018.

En d’autres termes, la part des « éléphants blancs » parmi les infrastructures sportives des Jeux d’hiver a diminué d’environ quatre points de pourcentage au cours des Jeux du XXIe siècle. De telles controverses persistent à l’occasion des JO de Milan-Cortina 2026, qui se basent sur 85 % d’infrastructures existantes, soit 11 sites sur 13, et des prochains qui se dérouleront dans les Alpes françaises 2030.

Choix politiques

Un premier débat porte sur la sélection des sites retenus dans le dossier de candidature et proposés par le Comité d’Organisation des Jeux Olympiques (COJO). Ces derniers peuvent faire l’objet d’arbitrage et de modification par rapport au projet initial.

Dans le cas des Jeux olympiques d’hiver de Milan-Cortina 2026, la construction d’une nouvelle piste de bobsleigh à Cortina a suscité des débats. Le coût est estimé à 120 millions d’euros, soit une hausse de 50 % par rapport au budget initial de 61 millions d’euros. L’Italie dispose pourtant d’une piste homologuée à Cesana, certes inutilisée depuis 2011, mais qui peut être rénovée à moindre coût, pour environ 30 millions d’euros minimum.

Le choix de construire une nouvelle piste de bobsleigh est purement politique, au détriment de la contrainte environnementale et budgétaire. Si le Comité international olympique (CIO) envisageait une délocalisation, le comité Milan-Cortina 2026 a refusé ce choix avec l’objectif de garder l’intégralité des sites sportifs sur le sol italien ; une décision soutenue par le gouvernement de Giorgia Meloni.

Cartographie des sites olympiques et paralympiques de Milan-Cortina 2026 (actualité en 2023).
Milan-Cortina 2026

Outre la piste de bobsleigh, le choix du site du patinage de vitesse a fait l’objet de modifications par rapport au site prévu dans le dossier de candidature. Baslega di Pine a été écarté en raison de son coût, mais sera construit pour les Jeux olympiques d’hiver de la Jeunesse 2028 de Dolomiti Valtellina. Le site temporaire au parc des Expositions de la Fiera Milano a été retenu pour les JO de Milan-Cortina, pour un coût de 20 millions d’euros.

Le site de patinage de vitesse de Lingotto fut à un moment évoqué, avant d’être rejeté par le COJO et la ville de Milan, pour des motifs politiques et de rivalité régionale entre les provinces du Piémont et de Lombardie.

Relocalisation et délocalisation

De nombreux équipements sportifs font l’objet de retard, comme le site de Livigno, hôte des épreuves de snowboard, dont le système de neige artificielle n’était pas encore terminé, en raison d’autorisations administratives en retard concernant le remplissage du réservoir.




À lire aussi :
Pourquoi la construction des villages JO de Paris 2024 fut une réussite


Il en est de même pour les JO d’hiver dans les Alpes françaises en 2030, dont la sélection définitive des sites sportifs n’est toujours pas annoncée. Isola 2000, initialement prévu dans le dossier de candidature pour accueillir les épreuves de skicross et de snowboardcross, se voit retirer l’organisation de ces deux épreuves au profit de Montgenèvre. De même, Méribel, qui avait accueilli avec Courchevel l’organisation des championnats du monde de ski alpin 2023, était prévu pour organiser, sur ce même modèle, les épreuves de ski alpin féminin. Val-d’Isère est réintroduite en juillet 2025 dans la carte des sites olympiques des Jeux 2030 pour organiser les épreuves féminines de ski alpin, au détriment de Méribel qui s’est désisté.

Contrairement aux JO de Milan-Cortina 2026 qui aurait pu privilégier pour la piste de bobsleigh les sites à l’étranger d’Innsbruck-Igls, les Jeux des Alpes françaises seront les premiers à délocaliser un site sportif, celui de patinage de vitesse, dans un pays voisin. La sélection finale n’est toujours pas annoncée, mais le choix des organisateurs portera entre le site d’Heerenveen aux Pays-Bas ou celui de Turin, hôte des Jeux d’hiver 2006.

Modifications coûteuses

De telles modifications entre les sites sportifs initialement sélectionnés dans le projet de candidature et ceux finalement retenus ne font que contribuer à une augmentation des coûts des Jeux et à remettre en cause leur sobriété, annoncée par les organisateurs. Par exemple, le comité des Alpes françaises 2030, qui annoncent les Jeux les moins chers de l’histoire et les plus sobres.

De l’autre côté du prisme, la question de l’utilisation des sites après les Jeux olympiques vient d’être analysée. 86 % de tous les sites permanents utilisés pour les Jeux olympiques depuis Athènes en 1896, et 94 % des sites datant du XXIe siècle, seraient encore utilisés aujourd’hui.

The Conversation

Matthieu Llorca est membre du think tank Spirales Institut

ref. JO Milan-Cortina 2026 et Alpes 2030 : qui sont les « éléphants blancs » ? – https://theconversation.com/jo-milan-cortina-2026-et-alpes-2030-qui-sont-les-elephants-blancs-274893