Les fichiers Epstein, la boîte de Pandore de la transparence américaine

Source: The Conversation – in French – By Frédérique Sandretto, Adjunct assistant professor, Sciences Po

Plusieurs millions de documents viennent d’être rendus accessibles au grand public dans l’affaire du financier Jeffrey Epstein, mort en 2019 en prison – la cause officielle du décès, un suicide par pendaison, suscitant à ce jour de nombreux doutes. Il faudra beaucoup de temps et d’énergie pour analyser en totalité cet immense afflux d’informations. Au-delà des nouvelles révélations, l’épisode pose d’importantes questions sur l’articulation entre, d’une part, le devoir de transparence et, d’autre part, la nécessité de protéger la présomption d’innocence.


La publication, le 30 janvier 2026, des « Epstein Files » par le département de la justice des États-Unis (DOJ) a eu l’effet de l’ouverture d’une véritable boîte de Pandore, libérant dans l’espace public une masse documentaire d’une ampleur inédite et déclenchant une onde de choc allant bien au-delà du champ judiciaire.

Ce qui était présenté comme un geste de clarté et de responsabilité démocratique s’est transformé en un événement politique et médiatique majeur, révélateur des fragilités contemporaines de la transparence institutionnelle.

Une divulgation de documents d’une ampleur sans précédent

La divulgation s’inscrit dans le cadre de l’Epstein Files Transparency Act, adopté à la fin de l’année précédente par le Congrès à une quasi-unanimité des élus des deux Chambres et ratifié peu après. Ce texte imposait au DOJ la publication de l’ensemble des dossiers relatifs aux enquêtes menées sur Jeffrey Epstein et son réseau, avec l’objectif explicite de mettre un terme aux soupçons persistants d’opacité et de traitement préférentiel favorisant certaines des personnalités concernées. Pour le DOJ, cette publication marque officiellement la fin d’un processus de divulgation long et juridiquement encadré, présenté comme l’ultime étape d’une obligation désormais satisfaite.

Pourtant, loin de refermer l’affaire, cette ouverture massive des archives semble inaugurer une nouvelle phase de controverse, où la transparence affichée nourrit la défiance plus qu’elle ne la dissipe.

L’ampleur des éléments rendus publics est sans précédent. Entre trois et cinq millions de documents, près de 2 000 vidéos et environ 180 000 photographies, issus de procédures civiles, d’enquêtes fédérales, de saisies numériques et de correspondances accumulées sur plusieurs décennies, ont été mis à la disposition du grand public.

Cette profusion donne l’impression d’une transparence totale, presque absolue, mais elle pose immédiatement un problème de lisibilité. Une grande partie des fichiers est partiellement caviardée pour des raisons juridiques, d’autres sont fragmentaires ou dépourvus de contexte précis. Le public se trouve confronté à un matériau brut, massif et hétérogène, difficile à hiérarchiser et à interpréter sans un travail d’analyse approfondi. La transparence promise se heurte ainsi à une réalité paradoxale : montrer beaucoup ne signifie pas nécessairement expliquer clairement.

Cette difficulté est accentuée par l’apparition de nouveaux noms qui viennent s’ajouter à une liste déjà longue de personnalités associées, de près ou de loin, à l’univers relationnel d’Epstein.

La place manque ici pour analyser la portée de la totalité des révélations relatives à ces personnalités qui n’étaient jusque-là pas évoquées, par exemple la future reine de Norvège Mette-Marit et l’ancien premier ministre travailliste de ce même pays Thorbjorn Jagland, ou encore l’ancien ministre slovaque des affaires étrangères Miroslav Lajcak. Parmi les noms qui ont attiré une attention médiatique immédiate figurent trois cas sur lesquels nous nous attarderons particulièrement : ceux de Sarah Ferguson, Peter Mandelson et Caroline Lang.

Des révélations propices à tous les soupçons

Dans le cas de Sarah Ferguson, duchesse d’York et ancienne épouse (1986-1996) du prince Andrew – frère de l’actuel roi Charles et dont la proximité avec Epstein a été largement documentée bien avant les révélations du 30 janvier, au point que son frère lui a retiré le statut de prince en octobre dernier –, les documents font état de relations sociales avec Epstein dans les années 1990 et 2000, notamment des rencontres et des échanges dans des cercles mondains communs.

Certaines accusations relayées par des témoignages évoquent des contacts répétés et des sollicitations financières indirectes, bien que la principale intéressée ait toujours nié toute implication dans des activités illégales et rappelé que ces relations relevaient d’un cadre social sans dimension criminelle établie. La présence de son nom dans les fichiers illustre néanmoins la manière dont des liens sociaux, même anciens ou périphériques, peuvent être réinterprétés à la lumière du scandale.

Peter Mandelson, figure centrale de la vie politique britannique et ancien commissaire européen au commerce (2004-2008), apparaît quant à lui dans des correspondances et des agendas liés à Epstein. Les accusations évoquées dans certains témoignages ne portent pas sur des faits pénaux établis, mais sur des fréquentations répétées et une proximité assumée avec le financier, y compris après la première condamnation de celui-ci en 2008. Mandelson a reconnu publiquement avoir côtoyé Epstein dans un cadre social et professionnel, tout en niant toute connaissance ou participation à des activités criminelles.

La récurrence de son nom dans les fichiers alimente cependant le débat sur la responsabilité morale des élites et sur la persistance de relations avec Epstein malgré les alertes judiciaires déjà connues à l’époque des faits. Après avoir été limogé de son poste d’ambassadeur aux États-Unis en septembre dernier à cause de ses liens avec le criminel américain, Mandelson a annoncé le 1er février qu’il quittait le parti travailliste britannique, dont il était une figure historique.

Le cas de Caroline Lang, fille de Jack Lang et déléguée générale du syndicat de la production indépendante, poste dont elle a démissionné à la suite de la révélation de la présence de son nom dans les dossiers Epstein, est plus opaque et contribue à la confusion générale. Les documents la mentionnent dans des échanges et des listes de contacts liés à l’entourage d’Epstein, sans que son rôle précis soit clairement établi. Certaines accusations évoquent des interactions régulières ou une présence lors d’événements organisés par le financier, mais les fichiers ne permettent pas de déterminer la nature exacte de ces relations ni d’établir une implication pénale.

Cette opacité illustre l’un des problèmes majeurs de la divulgation massive : l’exposition de noms sans cadre interprétatif clair, ce qui laisse place à des spéculations difficilement vérifiables.

L’éternelle tension entre devoir d’information et préservation de la présomption d’innocence

La publication de ces informations met en lumière une tension fondamentale entre le droit à l’information et le devoir de prudence. D’un côté, la société civile réclame une transparence totale, considérant que seule la divulgation intégrale des archives peut permettre un examen démocratique des réseaux de pouvoir ayant entouré Epstein. De l’autre, juristes et journalistes rappellent que la diffusion de documents non contextualisés peut porter atteinte à la présomption d’innocence, nuire à des individus cités sans preuve formelle et détourner l’attention des victimes au cœur de l’affaire. La logique de la liste et de l’exposition nominale tend ainsi à remplacer l’analyse rigoureuse des faits.

Cette tension est d’autant plus forte que les fichiers font référence à Donald Trump à plus de 1 500 reprises. Cette omniprésence alimente la défiance à l’égard du président actuel et ravive les critiques sur la lenteur avec laquelle son administration a accepté la divulgation complète des dossiers. Même en l’absence de preuves nouvelles établissant une responsabilité pénale, la répétition de son nom nourrit les soupçons d’un pouvoir réticent à une transparence totale et accentue la polarisation politique autour de l’affaire.

En définitive, la révélation des fichiers Epstein apparaît moins comme un point final que comme une ouverture brutale et incontrôlée, fidèle à la métaphore de la boîte de Pandore. Elle expose les limites d’une transparence réduite à la publication massive de données et met au défi les institutions, les médias et le pouvoir politique.

Pour Donald Trump, cette affaire constitue un test majeur : démontrer que la transparence peut s’accompagner de clarté, de responsabilité et de respect des principes fondamentaux de l’État de droit, sans nourrir durablement la confusion ni la défiance institutionnelle. Au vu de ses premières réactions – il affirme que la publication du 30 janvier l’absout totalement, tout en s’en prenant avec virulence aux « démocrates pourris » qui, selon lui, étaient « presque tous », de même que leurs donateurs, des visiteurs réguliers de la tristement célèbre île d’Epstein –, le locataire de la Maison-Blanche semble au contraire vouloir utiliser cet épisode pour alimenter le climat extrêmement polémique qui règne aujourd’hui dans la vie politique américaine…

The Conversation

Frédérique Sandretto ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les fichiers Epstein, la boîte de Pandore de la transparence américaine – https://theconversation.com/les-fichiers-epstein-la-boite-de-pandore-de-la-transparence-americaine-275002

ChatGPT ou l’illusion du dialogue : comprendre comment l’IA modifie le rapport au savoir, avec la philosophie d’Hartmut Rosa

Source: The Conversation – in French – By Frédéric Bernard, Maître de conférences en neuropsychologie, Université de Strasbourg

Les outils d’intelligence artificielle semblent dialoguer avec les internautes qui les interrogent. Mais il n’y a aucune réciprocité dans ce type d’échanges, les réponses de ChatGPT résultent d’une production de langage automatisée. Quelles conséquences cette illusion a-t-elle sur notre rapport au savoir ? Mobiliser le concept de « résonance », développé par le philosophe Hartmut Rosa permet de mieux évaluer ces transformations.


L’usage des intelligences artificielles (IA) génératives, et en particulier de ChatGPT, s’est rapidement imposé dans le champ éducatif. Élèves comme enseignants y ont recours pour chercher des informations, reformuler des contenus ou accompagner des apprentissages. Mais, au-delà de la question de l’efficacité, une interrogation plus fondamentale se pose : quel type de relation au savoir ces outils favorisent-ils ?

Pour éclairer cette question, il est utile de mobiliser le concept de « résonance », développé par le sociologue et philosophe allemand Hartmut Rosa. La résonance désigne une relation au monde dans laquelle le sujet est à la fois affecté, engagé et transformé, sans que cette relation soit entièrement maîtrisable. Rosa voit dans cette forme de rapport au monde une manière de résister à l’aliénation produite par l’accélération contemporaine.

Dans son ouvrage Pédagogie de la résonance, il applique ce cadre au domaine éducatif et précise les conditions dans lesquelles une relation résonante au savoir peut émerger. C’est à l’aune de ces critères que nous proposons d’interroger l’usage de ChatGPT en contexte éducatif.




À lire aussi :
L’IA dans l’enseignement supérieur : les leçons de Platon et du mythe de Theuth


Que signifie « entrer en résonance » avec le savoir ?

Chez Hartmut Rosa, la résonance ne se réduit ni au plaisir d’apprendre, ni à l’engagement ponctuel, ni à la simple interaction. Elle désigne une relation au monde dans laquelle le sujet est d’abord affecté – quelque chose le touche, le surprend ou le déstabilise. Cette affectation appelle ensuite une réponse active : le sujet s’engage, répond, tente de faire quelque chose de ce qui lui arrive.

Mais la résonance ne se limite pas à cette dynamique interactive. Elle implique une transformation durable du sujet, parfois aussi de son rapport au monde, et repose sur une condition essentielle : elle ne peut être ni produite à volonté ni entièrement maîtrisée. Pour Rosa, une relation totalement disponible et contrôlable est, par définition, une relation muette.

Ces critères permettent désormais d’interroger ce que l’usage de ChatGPT fait – ou ne fait pas – au rapport au savoir en contexte éducatif.

ChatGPT peut-il satisfaire aux conditions de la résonance ?

ChatGPT se caractérise par une disponibilité quasi permanente : il répond sans délai, s’adapte aux demandes de l’utilisateur et semble toujours prêt à accompagner l’apprentissage. Cette facilité d’accès peut apparaître comme un atout pédagogique évident.

Pourtant, à la lumière de la notion de résonance développée par Hartmut Rosa, elle soulève une difficulté majeure. Une relation résonante au savoir suppose une part d’indisponibilité, une part de résistance et d’imprévisibilité sans lesquelles le rapport au monde risque de devenir purement instrumental.

Cette disponibilité permanente s’accompagne d’une interaction qui peut donner le sentiment d’une relation engageante. ChatGPT répond, reformule, encourage, s’ajuste au niveau de l’utilisateur et semble parfois « comprendre » ce qui lui est demandé. Le sujet peut ainsi se sentir affecté, soutenu, voire stimulé dans son rapport au savoir. Pourtant, cette affectation repose sur une asymétrie fondamentale : si le sujet peut être touché et répondre activement, l’agent conversationnel ne l’est jamais en retour.

La réponse de ChatGPT ne procède pas d’une expérience, d’un engagement ou d’une exposition au monde, mais d’une production de langage optimisée. L’échange peut alors prendre la forme d’un dialogue en apparence vivant, sans que s’instaure pour autant la réciprocité qui caractérise une relation véritablement résonante.

Des transformations à sens unique

La question de la transformation permet de préciser encore cette asymétrie. L’usage de ChatGPT peut incontestablement modifier le rapport du sujet au savoir : il peut faciliter la compréhension, accélérer l’accès à l’information, soutenir l’élaboration d’idées ou influencer des pratiques d’apprentissage. À ce titre, le sujet peut effectivement en ressortir transformé.

Mais cette transformation n’est jamais réciproque. Rien, dans l’échange, ne peut véritablement arriver à l’agent conversationnel : il ne conserve pas de trace existentielle de la relation, n’en est ni affecté ni engagé, et ne voit pas son rapport au monde durablement modifié. La transformation, lorsqu’elle a lieu, concerne donc exclusivement le sujet humain, ce qui marque une différence décisive avec les relations résonantes décrites par Rosa, où les deux pôles de la relation sont susceptibles d’être transformés.

On pourrait toutefois objecter que ChatGPT n’est pas toujours pleinement disponible ni fiable. Il lui arrive de produire des erreurs, d’inventer des références ou de fournir des informations inexactes – ce que l’on désigne souvent comme des « hallucinations ». Ces moments d’échec peuvent interrompre l’échange et surprendre l’utilisateur.




À lire aussi :
Quand l’IA fait n’importe quoi, le cas du gratte-ciel et du trombone à coulisse


Mais cette forme d’indisponibilité n’est pas celle que décrit Rosa. Elle ne procède pas d’une résistance signifiante du monde, ni d’une altérité qui interpelle le sujet, mais d’un dysfonctionnement du dispositif. Loin d’ouvrir un espace de résonance, ces ruptures tendent plutôt à fragiliser la confiance et à rompre la relation, en rappelant que l’échange repose sur une production de langage fondée sur des modèles probabilistes intégrant des régularités, des associations et des inférences apprises, plutôt que sur une rencontre.

On pourrait également faire valoir que certains agents conversationnels peuvent être configurés pour adopter des réponses plus rugueuses, plus critiques ou moins accommodantes, introduisant ainsi une forme de résistance dans l’échange. Cette rugosité peut déstabiliser l’utilisateur, ralentir l’interaction ou rompre avec l’illusion d’une aide toujours fluide.

Toutefois, cette résistance reste fondamentalement paramétrable, réversible et sous contrôle. Elle ne procède pas d’une altérité exposée à la relation, mais d’un choix de configuration du dispositif. L’indisponibilité ainsi produite est scénarisée : elle peut être activée, modulée ou désactivée à la demande. À ce titre, elle ne satisfait pas à la condition d’indisponibilité constitutive qui, chez Rosa, rend possible une véritable relation de résonance.

Assistance cognitive ou relation résonante ?

La comparaison avec le livre permet de mieux saisir ce qui distingue une indisponibilité scénarisée d’une indisponibilité constitutive. Contrairement à ChatGPT, le livre ne répond pas, ne s’adapte pas et ne reformule pas à la demande. Il impose son rythme, sa forme, ses zones d’opacité, et résiste aux attentes immédiates du lecteur. Pourtant, cette absence de dialogue n’empêche nullement la résonance ; elle en constitue souvent la condition.

Le texte peut affecter, déstabiliser, transformer durablement le sujet précisément parce qu’il demeure indisponible, irréductible à une simple fonctionnalité. À la différence d’un agent conversationnel, le livre expose le lecteur à une altérité qui ne se laisse ni paramétrer ni maîtriser, et c’est cette résistance même qui rend possible un rapport résonant au savoir.

Cela ne signifie pas que l’usage de ChatGPT soit incompatible avec toute forme de résonance. À condition de ne pas l’ériger en point d’entrée privilégié dans le rapport au savoir, l’outil peut parfois jouer un rôle de médiation secondaire : reformuler après une première confrontation, expliciter des tensions, ou aider à mettre en mots une difficulté éprouvée. Utilisé de cette manière, ChatGPT n’abolit pas l’indisponibilité constitutive de la rencontre avec un contenu, mais intervient après coup, dans un temps de reprise et de clarification. Il s’agirait alors moins de produire la résonance que de préserver les conditions dans lesquelles elle peut, éventuellement, advenir.

L’analyse conduite à partir de la notion de résonance invite à ne pas confondre assistance cognitive et relation résonante au savoir. ChatGPT peut indéniablement soutenir certains apprentissages, faciliter l’accès à l’information ou accompagner l’élaboration d’idées. Mais ces apports reposent sur une logique de disponibilité, d’adaptation et de contrôle qui ne satisfait pas aux conditions de la résonance telles que les décrit Hartmut Rosa.

Le risque, en contexte éducatif, serait alors de substituer à un rapport au savoir fondé sur la confrontation, la résistance et la transformation, une relation essentiellement instrumentale, aussi efficace soit-elle. La question n’est donc pas de savoir s’il faut ou non recourir à ces outils, mais comment les inscrire dans des pratiques pédagogiques qui préservent – voire réactivent – les conditions d’un rapport véritablement résonant au savoir.

The Conversation

Frédéric Bernard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. ChatGPT ou l’illusion du dialogue : comprendre comment l’IA modifie le rapport au savoir, avec la philosophie d’Hartmut Rosa – https://theconversation.com/chatgpt-ou-lillusion-du-dialogue-comprendre-comment-lia-modifie-le-rapport-au-savoir-avec-la-philosophie-dhartmut-rosa-274259

We run writing workshops at a South African university: what we’ve learnt about how students are using AI, and how to help them

Source: The Conversation – Africa – By Peet van Aardt, Coordinator: Initiative for Creative African Narratives (iCAN) & Lecturer: Academic Literacy, University of the Free State

Much is being said about the wonders of artificial intelligence (AI) and how it is the new frontier. And while it provides amazing possibilities in fields like medicine, academics are debating its advantages for university students. Peet van Aardt researches student writing and presents academic writing workshops at the University of the Free State Writing Centre, helping students to build clear arguments, summarise essay structure and express their opinions in their own voice. He also spearheads the Initiative for Creative African Narratives (iCAN), a project that assists students in getting their original stories published. Here he shares his experiences and thoughts on the use of generative AI at university.

What are your biggest concerns about the growth of AI-generated material from students?

The use of generative AI to compose assignments and write essays is widely reported, and its potentially detrimental effects on critical thinking and research are clear.

My biggest concern is that it takes away academic agency from students. By that I mean it takes the proverbial pen out of our students’ hands. If they over-rely on it (which we see they tend to do), they no longer think critically and no longer express their own voices.

Young man with a microphone
Student voice might be lost when AI does the writing.
Clout, Unsplash, CC BY

This is particularly important in African universities, where student voice and the intellectual contribution of students to society are drivers of social change and decolonisation.

How can you tell if a text is written by a student or is AI generated?

Flawless grammar and clichés are the first two signs. Generic, shallow reasoning is another. Finally, the generative AI answer does not tend to relate well to topics set in a local context.

If I take student short stories that have been submitted to our iCAN project as an example, I see more and more tales set in some unnamed place (previously, students’ stories often took place in their own towns) or adventures experienced by characters named Stacey, Rick, Damian or other American-sounding people.

Another example: third year students studying Geography were asked to write a ten page essay on the history and future of sustainability and how it applied to Africa. To guide them, the students were referred to a report that addresses challenges in sustainability. What we saw during our consultations in the writing centre were texts that discussed this report, as well as relevant topics such as “global inequality and environmental justice” and “linking human rights, sustainability and peace” – but nowhere was South Africa even mentioned. The students clearly prompted their generative AI tool to produce an essay on the first part of the assignment instructions.

Also, it’s quite easy to determine whether somebody did their own research and created their own arguments when they have to reflect on it.

When students don’t understand the text of their essay, it’s a sign that they didn’t produce it. As academics and writing coaches we increasingly encounter students who, instead of requiring help with their own essay or assignment, need assistance with their AI-produced text. Students ask questions about the meaning and relevance of the text.

Writing centre consultations have always relied on asking the students questions about their writing in an attempt to guide them on their academic exploration. But recently more time needs to be spent on reading what the students present as their writing, and then asking them what it means. Therefore, instead of specifics, we now need to take a step back and look at the bigger picture.

Not all students use generative AI poorly. That is why I still believe in using AI detection tools as a first “flag” in the process: it provides a place to start.

What interventions do you propose?

Students should be asked questions about text, like:

  • Does what it is saying make sense?

  • Does this statement sound true?

  • Does it answer the lecturer’s question?

In some instances teaching and learning is moving back to paper-based assignments, which I support. If possible, we should let students write with pens in controlled environments.

It’s also becoming more important to reignite the skill of academic reading so that students can understand what their AI assistant is producing. This points to the importance of reading for understanding, being able to question what was read, and being able to remember what one has read.

Generative AI is quite western and northern-centric. I believe we in academia have an opportunity to focus, where possible, on indigenous knowledge. Students should be encouraged to reflect on indigenous knowledge more often.

Lastly, academics should not over-rely on generative AI themselves if they don’t want their students to do so. As student enrolment numbers rise, time is becoming a rare luxury for academics, but we cannot expect students to take responsibility for their learning when we want to take shortcuts in our facilitation.

Have you changed your approach given these insights?

We have been revisiting our workshop materials to include more theory and practice on reading. Well-known strategies like the SQ3R method (to survey, question, read, recite and review a text) and the PIE approach (understanding that paragraphs Point to a main idea, support this by Illustration and Explain how and why the writer supports the main idea) are infused, along with various activities to ensure students apply some of these.

Our one-on-one consultations between students and trained, qualified academic writing experts continue to be integral.

If we as academics want to continue facilitating the learning process in students – and truly put them at the centre of education – we have to empower them to think critically and express themselves in their own voices.

The Conversation

Peet van Aardt does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. We run writing workshops at a South African university: what we’ve learnt about how students are using AI, and how to help them – https://theconversation.com/we-run-writing-workshops-at-a-south-african-university-what-weve-learnt-about-how-students-are-using-ai-and-how-to-help-them-273286

JO Milan-Cortina 2026 et Alpes 2030 : qui sont les « éléphants blancs » ?

Source: The Conversation – France (in French) – By Matthieu Llorca, Maitre de conférences-HDR en économie, spécialsé en politiques économiques, banque-finance et économie du sport, Université Bourgogne Europe

Le comité des JO de Milan-Cortina 2026 revendique la réutilisation de 85 % d’infrastructures existantes. TinaGutierrez/Shutterstock

Les Jeux olympiques d’hiver à Milan-Cortina en 2026 puis dans les Alpes françaises en 2030 font resurgir la problématique des « éléphants blancs ». Ces mégaprojets, souvent des équipements sportifs et des infrastructures de mobilité, amènent plus de coûts que de bénéfices à l’État et aux collectivités. Alors, concrètement, comment le Comité international olympique et les pays hôtes y répondent-ils ?


Les équipements sportifs mobilisés lors des Jeux olympiques (JO) d’hiver font l’objet de multiples débats, concernant leurs coûts économiques, leurs impacts environnementaux et leurs usages post-JO. Pour répondre à ces critiques, le Comité international olympique (CIO) prône l’usage de sites temporaires ou existants (héritages de Jeux passés) à la construction de nouvelles installations temporaires.

Au cours des Jeux d’hiver du XXIe siècle et ceux à venir de 2026 et de 2030, les controverses sur les sites sportifs – surcoûts, retards, etc. – portent sur le saut à ski, les pistes de bobsleigh, le patinage de vitesse et artistique. Ces quatre sports ont toujours été présents aux Jeux d’hiver, depuis la première édition à Chamonix 1924.

Les Jeux olympiques d’hiver de Milan-Cortina 2026 coûteront 4 milliards d’euros à la charge de la Simico, l’agence publique chargée des infrastructures, pour la construction et rénovation des sites sportifs et infrastructures de transport, et autour de 1,7 milliard d’euros pour le Comité d’organisation des Jeux olympiques (COJO), soit un total provisoire de 5,7 milliards d’euros.

Ces mégaprojets appelés « éléphants blancs » font craindre des coûts exorbitants pour les pays hôtes et les collectivités locales, sans bénéfices à long-terme. Selon la professeur d’architecture et d’urbanisme Juliet Davis, « ils représentent des infrastructures sportives coûteuses, construites pour les Jeux, qui deviennent obsolètes, sous-utilisées, voire laissées à l’abandon, faute d’utilité ou de planification adéquate, et qui sont un fardeau financier pour les villes hôtes des Jeux ».

Décryptage avec les Jeux olympiques d’hiver de Milan-Cortina 2026 et des Alpes françaises 2030.

Quatre sites abandonnés entre 2002 et 2018

De 2002 à 2018, seuls quatre sites abandonnés sont recensés : à Turin 2006, le site de saut à ski de Pragelato et la piste de bobsleigh/luge de Cesanatorinese, à Pyeongchang en 2018, le centre de ski alpin de Jeongseon et l’ovale de patinage de vitesse de Gangneung. Sur un total de 67 sites permanents, seul 6 % sont désertés entre 2002 et 2018 contre 11,4 % pour l’ensemble des Jeux d’hiver organisés entre 1924 et 2018.

En d’autres termes, la part des « éléphants blancs » parmi les infrastructures sportives des Jeux d’hiver a diminué d’environ quatre points de pourcentage au cours des Jeux du XXIe siècle. De telles controverses persistent à l’occasion des JO de Milan-Cortina 2026, qui se basent sur 85 % d’infrastructures existantes, soit 11 sites sur 13, et des prochains qui se dérouleront dans les Alpes françaises 2030.

Choix politiques

Un premier débat porte sur la sélection des sites retenus dans le dossier de candidature et proposés par le Comité d’Organisation des Jeux Olympiques (COJO). Ces derniers peuvent faire l’objet d’arbitrage et de modification par rapport au projet initial.

Dans le cas des Jeux olympiques d’hiver de Milan-Cortina 2026, la construction d’une nouvelle piste de bobsleigh à Cortina a suscité des débats. Le coût est estimé à 120 millions d’euros, soit une hausse de 50 % par rapport au budget initial de 61 millions d’euros. L’Italie dispose pourtant d’une piste homologuée à Cesana, certes inutilisée depuis 2011, mais qui peut être rénovée à moindre coût, pour environ 30 millions d’euros minimum.

Le choix de construire une nouvelle piste de bobsleigh est purement politique, au détriment de la contrainte environnementale et budgétaire. Si le Comité international olympique (CIO) envisageait une délocalisation, le comité Milan-Cortina 2026 a refusé ce choix avec l’objectif de garder l’intégralité des sites sportifs sur le sol italien ; une décision soutenue par le gouvernement de Giorgia Meloni.

Cartographie des sites olympiques et paralympiques de Milan-Cortina 2026 (actualité en 2023).
Milan-Cortina 2026

Outre la piste de bobsleigh, le choix du site du patinage de vitesse a fait l’objet de modifications par rapport au site prévu dans le dossier de candidature. Baslega di Pine a été écarté en raison de son coût, mais sera construit pour les Jeux olympiques d’hiver de la Jeunesse 2028 de Dolomiti Valtellina. Le site temporaire au parc des Expositions de la Fiera Milano a été retenu pour les JO de Milan-Cortina, pour un coût de 20 millions d’euros.

Le site de patinage de vitesse de Lingotto fut à un moment évoqué, avant d’être rejeté par le COJO et la ville de Milan, pour des motifs politiques et de rivalité régionale entre les provinces du Piémont et de Lombardie.

Relocalisation et délocalisation

De nombreux équipements sportifs font l’objet de retard, comme le site de Livigno, hôte des épreuves de snowboard, dont le système de neige artificielle n’était pas encore terminé, en raison d’autorisations administratives en retard concernant le remplissage du réservoir.




À lire aussi :
Pourquoi la construction des villages JO de Paris 2024 fut une réussite


Il en est de même pour les JO d’hiver dans les Alpes françaises en 2030, dont la sélection définitive des sites sportifs n’est toujours pas annoncée. Isola 2000, initialement prévu dans le dossier de candidature pour accueillir les épreuves de skicross et de snowboardcross, se voit retirer l’organisation de ces deux épreuves au profit de Montgenèvre. De même, Méribel, qui avait accueilli avec Courchevel l’organisation des championnats du monde de ski alpin 2023, était prévu pour organiser, sur ce même modèle, les épreuves de ski alpin féminin. Val-d’Isère est réintroduite en juillet 2025 dans la carte des sites olympiques des Jeux 2030 pour organiser les épreuves féminines de ski alpin, au détriment de Méribel qui s’est désisté.

Contrairement aux JO de Milan-Cortina 2026 qui aurait pu privilégier pour la piste de bobsleigh les sites à l’étranger d’Innsbruck-Igls, les Jeux des Alpes françaises seront les premiers à délocaliser un site sportif, celui de patinage de vitesse, dans un pays voisin. La sélection finale n’est toujours pas annoncée, mais le choix des organisateurs portera entre le site d’Heerenveen aux Pays-Bas ou celui de Turin, hôte des Jeux d’hiver 2006.

Modifications coûteuses

De telles modifications entre les sites sportifs initialement sélectionnés dans le projet de candidature et ceux finalement retenus ne font que contribuer à une augmentation des coûts des Jeux et à remettre en cause leur sobriété, annoncée par les organisateurs. Par exemple, le comité des Alpes françaises 2030, qui annoncent les Jeux les moins chers de l’histoire et les plus sobres.

De l’autre côté du prisme, la question de l’utilisation des sites après les Jeux olympiques vient d’être analysée. 86 % de tous les sites permanents utilisés pour les Jeux olympiques depuis Athènes en 1896, et 94 % des sites datant du XXIe siècle, seraient encore utilisés aujourd’hui.

The Conversation

Matthieu Llorca est membre du think tank Spirales Institut

ref. JO Milan-Cortina 2026 et Alpes 2030 : qui sont les « éléphants blancs » ? – https://theconversation.com/jo-milan-cortina-2026-et-alpes-2030-qui-sont-les-elephants-blancs-274893

Pourquoi l’expansion pétrolière, au Venezuela et ailleurs, est un non-sens climatique et économique

Source: The Conversation – France (in French) – By Renaud Coulomb, Professor of Economics, Mines Paris – PSL

Relancer l’exploitation pétrolière vénézuélienne, l’une des plus émettrices de gaz à effet de serre au monde, revient à parier sur l’échec de la transition énergétique. À l’heure où la majorité des réserves fossiles devrait rester inexploitée, ces investissements exposeraient l’économie mondiale à un double risque : trajectoire de réchauffement dramatique d’un côté, gaspillage massif de capital de l’autre.


Le 3 janvier 2026, une opération militaire états-unienne a abouti à la capture et à l’enlèvement du président vénézuélien Nicolas Maduro et de son épouse. Donald Trump a aussitôt annoncé que les États-Unis dirigeraient temporairement le pays et affirmé vouloir relancer la production pétrolière du pays, avec plus de 100 milliards de dollars (84,78 milliards d’euros) d’investissements des compagnies pétrolières américaines.

Le Venezuela dispose en effet de réserves pétrolières gigantesques estimées à environ 300 milliards de barils. Le pays n’exploite actuellement que peu ce potentiel, du fait notamment des contraintes de stockage et plus généralement de la faiblesse des investissements.

Or ce pétrole est particulièrement émetteur de gaz à effet de serre (GES). Cela tient à la nature lourde et visqueuse du brut, qui rend l’extraction énergivore, et des émissions de dioxyde de carbone provenant du torchage et des fuites de méthane. Extraire un baril de pétrole au Venezuela émet, en moyenne, environ deux fois plus de GES que l’extraction d’un baril en Arabie saoudite ou en Norvège. Réhabiliter des gisements aussi polluants relève du non-sens écologique.

Ces investissements projetés s’inscrivent toutefois dans une logique mondiale persistante. Alors que le changement climatique s’aggrave et que deux tiers des émissions mondiales de GES proviennent des énergies fossiles, l’industrie pétrolière continue d’élargir son offre mondiale. Chaque année, des dizaines de milliards de dollars sont engloutis pour découvrir de nouveaux gisements et augmenter les réserves d’énergie fossile disponibles.

Cette actualité, au-delà de sa portée géopolitique, illustre clairement le risque climatique que représente la poursuite de l’expansion pétrolière dans le monde. Ce serait non seulement une aberration écologique, mais aussi économique.




À lire aussi :
Empreinte carbone : tous les barils de pétrole ne se valent pas et cela a son importance pour la transition énergétique


Un dilemme pour l’économie mondiale

Miser aujourd’hui sur l’expansion des réserves de pétrole, au Venezuela comme ailleurs, revient à parier financièrement sur l’échec de la transition.

Les investissements dans l’exploration pétrolière créent des incitations financières, pour cete industrie, à entraver les politiques climatiques.
UN Climate Change, CC BY-NC-ND

La rentabilité de ces actifs est en effet structurellement incompatible avec le respect des accords climatiques : pour que ces projets soient rentables, il faut que les politiques de décarbonation échouent. Dès lors, ces investissements renforcent l’intérêt économique de leurs promoteurs à défendre le statu quo, y compris en pesant contre un durcissement des politiques climatiques.

De fait, l’accord a minima de la dernière COP30 sur le climat illustre cette difficulté. Le texte évoquait de vagues « efforts » et « solutions », tout en continuant à éluder l’arithmétique de base : pour rester sous les 2 °C (voire idéalement celle de 1,5 °C) d’augmentation des températures, la production de combustibles fossiles doit chuter rapidement et dès aujourd’hui. Autrement dit, une part importante des réserves prouvées doivent être laissées inexploitées.

La poursuite de ces investissements place l’économie mondiale face à deux risques distincts :

  • Premier scénario : les politiques climatiques actuelles échouent. Chaque nouveau baril découvert alimente alors la surabondance de l’offre, fait baisser les prix et retarde la transition vers une économie bas carbone. Cela verrouille la planète dans une trajectoire de réchauffement bien trop élevé, c’est le pire des scénarios pour le climat et le bien-être mondial.

  • Second scénario : les régulations climatiques se durcissent, mais tardivement. Les nouveaux projets pétroliers deviennent alors majoritairement des « actifs échoués », c’est-à-dire des investissements sans valeur, synonymes d’un gaspillage massif de capital. Le changement climatique est finalement contrôlé, mais du capital a été investi au mauvais endroit, alors qu’il aurait pu être directement orienté vers la transition énergétique.




À lire aussi :
Les États-Unis ont passé des décennies à faire pression pour mettre la main sur le pétrole vénézuélien


Faut-il interdire l’exploration pétrolière ?

Pour éviter de se retrouver devant un tel dilemme, on pourrait envisager d’interdire dès à présent l’exploration pétrolière et les investissements visant à rendre exploitables les gisements récemment découverts. Dans une étude récente, nous avons justement évalué les effets qu’aurait une telle mesure, en nous basant sur un modèle construit à partir des données de plus de 14 000 gisements pétroliers.

L’enjeu de limiter l’exploration pétrolière a suscité, ces dernières années, une attention politique croissante. La France, par exemple, a interdit toute nouvelle exploration de ressources fossiles en 2017. En 2024, le Royaume-Uni a annoncé la fin de l’octroi de nouvelles licences pétrolières et gazières.

Une telle mesure peut-elle être efficace ? Le résultat de notre étude est sans appel. Tant que les autres politiques climatiques – comme une tarification du carbone au niveau mondial – restent limitées ou inexistantes, une interdiction de l’exploration permettrait d’éviter l’émission d’environ 114 milliards de tonnes équivalent CO₂. Et, par la même occasion, d’épargner à l’économie mondiale des milliers de milliards de dollars de dommages climatiques cumulés.

En effet, chaque tonne de CO₂ émise aujourd’hui engendrera des coûts réels demain : multiplication des événements climatiques extrêmes, montée du niveau des mers, impacts sanitaires, pertes de productivité

Poursuivre l’exploration revient donc à rendre exploitables des ressources dont le coût social dépasse largement les bénéfices privés qui en découlent. Ce coût social est actuellement un impensé dans l’argumentaire de l’industrie fossile.

Quand l’argumentation de l’industrie fossile ne tient pas

L’industrie invoque régulièrement la nécessité de remplacer des champs vieillissants, dont la production décline naturellement chaque année. Certains experts estiment aussi que les nouveaux gisements pourraient être moins émetteurs de GES que les champs de pétrole actuellement en production.

Nos résultats montrent pourtant que, dans une trajectoire compatible avec la neutralité carbone, ni le déclin naturel des gisements ni leur hétérogénéité en matière d’empreinte carbone ne suffisent à justifier l’ouverture de nouveaux champs. Ces conclusions restent inchangées même dans l’hypothèse où les nouveaux gisements n’émettraient aucun GES lors de leur exploitation.

L’exploration ne générerait des bénéfices sociaux nets que dans un monde où les producteurs intégreraient dans leurs calculs économiques presque l’intégralité du coût climatique des émissions. Concrètement, cela supposerait une taxe carbone couvrant toutes les émissions liées à un baril – de l’exploration jusqu’à la combustion – afin de refléter le coût social de la production et de l’utilisation de ce baril. Même dans ce scénario très exigeant, les bénéfices resteraient modestes : ils seraient environ 40 fois inférieurs aux coûts environnementaux de l’exploration lorsque ces émissions ne sont pas prises en compte par les producteurs.

Ce résultat s’explique simplement : dans une trajectoire compatible avec le « Net Zero », la demande de pétrole devient relativement faible. Or, cette demande pourrait être couverte par des volumes déjà disponibles de pétrole moins intensif en carbone, dont les coûts d’exploitation restent modérés.

Les efforts d’exploration actuels ne sauraient donc être justifiés sur cette base :

Un moratoire plus acceptable qu’une taxe pour les pays producteurs ?

Notre étude le montre clairement : interdire l’exploration serait un levier puissant pour limiter l’offre de pétrole, pour réduire les émissions futures et pour éviter de créer de nouveaux actifs voués à devenir inutilisables si la transition vers une économie bas carbone se matérialise.

Pour certains pays producteurs, un tel moratoire pourrait même s’avérer politiquement plus acceptable qu’une taxe. En restreignant l’offre, il soutiendrait les cours du baril et, par extension, les revenus des producteurs actuels, tout en servant les ambitions climatiques.

Ce paradoxe – une mesure climatique qui pourrait profiter à certains producteurs, notamment aux États-Unis ou en Arabie saoudite – pourrait faciliter un accord international.




À lire aussi :
Comment échapper à la malédiction de la rente fossile ?


Mais il aurait un coût pour les consommateurs et contreviendrait au principe du pollueur-payeur, en faisant peser l’essentiel du coût de la transition sur les consommateurs finaux.

Reste un écueil de taille : la mise en place de telles politiques serait complexe dans un contexte géopolitique fragmenté, marqué par l’érosion du multilatéralisme et la multiplication des stratégies non coopératives.

À défaut d’un accord mondial immédiat, des interdictions ciblées pourraient avoir un impact majeur. À cet égard, l’élargissement de coalitions existantes, comme l’alliance Beyond Oil and Gas, dont la France est membre, est fondamental. En renforçant ce socle diplomatique d’États pionniers, engagés à ne plus octroyer de licences d’exploration, une initiative volontaire pourrait progressivement se muer en un cadre normatif.

Mais la crédibilité de telles interdictions dépend de leur permanence. Aux États-Unis, le retour de Donald Trump au pouvoir s’est accompagné d’une défense assumée de l’industrie pétrolière et d’un désengagement des institutions internationales clés, telles que la Convention-cadre des Nations unies sur les changements climatiques ou le Groupe d’experts intergouvernemental sur l’évolution du climat (Giec), deux piliers de la coopération climatique mondiale.

Londres aussi a récemment revu sa position. Le cas français illustre lui aussi la possibilité de revirements politiques : le Sénat a, le 29 janvier 2026, voté une proposition de loi remettant en cause la loi de 2017 interdisant l’exploration pétrolière et gazière.

The Conversation

Renaud Coulomb déclare ne pas être en situation de conflit d’intérêts. Il ne fournit pas de services de conseil et ne détient aucune participation financière dans des entreprises du secteur du pétrole et du gaz, ni dans des entreprises susceptibles de bénéficier des analyses ou des conclusions présentées dans cette tribune.

Cette recherche a bénéficié du soutien financier de l’Agence nationale de la recherche (ANR), de la Paris School of Economics, de l’Université de Melbourne, de Mines Paris – PSL University et de la Fondation Mines Paris dans le cadre de la Chaire de Mécénat ENG (sponsors : EDF, GRTgaz, TotalEnergies), en partenariat avec l’Université Paris-Dauphine, la Toulouse School of Economics et CentraleSupélec.

Fanny Henriet a reçu des financements de l’ANR

France d’Agrain a reçu des financements des financements de la Fondation Mines Paris dans le cadre de la Chaire de Mécénat ENG (sponsors : EDF, GRTgaz, TotalEnergies), en partenariat avec l’Université Paris-Dauphine, la Toulouse School of Economics et CentraleSupélec.

ref. Pourquoi l’expansion pétrolière, au Venezuela et ailleurs, est un non-sens climatique et économique – https://theconversation.com/pourquoi-lexpansion-petroliere-au-venezuela-et-ailleurs-est-un-non-sens-climatique-et-economique-274581

NASA’s Artemis II plans to send a crew around the Moon to test equipment and lay the groundwork for a future landing

Source: The Conversation – USA – By Margaret Landis, Assistant Professor of Earth and Space Exploration, Arizona State University

A banner signed by NASA employees and contractors outside Launch Complex 39B, where NASA’s Artemis II rocket is visible in the background. NASA/Joel Kowsky, CC BY-NC-ND

Almost as tall as a football field, NASA’s Space Launch System rocket and capsule stack traveled slowly – just under 1 mile per hourout to the Artemis II launchpad, its temporary home at the Kennedy Space Center in Florida, on Jan. 17, 2026. That slow crawl is in stark contrast to the peak velocity it will reach on launch day, over 22,000 miles per hour, when it will send a crew of four on a journey around the Moon.

While its first launch opportunity is on Feb. 8., a rocket launch is always at the mercy of a variety of factors outside of the launch team’s control – from the literal position of the planets down to flocks of birds or rogue boats near the launchpad. Artemis II may not be able to launch on Feb. 8, but it has backup launch windows available in March and April. In fact, Feb. 8 already represents a small schedule change from the initially estimated Feb. 6 launch opportunity opening.

Artemis II’s goal is to send people to pass by the Moon and be sure all engineering systems are tested in space before Artemis III, which will land astronauts near the lunar south pole.

If Artemis II is successful, it will be the first time any person has been back to the Moon since 1972, when Apollo 17 left to return to Earth. The Artemis II astronauts will fly by the far side of the Moon before returning home. While they won’t land on the surface, they will provide the first human eyes on the lunar far side since the 20th century.

To put this in perspective, no one under the age of about 54 has yet lived in a world where humans were that far away from Earth. The four astronauts will orbit the Moon on a 10-day voyage and return through a splashdown in the Pacific Ocean. As a planetary geologist, I’m excited for the prospect of people eventually returning to the Moon to do fieldwork on the first stepping stone away from Earth’s orbit.

A walkthrough of the Artemis II mission, which plans to take a crew around the Moon.

Why won’t Artemis II land on the Moon?

If you wanted to summit Mount Everest, you would first test out your equipment and check to make sure everything works before heading up the mountain. A lunar landing is similar. Testing all the components of the launch system and crew vehicle is a critical part of returning people safely to the surface of the Moon and then flying them back to Earth.

And compared to the lunar surface, Everest is a tropical paradise.

NASA has accomplished lunar landings before, but the 54-year hiatus means that most of the engineers who worked on Apollo have retired. Only four of the 12 astronauts who have walked on the Moon are still alive.

Technology now is also vastly different. The Apollo lunar landing module’s computer only had about 4 kilobytes of RAM. A single typical iPhone photo is a few megabytes in size, over 1,000 times larger than the Apollo lunar landing module’s memory.

The two components of the Artemis II project are the rocket (the Space Launch System) and the crew capsule. Both have had a long road to the launchpad.

The Orion capsule was developed as part of the Constellation program, announced in 2005 and concluded in 2010. This program was a President George W. Bush-era attempt to move people beyond the space shuttle and International Space Station.

The Space Launch System started development in the early 2010s as a replacement vehicle for the Ares rocket, which was meant to be used with the Orion capsule in the Constellation program. The SLS rocket was used in 2022 for the Artemis I launch, which flew around the Moon without a crew. Boeing is the main contractor tasked with building the SLS, though over 1,000 separate vendors have been involved in the rocket’s fabrication.

The Apollo program, too, first sent a crewed capsule around the Moon without landing. Apollo 8, the first crewed spacecraft to leave Earth orbit, launched and returned home in December 1968. William Anders, one of the astronauts on board tasked with testing the components of the Apollo lunar spacecraft, captured the iconic “Earthrise” image during the mission.

The white and blue cloudy Earth is visible above a gray edge of the Moon's surface
The Apollo 8 ‘Earthrise’ image, showing the Earth over the horizon from the Moon. This image, acquired by William Anders, became famous for its portrayal of the Earth in its planetary context.
NASA

“Earthrise” was the first time people were able to look back at the Earth as part of a spacefaring species. The Earthrise image has been reproduced in a variety of contexts, including on a U.S. postage stamp. It fundamentally reshaped how people thought of their environment. Earth is still far and beyond the most habitable location in the solar system for life as we know it.

Unique Artemis II science

The Artemis II astronauts will be the first to see the lunar far side since the final Apollo astronauts left over 50 years ago. From the window of the Orion capsule, the Moon will appear at its largest to be about the size of a beach ball held at arm’s length.

Over the past decades, scientists have used orbiting satellites to image much of the lunar surface. Much imaging of the lunar surface has been accomplished, especially at high spatial resolution, by the lunar reconnaissance orbiter camera, LROC.

LROC is made up of a few different cameras. The LROC’s wide angle and narrow angle cameras have both captured images of more than 90% of the lunar surface. The LROC Wide Angle Camera has a resolution on the lunar surface of about 100 meters per pixel – with each pixel in the image being about the length of an American football field.

The LROC narrow angle camera provides about 0.5 to 2 meters per pixel resolution. This means the average person would fit within about the length of one pixel from the narrow angle camera’s orbital images. It can clearly see large rocks and the Apollo lunar landing sites.

If the robotic LROC has covered most of the lunar surface, why should the human crew of Artemis II look at it, at lower resolution?

Most images from space are not what would be considered “true” color, as seen by the human eye. Just like how the photos you take of an aurora in the night sky with a cellphone camera appear more dramatic than with the naked eye, the image depends on the wavelengths the detection systems are sensitive to.

Human astronauts will see the lunar surface in different colors than LROC. And something that human astronauts have that an orbital camera system cannot have is geology training. The Artemis II astronauts will make observations of the lunar far side and almost instantly interpret and adjust their observations.

The proceeding mission, Artemis III, which will include astronauts landing on the lunar surface, is currently scheduled to launch by 2028.

What’s next for Artemis II

The Artemis II crew capsule and SLS rocket are now waiting on the launchpad. Before launch, NASA still needs to complete several final checks, including testing systems while the rocket is fueled. These systems include the emergency exit for the astronauts in case something goes wrong, as well as safely moving fuel, which is made of hydrazine – a molecule made up of nitrogen and hydrogen that is incredibly energy-dense.

Completing these checks follows the old aerospace adage of “test like you fly.” They will ensure that the Artemis II astronauts have everything working on the ground before departing for the Moon.

The Conversation

Margaret Landis receives research funding from NASA. She is affiliated with the Planetary Society as a member for over 20 years.

ref. NASA’s Artemis II plans to send a crew around the Moon to test equipment and lay the groundwork for a future landing – https://theconversation.com/nasas-artemis-ii-plans-to-send-a-crew-around-the-moon-to-test-equipment-and-lay-the-groundwork-for-a-future-landing-273688

A human tendency to value expertise, not just sheer power, explains how some social hierarchies form

Source: The Conversation – USA – By Thomas Morgan, Associate Professor of Evolutionary Anthropology, Institute of Human Origins, Arizona State University

Leaders can seem to emerge from the group naturally, based on their skill and expertise. Hiraman/E+ via Getty Images

Born on the same day, Bill and Ben both grew up to have high status. But in every other way they were polar opposites.

As children, Bill was well-liked, with many friends, while Ben was a bully, picking on smaller kids. During adolescence, Bill earned a reputation for athleticism and intelligence. Ben, flanked by his henchmen, was seen as formidable and dangerous. In adulthood, Bill was admired for his decision-making and diplomacy, but Ben was feared for his aggression and intransigence.

People sought out Bill’s company and listened to his advice. Ben was avoided, but he got his way through force.

How did Ben get away with this? Well, there’s one more difference: Bill is a human, and Ben is a chimp.

This hypothetical story of Bill and Ben highlights a deep difference between human and animal social life. Many mammals exhibit dominance hierarchies; forms of inequality in which stronger individuals use strength, aggression and allies to get better access to food or mating opportunities.

Human societies are more peaceable but not necessarily more equal. We have hierarchies, too – leaders, captains and bosses. Does this mean we are no more than clothed apes, our domineering tendencies cloaked under superficial civility?

I’m an evolutionary anthropologist, part of a team of researchers who set out to come to grips with the evolutionary history of human social life and inequality.

Building on decades of discoveries, our work supports the idea that human societies are fundamentally different from those of other species. People can be coercive, but unlike other species, we also create hierarchies of prestige – voluntary arrangements that allocate labor and decision-making power according to expertise.

This tendency matters because it can inform how we, as a society, think about the kinds of social hierarchies that emerge in a workplace, on a sports team or across society more broadly. Prestige hierarchies can be steep, with clear differences between high and low status. But when they work well, they can form part of a healthy group life from which everyone benefits.

several chimpanzees walking in a loose line following each other
In other primates, leaders secure their dominant roles with physical strength and aggression.
Anup Shah/DigitalVision via Getty Images

Equal by nature?

Primate-style dominance hierarchies, along with the aggressive displays and fights that build them, are so alien to most humans that some researchers have concluded our species simply doesn’t “do” hierarchy. Add to this the limited archaeological evidence for wealth differences prior to farming, and a picture emerges of humans as a peaceful and egalitarian species, at least until agriculture upended things 12,000 years ago.

But new evidence tells a more interesting story. Even the most egalitarian groups, such as the Ju/‘hoansi and Hadza in Africa or Tsimané in South America, still show subtle inequalities in status, influence and power. And these differences matter: High-ranking men get their pick of partners, sometimes multiple partners, and go on to have more children. Archaeologists have also uncovered sites that display wealth differences even without agriculture.

So, are we more like other species than we might care to imagine, or is there still something different about human societies?

Dominance and prestige

One oddity is in how human hierarchies form. In other animals, fighting translates physical strength into dominance. In humans, however, people often happily defer to leaders, even seeking them out. This deference creates hierarchies of prestige, not dominance.

Why do people do this? One current hypothesis is that we, uniquely, live in a world that relies on complex technologies, teaching and cooperation. In this world, expertise matters. Some people know how to build a kayak; others don’t. Some people can organize a team to build a house; others need someone else to organize them. Some people are great hunters; others couldn’t catch a cold.

In a world like this, everyone keeps an eye out for who has the skills and knowledge they need. Adept individuals can translate their ability into power and status. But, crucially, this status benefits everyone, not just the person on top.

That’s the theory, but where’s the evidence?

One man watches another closely as he is woodworking
People pay attention to those who are skilled.
Virojt Changyencham/Moment via Getty Images

There are plenty of anthropological accounts of skillful people earning social status and bullies being quickly cut down. Lab studies have also found that people do keep an eye on how well others are doing, what they’re good at, and even whom others are paying attention to, and they use this to guide their own information-seeking.

What my colleagues and I wanted to do was investigate how these everyday decisions might lead to larger-scale hierarchies of status and influence.

From theory to practice

In a perfect world, we’d monitor whole societies for decades, mapping individual decisions to social consequences. In reality, this kind of study is impossible, so my team turned to a classic tool in evolutionary research: computer models. In place of real-world populations, we can build digital ones and watch their history play out in milliseconds instead of years.

In these simulated worlds, virtual people copied each other, watched whom others were learning from and accrued prestige. The setup was simple, but a clear pattern emerged: The stronger the tendency to seek out prestigious people, the steeper social influence hierarchies became.

Each dot represents a simulated person, sized according to their social influence. When prestige psychology is weak, most dots are of medium size, corresponding to an egalitarian group. When prestige psychology is strong, a handful of extremely prominent leaders emerge, as shown by the very large dots. The color of the dots corresponds to the beliefs of the simulated people. In egalitarian groups, beliefs are fluid and spread across the group. With hierarchical groups, leaders end up surrounded by like-minded followers.

Below a threshold, societies stayed mostly egalitarian; above it, they were led by a powerful few. In other words, “prestige psychology” – the mental machinery that guides whom people learn from – creates a societal tipping point.

The next step was to bring real humans into the lab and measure their tendency to follow prestigious leaders. This can tell us whether we, as a species, fall above or below the tipping point – that is, whether our psychology favors egalitarian or hierarchical groups.

To do this, my colleagues and I put participants into small groups and gave them problems to solve. We recorded whom participants listened to, and let them know whom their group mates were learning from, and we used this information to find the value of the human “hierarchy-forming” tendency. It was high – well above the tipping point for hierarchies to emerge, and our experimental groups ended up with clear leaders.

One doubt lingered: Our volunteers were from the modern United States. Can they really tell us about the whole human species?

Rather than repeat the study across dozens of cultures, we returned to modeling. This time, we let prestige psychology evolve. Each simulated person had their own tendency for how much they deferred to prestige. It guided their actions, affected their fitness and was passed on to their children with minor mutations.

Over thousands of generations, natural selection identified the most successful psychology: a sensitivity to prestige nearly identical to that we measured in real humans – and strong enough to produce the same sharp hierarchies.

Inequality for everyone?

In other primates, being at the bottom of the social ladder can be brutal, with routine harassment and bullying by group mates. Thankfully, human prestige hierarchies look nothing like this. Even without any coercion, people often choose to follow skilled or respected individuals because good leadership makes life easier for everyone. Natural selection, it seems, has favored the psychology that makes this possible.

Of course, reality is messier than any model or lab experiment. Our simulations and experiment didn’t allow for coercion or bullying, and so they give an optimistic view of how human societies might work – not how they do.

In the real world, leaders can selfishly abuse their authority or simply fail to deliver collective benefits. Even in our experiment, some groups rallied around below-average teammates, the snowballing tendency of prestige swamping signs of their poor ability. Leaders should always be held to account for the outcomes of their choices, and an evolutionary basis to prestige does not justify the oppression of the powerless by the powerful.

So hierarchies remain a double-edged sword. Human societies are unique in the benefits that hierarchies can bring to followers, but the old forces of dominance and exploitation have not disappeared. Still, the fact that natural selection favored a psychology that drives voluntary deference and powerful leaders suggests that, most of the time, prestige hierarchies are worth the risks. When they work well, we all reap the rewards.

The Conversation

Thomas Morgan has received research funding from DARPA, the NSF and the Templeton World Charity Foundation.

ref. A human tendency to value expertise, not just sheer power, explains how some social hierarchies form – https://theconversation.com/a-human-tendency-to-value-expertise-not-just-sheer-power-explains-how-some-social-hierarchies-form-271711

Certain brain injuries may be linked to violent crime – identifying them could help reveal how people make moral choices

Source: The Conversation – USA – By Christopher M. Filley, Professor Emeritus of Neurology, University of Colorado Anschutz Medical Campus

Neurological evidence is widely used in murder trials, but it’s often unclear how to interpret it. gorodenkoff/iStock via Getty Images Plus

On Oct. 25, 2023, a 40-year old man named Robert Card opened fire with a semi-automatic rifle at a bowling alley and nearby bar in Lewiston, Maine, killing 18 people and wounding 13 others. Card was found dead by suicide two days later. His autopsy revealed extensive damage to the white matter of his brain thought to be related to a traumatic brain injury, which some neurologists proposed may have played a role in his murderous actions.

Neurological evidence such as magnetic resonance imaging, or MRI, is widely used in court to show whether and to what extent brain damage induced a person to commit a violent act. That type of evidence was introduced in 12% of all murder trials and 25% of death penalty trials between 2014 and 2024. But it’s often unclear how such evidence should be interpreted because there’s no agreement on what specific brain injuries could trigger behavioral shifts that might make someone more likely to commit crimes.

We are two behavioral neurologists and a philosopher of neuroscience who have been collaborating over the past six years to investigate whether damage to specific regions of the brain might be somehow contributing to people’s decision to commit seemingly random acts of violence – as Card did.

With new technologies that go beyond simply visualizing the brain to analyze how different brain regions are connected, neuroscientists can now examine specific brain regions involved in decision-making and how brain damage may predispose a person to criminal conduct. This work may in turn shed light on how exactly the brain plays a role in people’s capacity to make moral choices.

Linking brain and behavior

The observation that brain damage can cause changes to behavior stretches back hundreds of years. In the 1860s, the French physician Paul Broca was one of the first in the history of modern neurology to link a mental capacity to a specific brain region. Examining the autopsied brain of a man who had lost the ability to speak after a stroke, Broca found damage to an area roughly beneath the left temple.

Broca could study his patients’ brains only at autopsy. So he concluded that damage to this single area caused the patient’s speech loss – and therefore that this area governs people’s ability to produce speech. The idea that cognitive functions were localized to specific brain areas persisted for well over a century, but researchers today know the picture is more complicated.

Researchers use powerful brain imaging technologies to identify how specific brain areas are involved in a variety of behaviors.

As brain imaging tools such as MRI have improved since the early 2000s it’s become increasingly possible to safely visualize people’s brains in stunning detail while they are alive. Meanwhile, other techniques for mapping connections between brain regions have helped reveal coordinated patterns of activity across a network of brain areas related to certain mental tasks.

With these tools, investigators can detect areas that have been damaged by brain disorders, such as strokes, and test whether that damage can be linked to specific changes in behavior. Then they can explore how that brain region interacts with others in the same network to get a more nuanced view of how the brain regulates those behaviors.

This approach can be applied to any behavior, including crime and immorality.

White matter and criminality

Complex human behaviors emerge from interacting networks that are made up of two types of brain tissue: gray matter and white matter.Gray matter consists of regions of nerve cell bodies and branching nerve fibers called dendrites, as well as points of connection between nerve cells. It’s in these areas that the brain’s heavy computational work is done. White matter, so named because of a pale, fatty substance called myelin that wraps the bundles of nerves, carries information between gray matter areas like highways in the brain.

Brain imaging studies of criminality going back to 2009 have suggested that damage to a swath of white matter called the right uncinate fasciculus is somehow involved when people commit violent acts. This tract connects the right amygdala, an almond-shaped structure deep in the brain involved in emotional processing, with the right orbitofrontal cortex, a region in the front of the brain involved in complex decision-making. However, it wasn’t clear from these studies whether damage to this tract caused people to commit crimes or was just a coincidence.

In a 2025 study, we analyzed 17 cases from the medical literature in which people with no criminal history committed crimes such as murder, assault and rape after experiencing brain damage from a stroke, tumor or traumatic brain injury. We first mapped the location of damage in their brains using an atlas of brain circuitry derived from people whose brains were uninjured. Then we compared imaging of the damage with brain imaging from more than 700 people who had not committed crimes but who had a brain injury causing a different symptom, such as memory loss or depression.

An MRI scan of the brain with the right uncinate fasciculus highlighted
Brain injuries that may play a role in violent criminal behavior damage white matter connections in the brain, shown here in orange and yellow, especially a specific tract called the right uncinate fasciculus.
Isaiah Kletenik, CC BY-NC-ND

In the people who committed crimes, we found the brain region that popped up the most often was the right uncinate fasciculus. Our study aligns with past research in linking criminal behavior to this brain area, but the way we conducted it makes our findings more definitive: These people committed their crimes only after they sustained their brain injuries, which suggests that damage to the right uncinate fasciculus played a role in triggering their criminal behavior.

These findings have an intriguing connection to research on morality. Other studies have found a link between strokes that damaged the right uncinate fasciculus with loss of empathy, suggesting this tract somehow regulates emotions that affect moral conduct. Meanwhile, other work has shown that people with psychopathy, which often aligns with immoral behavior, have abnormalities in their amygdala and the orbitofrontal cortex regions that are directly connected by the uncinate fasciculus.

Neuroscientists are now testing whether the right uncinate fasciculus may be synthesizing information within a network of brain regions dedicated to moral values.

Making sense of it all

As intriguing as these findings are, it is important to note that many people with damage to their right uncinate fasciculus do not commit violent crimes. Similarly, most people who commit crimes do not have damage to this tract. This means that even if damage to this area can contribute to criminality, it’s only one of many possible factors underlying it.

Still, knowing that neurological damage to a specific brain structure can increase a person’s risk of committing a violent crime can be helpful in various contexts. For example, it can help the legal system assess neurological evidence when judging criminal responsibility. Similarly, doctors may be able to use this knowledge to develop specific interventions for people with brain disorders or injuries.

More broadly, understanding the neurological roots of morality and moral decision-making provides a bridge between science and society, revealing constraints that define how and why people make choices.

The Conversation

Isaiah Kletenik receives funding from the NIH.

Nothing to disclose.

Christopher M. Filley does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Certain brain injuries may be linked to violent crime – identifying them could help reveal how people make moral choices – https://theconversation.com/certain-brain-injuries-may-be-linked-to-violent-crime-identifying-them-could-help-reveal-how-people-make-moral-choices-262034

Building with air – how nature’s hole-filled blueprints shape manufacturing

Source: The Conversation – USA – By Anne Schmitz, Associate Professor of Engineering, University of Wisconsin-Stout

Engineers use structures found in nature – like the honeycomb – to create lightweight, sturdy materials. Matthew T. Rader, CC BY-NC-SA

If you break open a chicken bone, you won’t find a solid mass of white material inside. Instead, you will see a complex, spongelike network of tiny struts and pillars, and a lot of empty space.

It looks fragile, yet that internal structure allows a bird’s wing to withstand high winds while remaining light enough for flight. Nature rarely builds with solid blocks. Instead, it builds with clever, porous patterns to maximize strength while minimizing weight.

A cross-section view of bone, showing large, roughly circular holes in a white material.
Cross-section of the bone of a bird’s skull: Holes keep the material light enough that the bird can fly, but it’s still sturdy.
Steve Gschmeissner/Science Photo Library via Getty Images

Human engineers have always envied this efficiency. You can see it in the hexagonal perfection of a honeycomb, which uses the least amount of wax to store the most honey, and in the internal spiraling architecture of seashells that resist crushing pressures.

For centuries, however, manufacturing limitations meant engineers couldn’t easily copy these natural designs. Traditional manufacturing has usually been subtractive, meaning it starts with a heavy block of metal that is carved down, or formative, which entails pouring liquid plastic into a mold. Neither method can easily create complex, spongelike interiors hidden inside a solid shell.

If engineers wanted to make a part stronger, they generally had to make it thicker and heavier. This approach is often inefficient, wastes material and results in heavier products that require more energy to transport.

I am a mechanical engineer and associate professor at the University of Wisconsin-Stout, where I research the intersection of advanced manufacturing and biology. For several years, my work has focused on using additive manufacturing to create materials that, like a bird’s wing, are both incredibly light and capable of handling intense physical stress. While these “holey” designs have existed in nature for millions of years, it is only recently that 3D printing has made it possible for us to replicate them in the lab.

The invisible architecture

That paradigm changed with the maturation of additive manufacturing, commonly known as 3D printing, when it evolved from a niche prototyping tool into a robust industrial force. While the technology was first patented in the 1980s, it truly took off over the past decade as it became capable of producing end-use parts for high-stakes industries like aerospace and health care.

A 3D printer printing out an object filled with holes.
3D printing makes it far easier to manufacture lightweight, hole-filled materials.
kynny/iStock via Getty Images

Instead of cutting away material, printers build objects layer by layer, depositing plastic or metal powder only exactly where it’s needed based on a digital file. This technology unlocked a new frontier in materials science focused on mesostructures.

A mesostructure represents the in-between scale. It is not the microscopic atomic makeup of the material, nor is it the macroscopic overall shape of the object, like a whole shoe. It is the internal architecture, including the engineered pattern of air and material hidden inside.

It’s the difference between a solid brick and the intricate iron latticework of the Eiffel Tower. Both are strong, but one uses vastly less material to achieve that strength because of how the empty space is arranged.

From the lab to your closet

While the concept of using additive manufacturing to create parts that take advantage of mesostructures started in research labs around the year 2000, consumers are now seeing these bio-inspired designs in everyday products.

The footwear industry is a prime example. If you look closely at the soles of certain high-end running shoes, you won’t see a solid block of foam. Instead, you will see a complex, weblike lattice structure that looks suspiciously like the inside of a bird bone. This printed design mimics the springiness and weight distribution found in natural porous structures, offering tuned performance that solid foam cannot match.

Engineers use the same principle to improve safety gear. Modern bike helmets and football helmet liners are beginning to replace traditional foam padding with 3D-printed lattices. These tiny, repeating jungle gym structures are designed to crumple and rebound to absorb the energy more efficiently than solid materials, much like how the porous bone inside your own skull protects your brain.

Testing the limits

In my research, I look for the rules nature uses to build strong objects.

For example, seashells are tough because they are built like a brick wall, with hard mineral blocks held together by a thin layer of stretchy glue. This pattern allows the hard bricks to slide past each other instead of snapping when put under pressure. The shell absorbs energy and stops cracks from spreading, which makes the final structure much tougher than a solid piece of the same material.

I use advanced computer models to crush thousands of virtual designs to see exactly when and how they fail. I have even used neural networks, a type of artificial intelligence, to find the best patterns for absorbing energy.

My studies have shown that a wavy design can be very effective, especially when we fine-tune the thickness of the lines and the number of turns in the pattern. By finding these perfect combinations, we can design products that fail gradually and safely – much like the crumple zone on the front of a car.

By understanding the mechanics of these structures, engineers can tailor them for specific jobs, making one area of a product stiff and another area flexible within a single continuous printed part.

The sustainable future

Beyond performance, mimicking nature’s less-is-more approach is a significant win for sustainability. By “printing air” into the internal structure of a product, manufacturers can use significantly less raw material while maintaining the necessary strength.

As industrial 3D printing becomes faster and cheaper, manufacturing will move further away from the solid-block era and closer to the elegant efficiency of the biological world. Nature has spent millions of years perfecting these blueprints through evolution – and engineers are finally learning how to read them.

The Conversation

Anne Schmitz does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Building with air – how nature’s hole-filled blueprints shape manufacturing – https://theconversation.com/building-with-air-how-natures-hole-filled-blueprints-shape-manufacturing-270640

Federal power meets local resistance in Minneapolis – a case study in how federalism staves off authoritarianism

Source: The Conversation – USA – By Nicholas Jacobs, Goldfarb Family Distinguished Chair in American Government, Colby College; Institute for Humane Studies

Protesters against Immigration and Customs Enforcement march through Minneapolis, Minn., on Jan. 25, 2026. Roberto Schmidt/AFP via Getty Images

An unusually large majority of Americans agree that the recent scenes of Immigration and Customs Enforcement operations in Minneapolis are disturbing.

Federal immigration agents have deployed with weapons and tactics more commonly associated with military operations than with civilian law enforcement. The federal government has sidelined state and local officials, and it has cut them out of investigations into whether state and local law has been violated.

It’s understandable to look at what’s happening and reach a familiar conclusion: This looks like a slide into authoritarianism.

There is no question that the threat of democratic backsliding is real. President Donald Trump has long treated federal authority not as a shared constitutional set of rules and obligations but as a personal instrument of control.

In my research on the presidency and state power, including my latest book with Sidney Milkis, “Subverting the Republic,” I have argued that the Trump administration has systematically weakened the norms and practices that once constrained executive power – often by turning federalism itself into a weapon of national administrative power.

But there is another possibility worth taking seriously, one that cuts against Americans’ instincts at moments like this. What if what America is seeing is not institutional collapse but institutional friction: the system doing what it was designed to do, even if it looks ugly when it does it?

For many Americans, federalism is little more than a civics term – something about states’ rights or decentralization.

In practice, however, federalism functions less as a clean division of authority and more as a system for managing conflict among multiple governments with overlapping jurisdiction. Federalism does not block national authority. It ensures that national decisions are subject to challenge, delay and revision by other levels of government.

Dividing up authority

At its core, federalism works through a small number of institutional mechanics – concrete ways of keeping authority divided, exposed and contestable. Minneapolis shows each of them in action.

First, there’s what’s called “jurisdictional overlap.”

State, local and federal authorities all claim the right to govern the same people and places. In Minneapolis, that overlap is unavoidable: Federal immigration agents, state law enforcement, city officials and county prosecutors all assert authority over the same streets, residents and incidents. And they disagree sharply about how that authority should be exercised.

Second, there’s institutional rivalry.

Because authority is divided, no single level of government can fully monopolize legitimacy. And that creates tension. That rivalry is visible in the refusal of state and local officials across the country to simply defer to federal enforcement.

Instead, governors, mayors and attorneys general have turned to courts, demanded access to evidence and challenged efforts to exclude them from investigations. That’s evident in Minneapolis and also in states that have witnessed the administration’s deployment of National Guard troops against the will of their Democratic governors.

It’s easy to imagine a world where state and local prosecutors would not have to jump through so many procedural hoops to get access to evidence for the death of citizens within their jurisdiction. But consider the alternative.

If state and local officials were barred without consent from seeking evidence – the absence of federalism – or if local institutions had no standing to contest how national power is exercised there, federal authority would operate not just forcefully but without meaningful political constraint.

Protesters fight with law enforcement as tear gas fills the air.
Protesters clash with law enforcement after a federal agent shot and killed a man on Jan. 24, 2026, in Minneapolis, Minn.
Arthur Maiorella/Anadolu via Getty Images

Third, confrontation is local and place-specific.

Federalism pushes conflict into the open. Power struggles become visible, noisy and politically costly. What is easy to miss is why this matters.

Federalism was necessary at the time of the Constitution’s creation because Americans did not share a single political identity. They could not decide whether they were members of one big community or many small communities.

In maintaining their state governments and creating a new federal government, they chose to be both at the same time. And although American politics nationalized to a remarkable degree over the 20th century, federal authority is still exercised in concrete places. Federal authority still must contend with communities that have civic identities and whose moral expectations may differ sharply from those assumed by national actors.

In Minneapolis it has collided with a political community that does not experience federal immigration enforcement as ordinary law enforcement.

The chaos of federalism

Federalism is not designed to keep things calm. It is designed to keep power unsettled – so that authority cannot move smoothly, silently or all at once.

By dividing responsibility and encouraging overlap, federalism ensures that power has to push, explain and defend itself at every step.

“A little chaos,” the scholar Daniel Elazar has said, “is a good thing!”

As chaos goes, though, federalism is more often credited for Trump’s ascent. He won the presidency through the Electoral College – a federalist institution that allocates power by state rather than by national popular vote, rewarding geographically concentrated support even without a national majority.

Partisan redistricting, which takes place in the states, further amplifies that advantage by insulating Republicans in Congress from electoral backlash. And decentralized election administration – in which local officials control voter registration, ballot access and certification – can produce vulnerabilities that Trump has exploited in contesting state certification processes and pressuring local election officials after close losses.

Forceful but accountable

It’s helpful to also understand how Minneapolis is different from the most well-known instances of aggressive federal power imposed on unwilling states: the civil rights era.

Hundreds of students protest the arrival of a Black student to their school.
Hundreds of Ole Miss students call for continued segregation on Sept. 20, 1962, as James Meredith prepares to become the first Black man to attend the university.
AP Photo

Then, too, national authority was asserted forcefully. Federal marshals escorted the Black student James Meredith into the University of Mississippi in 1962 over the objections of state officials and local crowds. In Little Rock in 1957, President Dwight D. Eisenhower federalized the Arkansas National Guard and sent in U.S. Army troops after Gov. Orval Faubus attempted to block the racial integration of Central High School.

Violence accompanied these interventions. Riots broke out in Oxford, Mississippi. Protesters and bystanders were killed in clashes with police and federal authorities in Birmingham and Selma, Alabama.

What mattered during the civil rights era was not widespread agreement at the outset – nationwide resistance to integration was fierce and sustained. Rather, it was the way federal authority was exercised through existing constitutional channels.

Presidents acted through courts, statutes and recognizable chains of command. State resistance triggered formal responses. Federal power was forceful, but it remained legible, bounded and institutionally accountable.

Those interventions eventually gained public acceptance. But in that process, federalism was tarnished by its association with Southern racism and recast as an obstacle to progress rather than the institutional framework through which progress was contested and enforced.

After the civil rights era, many Americans came to assume that national power would normally be aligned with progressive moral aims – and that when it was, federalism was a problem to be overcome.

Minneapolis exposes the fragility of that assumption. Federalism does not distinguish between good and bad causes. It does not certify power because history is “on the right side.” It simply keeps power contestable.

When national authority is exercised without broad moral agreement, federalism does not stop it. It only prevents it from settling quietly.

Why talk about federalism now, at a time of widespread public indignation?

Because in the long arc of federalism’s development, it has routinely proven to be the last point in our constitutional system where power runs into opposition. And when authority no longer encounters rival institutions and politically independent officials, authoritarianism stops being an abstraction.

The Conversation

Nicholas Jacobs does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Federal power meets local resistance in Minneapolis – a case study in how federalism staves off authoritarianism – https://theconversation.com/federal-power-meets-local-resistance-in-minneapolis-a-case-study-in-how-federalism-staves-off-authoritarianism-274685