Imaginemos a un universitario cualquiera: abre el portátil para revisar una tarea, pero antes debe atender mensajes del grupo de clase, tres correos de la plataforma institucional y una notificación de cambio en la fecha de entrega. Nada de esto requiere gran habilidad digital, pero sí una atención que se fragmenta a cada paso. Al final del día, la sensación no es de incompetencia, sino de saturación.
¿Qué está produciendo este desajuste? Conviene detenerse en los grandes estresores. La tecnoinvasión aparece cuando lo académico se cuela en los espacios personales, y la tecnosobrecarga, cuando las demandas digitales llegan más rápido de lo que puede procesarse.
También influye la tecnocomplejidad –cuando las herramientas resultan más confusas de lo esperado– y la tecnoincertidumbre, fruto de cambios constantes, a lo que se suma la tecnoinseguridad, el temor a que la tecnología falle. El conjunto explica buena parte del tecnoestrés universitario.
En nuestro proyecto de ayuno digital, la mayoría del alumnado no logró completar el reto, sobre todo al intentar romper hábitos de comunicación muy arraigados.
Un uso automático y omnipresente de la tecnología (es decir, no deliberado y esporádico) hace que dejar de usar móviles u ordenadores, estar sin conexión, produzca incomodidad. El ayuno digital funciona, en este sentido, como un espejo: hace visible lo que en la rutina pasa desapercibido y muestra hasta qué punto la relación con la tecnología no depende de la habilidad, sino de la dificultad para detenerse, cambiar el ritmo y recuperar margen de control.
La dispersión de recursos y la necesidad de consultar varias aplicaciones para no perder información elevan la carga cognitiva, mientras que la sensación de estar siempre localizable alimenta el conocido como FOMO académico.
A esto se suma un uso intensivo de herramientas que no siempre se traduce en aprendizaje significativo, por lo que puede aumentar el riesgo de tecnoestrés.
Aprender a gestionar, no solo a usar
Otro aspecto clave para entender por qué incluso los estudiantes más competentes lo sufren es el desfase entre la “competencia digital” oficial y el uso real que hacen de la tecnología. Los marcos institucionales suelen medir habilidades técnicas: navegar, seleccionar información… Sin embargo, estas categorías no capturan la complejidad emocional, temporal y organizativa del trabajo digital cotidiano.
Como señalamos en nuestro estudio, la competencia digital se evalúa como un conjunto de destrezas, pero no como capacidad de sostener prácticas tecnológicas en contextos exigentes, saturados y altamente interdependientes.
Este desfase hace que muchos estudiantes, pese a sentirse competentes, se vean desbordados por la gestión simultánea de recursos, la presión académica, las decisiones continuas y la dificultad para sostener el ritmo de trabajo. El tecnoestrés se explica, pues, por una evaluación incompleta del papel de la tecnología en la vida académica.
Por eso proponemos pasar de una mirada centrada en las competencias técnicas a una perspectiva centrada en el bienestar digital. Esto implica cuestionar prácticas institucionales y revisar protocolos de comunicación, por ejemplo.
La respuesta, pues, debe combinar cambios institucionales y prácticas personales. Las universidades pueden diseñar entornos digitales más simples, coordinados y respetuosos con la atención humana.
No se trata de usar menos tecnología, sino de usarla sin que nos desborde. Cuando el entorno ayuda y los hábitos acompañan, el tecnoestrés pierde espacio.
Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.
Source: The Conversation – (in Spanish) – By Ibai Ieltxu Rico Lozano, Profesor en el Grado en Geografía y Ordenación del Territorio de la EHU / Glaciólogo / Guía de Montaña UIAGM, Universidad del País Vasco / Euskal Herriko Unibertsitatea
Este artículo forma parte de la sección The Conversation Júnior, en la que especialistas de las principales universidades y centros de investigación contestan a las dudas de jóvenes curiosos de entre 12 y 16 años. Podéis enviar vuestras preguntas a tcesjunior@theconversation.com
Pregunta formulada por el curso de 3º de la ESO de Aranzadi Ikastola. Bergara (Gipuzkoa)
Imagínate que estás escalando una montaña en el Himalaya. Si miras hacia abajo, a lo lejos, ves frondosos bosques; mientras que si miras hacia arriba, ves cada ves más nieve y más glaciares. Cuanto más asciendes, más notas cómo baja la temperatura. ¿Te ha pasado alguna vez? Tal vez te has dado cuenta de que ocurre incluso en verano y en días soleados…
A primera vista puede parecer extraño: al subir, estamos ligeramente más cerca del Sol, así que ¿no debería hacer más calor? Sin embargo, la realidad es justo la contraria. Para entender por qué, necesitamos conocer mejor cómo se calienta la atmósfera, qué es la presión del aire y cómo se comportan los gases.
¿Cómo se calienta el aire realmente?
Empecemos descartando una idea muy común. Aunque al subir una montaña nos alejamos del centro de la Tierra, la diferencia de distancia al Sol es mínima. La Tierra está a unos 150 millones de kilómetros del Sol, y una montaña de varios kilómetros de altura no cambia nada a esa escala. Por tanto, el descenso de temperatura no se debe a estar “más lejos” o “más cerca” del Sol.
Otra clave fundamental es entender que el aire no se calienta directamente por el Sol. La radiación solar atraviesa la atmósfera casi sin calentarla y llega hasta el suelo. El suelo absorbe esa energía y luego la emite en forma de calor (radiación infrarroja), haciendo que suba la temperatura del aire que está en contacto con él.
Por eso, el aire más caliente suele encontrarse cerca de la superficie terrestre y no en las capas altas de la atmósfera.
La presión atmosférica y la densidad
La atmósfera es una mezcla de gases que tienen masa y, por tanto, peso. A nivel del mar, el aire soporta el peso de toda la columna de aire que tiene encima, lo que produce una alta presión atmosférica.
A medida que subimos en altitud, hay menos aire por encima, así que la presión disminuye. Esto hace que el aire sea menos denso, es decir, que sus moléculas estén más separadas.
Y resulta que la densidad del aire es clave para la temperatura. Cuando las moléculas de un gas están más juntas, chocan más entre sí y pueden transferir mejor la energía térmica. En cambio, cuando están más separadas, almacenan menos energía térmica.
El enfriamiento adiabático
Hemos visto, entonces, que cuando una masa de aire asciende, la presión externa disminuye. Como consecuencia, el aire se expande. Al expandirse, el gas realiza trabajo (empuja el aire que lo rodea) y utiliza parte de su energía interna para ello. El resultado es una disminución de la temperatura, incluso, aunque no se pierda calor hacia el exterior. Este proceso se llama enfriamiento adiabático y es uno de los mecanismos más importantes de la meteorología.
En términos aproximados, cuando el aire asciende sin intercambiar calor con el entorno y si que se produzca condensación, su temperatura desciende unos 9,8 °C por cada 1 000 metros (es lo que se llama gradiente adiabático seco).
Sin embargo, en la atmósfera real, lo habitual es que, durante el proceso de ascenso, se condense parte del vapor de agua que existe. En este caso, el descenso medio es de unos 6,5 °C por cada 1 000 metros, lo que se conoce como gradiente térmico vertical.
Menos efecto “manta” en altura
El aire actúa como un aislante térmico. Cuanto más denso es, mejor retiene el calor. En las zonas bajas, la atmósfera funciona como una especie de manta que impide que el calor del suelo se escape rápidamente al espacio.
En las montañas, al haber menos aire, este efecto es mucho menor. El calor se pierde con mayor facilidad, especialmente, durante la noche. Esto explica por qué las temperaturas nocturnas en alta montaña pueden ser extremadamente bajas.
El papel del suelo, la nieve y el viento
El tipo de superficie también influye. En las montañas, es frecuente encontrar roca desnuda, suelos pobres o nieve. La nieve tiene un alto albedo –medida de la capacidad de una superficie para reflejar la radiación solar–. Es decir, refleja gran parte de la radiación solar que recibe. Así, al reflejar más energía y absorber menos, el suelo se calienta poco y transmite menos calor al aire.
Por otro lado, en altura, suele haber más viento debido a las diferencias de presión y a la ausencia de obstáculos. El viento no reduce la temperatura real del aire, pero sí aumenta la pérdida de calor del cuerpo humano al eliminar la capa de aire caliente que rodea la piel. Esto provoca una sensación térmica de frío mayor, aunque los grados sean los mismos.
¿Existen excepciones?
Sí. En algunas situaciones se produce una inversión térmica, en la que el aire frío queda atrapado en los valles y el aire más cálido se sitúa por encima. En estos casos, puede hacer más frío abajo que en lo alto de la montaña. Sin embargo, estas situaciones son temporales y no cambian la regla general.
Lo habitual es que haga más frío al subir una montaña y, como hemos visto, esto ocurre porque la atmósfera se comporta de forma diferente con la altura: la presión disminuye, el aire se expande y se enfría, hay menos capacidad para retener calor y el suelo aporta menos energía térmica. Un excelente ejemplo de cómo las leyes de la física y la química influyen directamente en nuestra vida cotidiana.
Ibai Ieltxu Rico Lozano no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.
Source: The Conversation – Canada – By Darryn DiFrancesco, Assistant Professor, School of Nursing, Faculty of Human and Health Sciences, University of Northern British Columbia
Following the recent shooting of Renee Good by an agent for Immigration and Customs Enforcement (ICE) in the United States, the Donald Trump administration’s latest narrative suggests that “deluded wine moms” are to blame for the violence in ICE-related demonstrations in Minneapolis and across the country.
This mother-blaming is nothing more than an old trick with a new spin.
Organized gangs of ‘wine moms’
Earlier this week, a Fox News columnist wrote that “organized gangs of wine moms” are using “antifa tactics” to “harass and impede” ICE activity. In the opinion piece, he claimed that “confusion” over the what constitutes civil disobedience is what “got 37-year-old Renee Good killed.”
Similarly, Vice-President J.D. Vance called Good a “deranged leftist” while a new acronym, AWFUL — Affluent White Female Urban Liberal — has appeared on social media.
In framing protesters like Good, a mother of three, as confused, aggressive and “delusional,” this narrative delegitimizes and pathologizes maternal activism. This strategy aims to divert blame from the U.S. government and its heavy-handed approach to immigration while also drawing on a centuries-old strategy of blaming mothers for social problems.
What makes a ‘wine mom?’
The term “wine mom” emerged over the last two decades as a cultural symbol of the contemporary white, suburban mother who turns to a nightly glass of wine (or two) to cope with the stresses of daily life.
The archetype goes back much further, reflected in literature, film and television characters, such as the wily Lucille Bluth of Arrested Development.
A clip from ‘Arrested Development’ featuring Lucille Bluth’s fondness for boozing.
Yet, this motif is less light-hearted than assumed: a recent systematic review reveals a strong link between maternal drinking and stress, especially for working mothers.
While it would be easy to view problematic drinking as another example of maternal failure, it is important not to. Here’s why.
Mother-blame in history
Throughout history, mothers have found themselves in the midst of what American sociologist Linda Blum calls a “mother-valor/mother-blame binary.”
When behaving in accordance with socially acceptable and desirable parameters — that is with warmth, femininity and selflessness — mothers are viewed as “good.” When mothers violate these norms, whether by choice, circumstance or by virtue of their race or class position, they’re “bad mothers.”
Mother-blame ultimately reflects the belief that mothers are solely responsible for their children’s behaviour and outcomes, along with the cultural tendency to blame them when things go wrong. Yet, as Blum points out, “mother-blame also serves as a metaphor for a range of political fears.”
Perhaps the most striking example of this is the suffrage movement, which represented a direct challenge to patriarchal notions that women belonged in the domestic sphere and lacked the intelligence to engage in political discourse.
These activists were framed as threatening to not only the establishment, but also to families and the moral fabric of society.
Ironically, despite the fact that women’s entry into politics led to increased spending and improved outcomes related to women, children, families and health care, scholars have found that mother-blaming was as common after the women’s movement as it was before.
Contemporary mother-blame
Beyond political matters, contemporary mother-blame is rampant in other domains.
Mothers have been blamed for a wide variety of their children’s psychological problems, including anxiety, depression and inherited trauma. In media and literature, mothers are often blamed for criminality and violence, reflecting the notion that “mothers make monsters.”
When children struggle in school, educators and administrators may blame the mother. Mothers risk being called “too passive” if they don’t advocate for their children or “too aggressive” when they do.
Similarly, the “crazy woman” or “hysterical mother” is a well-known trope in custody law, and mothers may be blamed even when their children are abused by others. Mass shootings? Mom’s failure. The list goes on.
By setting up mothering as a high-stakes endeavour, the cultural norm of mother-blame also serves to “divide and conquer.”
In my sociology research, I found that mothers on Facebook worked to align themselves with like-minded “superior” mothers, while distancing themselves from perceived “inferior” mothers. This feeds into the cultural norm of “combative mothering,” which pits mothers against each other.
An old trick with a new spin
The “wine mom” narrative builds on this historical pattern of mother-blame. It is meant to trivialize, delegitimize, divide and denigrate mothers who are, in fact, well-organized and motivated activists concerned for their communities.
While there are legitimate concerns around maternal drinking as a coping mechanism, the “wine mom” label has begun to represent something different. Mothers are reclaiming the title to expand their cause.
As @sara_wiles, promoting the activist group @redwineblueusastated on Instagram: “They meant to scare us back into the kitchen, but our actual response is, ‘Oh, I want to join!’”
We should acknowledge that rather than causing societal problems, mothers have a long history of trying to fix them, even if imperfectly. Mothers like Renee Good are no exception.
Darryn DiFrancesco does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.
In the summer of 1959, a group of American soldiers began carving trenches in the Greenland ice sheet. Those trenches would become the snow-covered tunnels of Camp Century, a secret Arctic research base powered by a nuclear reactor.
It was located about 150 miles inland from Thule, now Pituffik, a large American military base set up in north-western Greenland after a military agreement with Denmark during world war two.
Camp Century operated for six years, during which time the scientists based there managed to drill a mile down to collect a unique set of ice cores. But by 1966, Camp Century had been abandoned, deemed too expensive and difficult to maintain.
Today, Donald Trump’s territorial ambitions for Greenland continue to cause concern and confusion in Europe, particularly for Denmark and Greenlanders themselves, who insist their island is not for sale.
One of the attractions of Greenland is the gleam of its rich mineral wealth, particularly rare earth minerals. Now that Greenland’s ice sheet is melting due to global warming, will this make the mineral riches easier to get at?
In this episode of The Conversation Weekly podcast, we talk to Paul Bierman, a geologist and expert on Greenland’s ice at the University of Vermont in the US. He explains why the history of what happened to Camp Century – and the secrets of its ice cores, misplaced for decades, but now back under the microscope – help us to understand why it’s not that simple.
This episode of The Conversation Weekly was written and produced by Mend Mariwany and Gemma Ware. Mixing by Michelle Macklem and theme music by Neeta Sarl. Gemma Ware is the executive producer.
Listen to The Conversation Weekly via any of the apps listed above, download it directly via our RSS feed or find out how else to listen here. A transcript of this episode is available via the Apple Podcasts or Spotify apps.
Paul Bierman receives funding from the US National Science Foundation and the University of Vermont Gund Institute for Environment
Source: The Conversation – France (in French) – By Pascaline Thiollière, architecte (M’Arch), enseignante et chercheuse sur les ambiances et approches sensibles des espaces habités, Ecole d’architecture de Grenoble (ENSAG)
Une dispersion de cendres à Courtrai, en Belgique, dans le cimetière conçu par B. Secchi.Fourni par l’auteur
À bas bruit et hors de portée du marché du funéraire se développent des pratiques qui déplacent les morts et leur mémoire à l’extérieur des cimetières dans des espaces bien réels, au plus près des valeurs et des façons de vivre dont témoignaient les défunts de leur vivant.
Lorsque les espaces et les pratiques funéraires sont évoquées dans les médias ou dans le débat public français, c’est souvent aux approches des fêtes de la Toussaint, pour relater des évolutions en cours dans la gestion des funérailles et des cimetières, et pour mettre en lumière des services, objets, techniques ou technologies dites innovantes. Il était ces dernières années beaucoup question de l’écologisation des lieux et techniques funéraires (cimetière écologique, humusation/terramation, décarbonation des produits funéraires) et de la digitalisation du recueillement et de la mémoire (deadbots, gestion post-mortem des volontés et des données numériques, cimetières et mémoriaux virtuels, télétransmission des cérémonies). Mais discrètement, d’autres pratiques voient le jour.
Avec la crémation devenue majoritaire dans de nombreux territoires français, la dispersion des cendres dite « en pleine nature » se révèle très importante dans les souhaits et de plus en plus dans les faits. Pourtant, beaucoup méconnaissent le cadre légal et pratique de son application. Cet article dévoile les premiers éléments d’une enquête en cours sur ces pratiques discrètes qui témoignent d’une émancipation créative face à la tradition contraignante de la tombe et du cimetière.
Des cimetières de moins en moins fréquentés
Le cimetière paroissial du Moyen Âge qui plaçait la communauté des morts au plus près de l’église et de ses reliques, dans la promesse de son salut et de sa résurrection, était un espace multifonctionnel et central de la vie et de la ville.
Le cimetière de la modernité matérialiste et hygiéniste est déplacé dans les faubourgs, puis dans les périphéries de la ville et se marginalise petit à petit des fonctions urbaines. Il devient, comme le dit Foucault, « l’autre ville, où chaque famille possède sa noire demeure », puis s’efface dans l’étalement urbain du XXᵉ siècle.
À l’intérieur des murs d’enceinte qui deviennent souvent de simples clôtures, les aménagements pour gagner de la place se rationalisent, le mobilier d’un marché funéraire en voie d’industrialisation et de mondialisation se standardisent. Les morts y sont rangés pour des durées de concessions écourtées au fil des décennies, sous la pression d’une mortalité en hausse (génération des baby-boomers) et de la saturation de nombreux cimetières urbains.
Dans les enquêtes régulières sur « Les Français et les obsèques » du Centre de recherche pour l’étude et l’observation des conditions de vie (Credoc), les Français montrent peu d’affection envers leurs cimetières qu’ils jugent trop souvent démesurés, froids et impersonnels. Alors qu’ils étaient encore 50 % en 2005, seulement un tiers des Français de plus de 40 ans continuent vingt ans plus tard à les fréquenter systématiquement à la Toussaint. Pour les Français de moins de 40 ans, ils sont encore moins souvent des lieux de sens et d’attachement.
Cette désaffection des cimetières, pour beaucoup synonymes d’enfermement tant matériel que mental, explique en partie l’essor de la crémation et de la dispersion des cendres. Les dimensions économiques et écologiques de ces options funéraires viennent renforcer cette tendance et s’exprime par la volonté de ne pas être un poids pour ses descendants (coût et soin des tombes) et/ou pour la planète (bilan carbone important de l’inhumation avec caveau et/ou monuments), et illustre la proposition de garder l’espace pour les vivants et le vivant.
La crémation gagne du terrain
La crémation était répandue en Europe avant sa christianisation et a même été conservée marginalement en périodes médiévales dans certaines cultures d’Europe du Nord. Elle se pratiquait sur des bûchers à foyer ouvert. Sa pratique, telle que nous la connaissons aujourd’hui en foyer fermé, a été rendue possible par la technique et l’essor du four industriel au XIXᵉ siècle, et par la plaidoirie des crématistes depuis la Révolution française jusqu’à la fin du XXᵉ siècle où la pratique va définitivement s’instituer.
Si les fragments calcinés étaient conservés communément dans des urnes, c’est avec l’apparition d’une autre technique industrielle dans le crématorium que la dispersion a pu être imaginée : la crémulation, c’est-à-dire la pulvérisation des fragments sortant du four, permettant d’obtenir une matière plus fine et moins volumineuse. Cette matière aseptisée par le feu et homogénéisée par le crémulateur peut alors rejoindre d’autres destinations que les urnes et le cimetière.
En 1976, un nouveau texte de loi insiste sur le fait que les cendres doivent être pulvérisées afin que des ossements ne puissent y subsister, effaçant ainsi ce qu’il restait de la forme d’un corps. Cette nouvelle matérialité peut alors se fondre discrètement dans nos lieux familiers, les morts se retrouvent inscrits dans nos paysages privilégiés, et leur souvenir cohabiter avec les activités récréatives et contemplatives qui prennent place dans les espaces naturels non aménagés.
Dispersions, disséminations
Alors que de nombreux Français pensent cette pratique interdite, son cadre légal et la notion de « pleine nature » ont été précisés en 2008 et en 2009. Ce cadre relativement souple permet de disperser les cendres en de nombreux espaces publics (sauf sur la voie publique) à distance des habitations et zones aménagées (parcs naturels, forêts, rivières, mers éloignées des côtes), plus difficilement dans des espaces privés avec la contrainte d’obtenir l’accord du propriétaire d’un droit d’accès perpétuel, ce qui peut poser des difficultés au moment des ventes de biens.
La « pleine nature » correspond aujourd’hui à une proportion d’un quart à un tiers des destinations des cendres des défunts crématisés. À travers un appel à témoignages anonymes en ligne ouvert dans le cadre d’une recherche en cours depuis 2023, une cinquantaine de micro-récits de dispersion ont été rassemblés et constituent un premier corpus pour appréhender ces pratiques discrètes et peu documentées. Ces récits inédits révèlent l’émergence de nouvelles manières de rendre hommage aux défunts et de donner du sens à la mort et à la vie dans des mondes contemporains en crise.
Le milieu du funéraire et de l’accompagnement du deuil se montre réservé face à cette pratique donnant lieu à des sépultures labiles en proie aux éléments, sans traces tangibles identifiant les défunts et sans garantie de se transmettre au fil des générations, parfois difficilement accessibles, isolant ces morts des autres morts.
Faisant écho de craintes parfois avérées de rendre les deuils plus difficiles, les professionnels doivent pourtant reconnaître que malgré ces nouvelles contraintes et en en connaissant les impacts, une grande majorité de ceux qui ont opté pour la dispersion des cendres de leurs proches reconduiraient le choix de la dispersion. Celui-ci procure en effet pour beaucoup le sentiment de satisfaction d’une promesse tenue, car ces destinations en pleine nature sont le souhait des vivants et se déroulent par là même souvent sans conflit au sein de l’entourage des défunts, dans une ambiance de sérénité, d’un chagrin joyeux, dans les plis de paysages et de territoires intimes aux défunts et à leurs proches.
De manière assez naturelle découlent de ces gestes et territoires de dispersion des prises pour imaginer des suites, des revisites, des retrouvailles sous forme de balades discrètement ritualisées, de pique-niques et baignades mémorielles, des façons de reconfigurer et d’entretenir les liens avec les défunts dans ces territoires familiers.
La diversité des lieux, des configurations sensibles et des éléments en jeu dans les dispersions renouvelle les possibles en termes de gestes et d’actes d’hommage envers les défunts, lors de la dispersion comme après, imbriquant la mémoire du mort dans des souvenirs de moments de vie partagés.
Avec la dispersion des cendres, le lieu de nos morts n’est plus l’espace autre, l’autre ville des noires demeures, mais l‘espace même qui accueille nos moments de vie, là où nos beaux souvenirs avec eux font gage d’éternité. La suite de l’enquête permettra d’affiner les contours et les potentialités de ces pratiques.
Pascaline Thiollière ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Source: The Conversation – UK – By Neville Morley, Professor in Classics, Ancient History, Religion, and Theology, University of Exeter
In his speech to this year’s World Economic Forum at Davos, Canadian prime minister Mark Carney mourned the demise of international cooperation by evoking an authority from ancient Greece.
“It seems that every day we’re reminded that we live in an era of great power rivalry, that the rules-based order is fading, that the strong can do what they can, and the weak must suffer what they must. And this aphorism of Thucydides is presented as inevitable, as the natural logic of international relations reasserting itself.”
Journalists and academics from Denmark, Greece and the United States have quoted the same line from the ancient Greek historian when discussing Donald Trump’s demand for Greenland. It is cited as inspiration for his adviser Stephen Miller’s aggressive foreign policy approach, not least towards Venezuela.
In blogs and social media, the fate of Gaza and Russia’s invasion of Ukraine have been interpreted through the same frame. It’s clearly difficult to contemplate today’s world and not react as W.H. Auden did to the collapse of the old order in 1939: “Exiled Thucydides knew.”
The paradox of the “strong do what they can” line is that it’s understood in radically different ways. On the one hand, it’s presented as a description of the true nature of the world (against naive liberals) and as a normative statement (the weak should submit).
On the other hand, it’s seen as an image of the dark authoritarian past we hoped was behind us, and as a condemnation of unfettered power. All these interpretations claim the authority of Thucydides.
That is a powerful imprimatur.
Thucydides’ insistence on the importance of seeking out the truth about the past, rather than accepting any old story, grounded his claim that such inquiry would help readers understand present and future events.
The strong/weak quote is a key example. It comes from the Melian dialogue from Thucydides’ History of the Peloponnesian War. In 416BC, an Athenian force arrived at the neutral island of Melos and demanded its surrender. The Melian leaders asked to negotiate, and Thucydides presents a fictional reconstruction of the subsequent exchange.
The quote comes from the beginning, when the Athenians stipulated that they would not claim any right to seize Melos, other than the power to do so, and conversely would not listen to any arguments from principle. “Questions of justice apply only to those equal in power,” they stated bluntly. “Otherwise, such things as are possible, the superior exact and the weak give up.”
Within modern international relations theory, this is sometimes interpreted as the first statement of the realist school of thought.
Scholars like John Mearsheimer claim that Thucydides identified the basic principle of realist theory that, in an “anarchic” world, international law applies only if it’s in powerful states’ strategic interest, and otherwise might makes right. The fate of the Melians, utterly destroyed after they foolishly decided to resist, reinforces the lesson.
But these are the words of characters in Thucydides’ narrative, not of Thucydides himself. We cannot simply assume that Thucydides believed that “might makes right” is the true nature of the world, or that he intended his readers to draw that conclusion.
The Athenians themselves may not have believed it, since their goal was to intimidate the Melians into surrendering without a fight. More importantly, Thucydides and his readers knew all about the disastrous Athenian expedition to Sicily the following year, which showed the serious practical limits to the “want, take, have” mentality.
So, we shouldn’t take this as a realist theoretical proposition. But if Thucydides intended instead simply to depict imperialist arrogance, teach “pride comes before a fall”, or explore how Athenian attitudes led to catastrophic miscalculation, he could have composed a single speech.
His choice of dialogue shows that things are more complicated, and not just about Athens. He is equally interested in the psychology of the “weak”, the Melians’ combination of pleading, bargaining, wishful thinking and defiance, and their ultimate refusal to accept the Athenian argument.
This doesn’t mean that the Melian arguments are correct, even if we sympathise with them more. Their thinking can be equally problematic. Perhaps they have a point in suggesting that if they give in immediately, they lose all hope, “but if we resist you then there is still hope we may not be destroyed”.
Their belief that the gods will help them “because we are righteous men defending ourselves against aggression”, however, is naive at best. The willingness of the ruling clique to sacrifice the whole city to preserve their own position must be questioned.
The back and forth of dialogue highlights conflicting world views and values, and should prompt us to consider our own position. What is the place of justice in an anarchic world? Is it right to put sovereignty above people’s lives? How does it feel to be strong or weak?
It’s worthwhile engaging with the whole episode, not just isolated lines – or even trying to find your own way through the debate to a less bad outcome.
The English political philosopher Thomas Hobbes, introducing his classic 1629 translation, noted that Thucydides never offered rules or lessons but was nevertheless “the most politic historiographer that ever writ”. Modern readers have too often taken isolated quotes out of context, assumed that they represent the author’s own views and claimed them as timeless laws. Hobbes saw Thucydides as presenting complex situations that we need to puzzle out.
It’s remarkable that an author famed for his depth and complexity gets reduced to soundbites. But the contradictions in how those soundbites are interpreted – the way that Thucydides presents us with a powerful and controversial idea but doesn’t tell us what to think about it – should send us back to the original.
Looking for something good? Cut through the noise with a carefully curated selection of the latest releases, live events and exhibitions, straight to your inbox every fortnight, on Fridays. Sign up here.
Neville Morley does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.
Source: The Conversation – USA (2) – By Hélène Nguemgaing, Assistant Clinical Professor of Critical Resources & Sustainability Analytics, University of Maryland
Across Appalachia, rust-colored water seeps from abandoned coal mines, staining rocks orange and coating stream beds with metals. These acidic discharges, known as acid mine drainage, are among the region’s most persistent environmental problems. They disrupt aquatic life, corrode pipes and can contaminate drinking water for decades.
However, hidden in that orange drainage are valuable metals known as rare earth elements that are vital for many technologies the U.S. relies on, including smartphones, wind turbines and military jets. In fact, studies have found that the concentrations of rare earths in acid mine waste can be comparable to the amount in ores mined to extract rare earths.
Scientists estimate that more than 13,700 miles (22,000 kilometers) of U.S. streams, predominantly in Pennsylvania and West Virginia, are contaminated with acid mine discharge.
A closer look at acid mine drainage from abandoned mines in Pennsylvania. Pennsylvania Fish and Boat Commission.
We and our colleagues at West Virginia University have been working on ways to turn the acid waste in those bright orange creeks into a reliable domestic source for rare earths while also cleaning the water.
Experiments show extraction can work. If states can also sort out who owns that mine waste, the environmental cost of mining might help power a clean energy future.
Rare earths face a supply chain risk
Rare earth elements are a group of 17 metals, also classified as critical minerals, that are considered vital to the nation’s economy or security.
MP Materials’ Mountain Pass Rare Earth Mine and Processing Facility, in California near the Nevada border, is one of the few rare earth mines in the U.S. Tmy350/Wikimedia Commons, CC BY-SA
China controls about 70% of global rare earth production and nearly all refining capacity. This near monopoly gives the Chinese government the power to influence prices, export policies and access to rare earth elements. China has used that power in trade disputes as recently as 2025.
The United States, which currently imports about 80% of the rare earth elements it uses, sees China’s control over these critical minerals as a risk and has made locating domestic sources a national priority.
The U.S. Geological Survey has been mapping locations for potential rare earth mining, shown in pink. But it takes years to explore a locations and then get a mine up and running. USGS
Although the U.S. Geological Survey has been mapping potential locations for extracting rare earth elements, getting from exploration to production takes years. That’s why unconventional sources, like extracting rare earth elements from acid mine waste, are drawing interest.
Turning a mine waste problem into a solution
Acid mine drainage forms when sulfide minerals, such as pyrite, are exposed to air during mining. This creates sulfuric acid, which then dissolves heavy metals such as copper, lead and mercury from surrounding rock. The metals end up in groundwater and creeks, where iron in the mix gives the water an orange color.
Expensive treatment systems can neutralize the acid, with the dissolved metals settling into an orange sludge in treatment ponds.
For decades, that sludge was treated as hazardous waste and hauled to landfills. But scientists at West Virginia University and the National Energy Technology Laboratory have found that it contains concentrations of rare earth elements comparable to those found in mined ores. These elements are also easier to extract from acid mine waste because the acidic water has already released them from the surrounding rock.
Acid mine drainage flowing into Decker’s Creek in Morgantown, West Virginia, in 2024. Helene Nguemgaing
Experiments have shown how the metals can be extracted: Researchers collected sludge, separated out rare earth elements using water-safe chemistry, and then returned the cleaner water to nearby streams.
It is like mining without digging, turning something harmful into a useful resource. If scaled up, this process could lower cleanup costs, create local jobs and strengthen America’s supply of materials needed for renewable energy and high-tech manufacturing.
But there’s a problem: Who owns the recovered minerals?
The ownership question
Traditional mining law covers minerals underground, not those extracted from water naturally running off abandoned mine sites.
Nonprofit watershed groups that treat mine waste to clean up the water often receive public funding meant solely for environmental cleanup. If these groups start selling recovered rare earth elements, they could generate revenue for more stream cleanup projects, but they might also risk violating grant terms or nonprofit rules.
To better understand the policy challenges, we surveyed mine water treatment operators across Pennsylvania and West Virginia. The majority of treatment systems were under landowner agreements in which the operators had no permanent property rights. Most operators said “ownership uncertainty” was one of the biggest barriers to investment in the recovery of rare earth elements, projects that can cost millions of dollars.
Not surprisingly, water treatment operators who owned the land where treatment was taking place were much more likely to be interested in rare earth element extraction.
Map of acid mine drainage sites in West Virginia. Created by Helene Nguemgaing, based on data from West Virginia Department of Environmental Protection, West Virginia Office of GIS Coordination, and U.S. Geological Survey
West Virginia took steps in 2022 to boost rare earth recovery, innovation and cleanup of acid mine drainage. A new law gives ownership of recovered rare earth elements to whoever extracts them. So far, the law has not been applied to large-scale projects.
Across the border, Pennsylvania’s Environmental Good Samaritan Act protects volunteers who treat mine water from liability but says nothing about ownership.
Map of acid mine drainage sites in Pennsylvania. Created by Helene Nguemgaing, based on data from Pennsylvania Spatial Data Access
This difference matters. Clear rules like West Virginia’s provide greater certainty, while the lack of guidance in Pennsylvania can leave companies and nonprofits hesitant about undertaking expensive recovery projects. Among the treatment operators we surveyed, interest in rare earth element extraction was twice as high in West Virginia than in Pennsylvania.
The economics of waste to value
Recovering rare earth elements from mine water won’t replace conventional mining. The quantities available at drainage sites are far smaller than those produced by large mines, even though the concentration can be just as high, and the technology to extract them from mine waste is still developing.
Still, the use of mine waste offers a promising way to supplement the supply of rare earth elements with a domestic source and help offset environmental costs while cleaning up polluted streams.
Early studies suggest that recovering rare earth elements using technologies being developed today could be profitable, particularly when the projects also recover additional critical materials, such as cobalt and manganese, which are used in industrial processes and batteries. Extraction methods are improving, too, making the process safer, cleaner and cheaper.
Treating acid mine drainage and extracting its valuable rare earth elements offers a way to transform pollution into prosperity. Creating policies that clarify ownership, investing in research and supporting responsible recovery could ensure that Appalachian communities benefit from this new chapter, one in which cleanup and clean energy advance together.
The authors do not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.
One year into U.S. President Donald Trump’s second term, questions about his health and competence are as pervasive as the gilt sprawling through the Oval Office.
These questions grew even louder following his rambling speech this week at Davos, where he repeatedly referred to Greenland as Iceland, falsely claimed the United States gave the island back to Denmark during the Second World War and boasted that only recently, NATO leaders had been lauding his leadership (“They called me ‘daddy,’ right?”).
Do swollen ankles and whopping hand bruises signal other serious problems? Do other Davos-like distortions and ramblings — plus a tendency to fall asleep during meetings — reveal mental decline even more startling than Joe Biden’s in the final couple of years of his presidency?
This is not the first time in White House history that American citizens have had concerns about the health of their president — nor the first time that historians like me have raised questions.
The experiences of Trump’s predecessors remind us of the dangers inherent in the inevitable human frailty of the very powerful.
In other cases, the effect of physical ailments on competence was less clear — and therefore debatable. Franklin D. Roosevelt’s heart problems during the Second World War grew serious enough to contribute to his April 1945 death. Did they also compromise his mental capacities during the controversial Yalta Conference?
There have also been debates about the possible competence consequences of the behavioural tendencies and mental health conditions of several American presidents:
Questions and concerns about Trump’s physical and mental health, then, aren’t unique — even if the causes for concern are far more numerous than they were for previous presidents.
Numbers matter here. Out of a maximum 30 points, scores below 25 suggest mild to severe cognitive issues.
Of equal importance, the MoCA provides no insight into markers of mental competence, like reasoning and problem-solving. Well-established test batteries cover such ground (the Wechsler Adult Intelligence Scale is widely used), but Trump has not likely worked through any. (Neither, to be sure, have any predecessors — though none have raised the concerns so evident in 2026.)
Unofficial diagnoses of personality characteristics also fuel debate about Trump’s competence and mental health. The scale of the president’s ego is a prime example of concern.
Psychological issues?
On one hand, in the absence of intensive in-person assessment, psychiatrists are understandably reluctant to apply the label of “narcissistic personality disorder” (NPD) as defined by the American Psychiatric Association’s Diagnostic and Statistical Manual of Mental Disorders (DSM). On the other hand, many observers are also understandably struck by how Trump’s behaviour matches the DSM’s checklist of symptoms for the disorder.
More serious are his endless and false claims that he won the 2020 presidential election, that he has the right to torch constitutional norms like “due process” that are enabling ICE abuses in Minneapolis and elsewhere, and that he can disregard the need for congressional approval on policies like reducing cancer research and other health programs.
Psychiatrists also associate NPD with a sense of open-ended entitlement. Comic examples emerge: rebranding the (now) “Donald J. Trump and John F. Kennedy Center,” his lack of embarrassment in relishing the absurd FIFA Peace Prize or María Corina Machado’s surrender of her Nobel Peace Prize.
Brazenness
Trump’s willingness to trample upon rights within the U.S. and his apparent eagerness to disrupt and dismantle the building blocks of the post-Second World War international order are also possible signs of psychological problems.
The Trump family’s World Liberty Financial cryptocurrency enterprise “earned” more than $1 billion in 2025, after all.
Against the backdrop of the looming mid-term elections, Trump’s ever-compounding ego and appetites remain of burning concern — along with his overall physical health and mental competence. Other presidents faced similar questions even without the current storm of scandals and extremes.
Will Trump relish the distinction of leaving his predecessors in the dust on this front too?
In the past, Ronald W. Pruessen has received funding from the Social Sciences and Humanities Research Council of Canada.
À chaque élection présidentielle, des promesses sont faites, suscitant l’espoir des citoyens, avant qu’ils ne soient déçus. Or l’analyse des mandats présidentiels entre 1995 et 2022 montre que le respect (ou le non-respect) des promesses de campagne n’a aucun impact mesurable sur la popularité des présidents. La dynamique espoir-déception est systématique. Comment expliquer ce phénomène ?
Dans une démocratie représentative, on s’attend à ce que les citoyens évaluent leurs dirigeants au moins en partie au regard du degré de réalisation de leurs promesses électorales. Cette idée, au cœur de la théorie du mandat démocratique, suppose que les citoyens approuvent davantage les gouvernants qui tiennent parole. Ce mécanisme doit à la fois inciter les élus à respecter leurs engagements et assurer que les élections orientent réellement l’action publique.
Mais en France, il semble grippé : la cote des présidents suit une courbe descendante quasi mécanique, insensible à la mise en œuvre de leurs promesses de campagne. Notre analyse des mandats présidentiels entre 1995 et 2022, croisant données de popularité mensuelle et suivi de 921 promesses électorales, révèle que la réalisation des engagements ne produit aucun effet mesurable sur l’approbation publique.
Une popularité insensible aux promesses tenues
Les exécutifs se tiennent mieux à leur programme que beaucoup ne le pensent : le taux de réalisation (partielle ou complète) atteint près de 60 % en moyenne sur les cinq derniers mandats présidentiels. Emmanuel Macron, lors de son premier quinquennat, affiche un taux de réalisation supérieur à 70 %. François Hollande, Jacques Chirac (deuxième mandat) et Lionel Jospin (premier ministre en cohabitation) suivent de près. Nicolas Sarkozy affiche un taux de réalisation de 54 %, plus faible mais significatif, malgré une crise économique majeure. Jacques Chirac se démarque lors de son premier mandat par une proportion de promesses tenues comparativement faible (30 %). Ce faible taux reflète, d’une part, un désengagement rapide vis-à-vis de sa campagne sur la fracture sociale pour déployer une politique de rigueur budgétaire et, d’autre part, la période de cohabitation qui a fortement limité la capacité d’action du président.
Projet Partipol, Fourni par l’auteur
Ces bilans non négligeables ne se traduisent pas dans les sondages : nos analyses ne mettent en évidence aucun effet statistiquement significatif des promesses réalisées sur la popularité présidentielle. Les courbes de popularité font plutôt ressortir une dynamique bien connue : une phase de « lune de miel » postélectorale, suivie d’un déclin régulier, parfois ponctué d’un léger rebond en fin de mandat.
Ce phénomène, appelé « cost of ruling » (ou « coût de gouverner »), reflète une usure du pouvoir que ni les promesses tenues ni les réformes menées à bien ne parviennent à enrayer.
Projet Partipol, Executive Approval Project, Fourni par l’auteur
Les engagements les plus visibles – ceux qui marquent la campagne par leur degré d’ambition – ne sont pas les plus faciles à réaliser. Les promesses tenues, souvent d’ampleur moindre, passent souvent inaperçues, noyées dans le flot de l’actualité ou éclipsées par les polémiques.
La couverture médiatique accentue cette asymétrie. Les promesses rompues font la une, les promesses tenues n’attirent guère l’attention. Les conflits, les revers et les scandales sont plus vendeurs que le travail gouvernemental au long cours sur les promesses de campagne. Cette focalisation sur les échecs alimente une perception négative du pouvoir, même lorsque celui-ci agit conformément à ses engagements.
À cela s’ajoute la manière dont les citoyens interprètent l’action gouvernementale. Tous ne réagissent pas de la même façon à la réalisation d’une promesse. D’une part, les biais cognitifs jouent un rôle majeur : chacun lit l’actualité politique au prisme de ses préférences partisanes, de sa confiance dans les institutions ou de son humeur générale. Les soutiens de l’exécutif en place seront plus disposés à porter ses réalisations à son crédit.
D’autre part, les citoyens n’adhèrent pas tous à la même vision du mandat démocratique. Pour certains, l’élection donne mandat à l’exécutif pour tenir ses promesses ; pour d’autres, ces mesures peuvent rester intrinsèquement contestables, d’autant plus dans un système majoritaire où une partie des voix relève du vote « utile » ou de barrage plutôt que de l’adhésion.
Une promesse tenue suscitera donc souvent l’approbation des partisans, mais crispera les opposants. Ces réactions opposées annulent tout effet net sur la popularité.
Une hyperprésidentialisation contre-productive
Le cas français est particulièrement révélateur. La Ve République confère au président des pouvoirs beaucoup plus forts que dans d’autres régimes. Élu au suffrage universel direct, il concentre les attentes, incarne l’État, définit l’agenda et la ligne gouvernementale. Cette concentration du pouvoir est censée clarifier les responsabilités et lui donner la capacité de mettre en œuvre son programme. Mais elle se retourne contre lui en le rendant responsable de tout ce qui cristallise les insatisfactions et en démultipliant le cost of ruling.
Cette dynamique s’atténue en période de cohabitation, comme entre 1997 et 2002. Le président partage alors le pouvoir avec un premier ministre issu d’une autre majorité, ce qui brouille les responsabilités. Hors cohabitation, le président est seul en première ligne, cible de toutes les critiques et les insatisfactions et son capital politique s’épuise rapidement. En concentrant les attentes autant que les critiques, l’hyperprésidentialisation finit par miner la capacité d’action du président là où elle devait la renforcer.
Un mandat sous tension, un modèle aux abois ?
Cette déconnexion entre promesses et popularité met à mal le modèle du « mandat » démocratique. La présidentielle concentre des attentes immenses : les candidats sont incités à incarner des visions d’alternance très ambitieuses et à promettre des transformations profondes. Sur le papier, cette élection devrait leur donner la légitimité nécessaire pour mettre en œuvre ce programme une fois au pouvoir.
Mais en pratique, ce mandat est fragile. Le capital politique tiré de l’élection s’érode très vite une fois passée la « lune de miel », réduisant les marges de manœuvre de l’exécutif et limitant sa fenêtre pour imprimer sa marque. Cela incite à se précipiter pour faire passer le plus rapidement possible un maximum de réformes, au risque de sembler passer en force. Mais l’exécutif peine à convertir l’élection en capacité durable d’action : ses réalisations n’alimentent ni sa popularité ni le sentiment qu’ont les électeurs d’être représentés. Que les promesses soient tenues ou non, beaucoup ont le sentiment de ne pas avoir été entendus.
Projet Partipol, Fourni par l’auteur
Dans un paysage politique de plus en plus fragmenté et instable, il devient de plus en plus difficile de mettre en œuvre son programme (les promesses sont rarement réalisées au-delà de la deuxième année de mandat) et la frustration suscitée au regard des espoirs nourris par chaque élection présidentielle risque de se renforcer encore. Restaurer le lien entre élections, promesses et action publique suppose de sortir d’un modèle où le président est censé tout promettre, tout décider et tout assumer seul.
Il est temps de réfléchir à une forme de gouvernement plus collégial, où les responsabilités sont partagées et où un spectre plus inclusif de sensibilités peut s’exprimer. Une telle évolution permettrait non seulement de mieux répartir le crédit des accomplissements – les promesses tenues –, mais aussi le prix des défaites, dont l’inévitable coût de gouverner.
Isabelle Guinaudeau a reçu des financements de l’Agence nationale de la recherche (Projet ANR- 13-JSH1-0002-01, PARTIPOL, 2014-2018).
Emiliano Grossman ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Source: The Conversation – in French – By Djamchid Assadi, Professeur associé au département « Digital Management », Burgundy School of Business
Longtemps, les milieux d’affaires et religieux ont été, les uns comme les autres, des piliers du système iranien. Mais dès les années 1940, le clergé se politise et prend de plus en plus d’importance. L’avènement de la République islamique en 1979 entérine et accélère nettement ce processus : la Mosquée prend alors le pas sur le Bazar, réduit à un rôle subalterne. La défection observée dernièrement du Bazar vis-à-vis du pouvoir s’explique par des éléments conjoncturels ; mais, structurellement, elle était en germe depuis des décennies.
Pourquoi un allié historique, longtemps pilier d’un régime autoritaire, s’en désiste-t-il et contribue-t-il à sa fragilisation, voire à sa chute ?
Depuis Tocqueville jusqu’aux travaux contemporains sur les « piliers du pouvoir », une constante traverse l’histoire politique moderne : la stabilité d’un régime dépend moins de l’adhésion diffuse des foules que de l’obéissance de ses corps intermédiaires organisés. Lorsque ces soutiens cessent d’obéir, le pouvoir entre dans une zone de vulnérabilité structurelle.
Ce mécanisme s’observe dans des contextes variés, comme la rupture des forces armées portugaises avec le régime de Caetano en 1974, le désengagement des élites franquistes après 1975 : le basculement ne procède pas d’une mobilisation populaire isolée, mais de la désolidarisation d’acteurs institutionnels jusque-là intégrés à l’ordre autoritaire.
Le Grand Bazar de Téhéran illustre précisément ce mécanisme. Sa fermeture lors du soulèvement de janvier 2026 ne constitue ni l’origine ni le moteur principal de la contestation, mais son symptôme institutionnel le plus lisible. Elle signale le retrait d’un acteur longtemps arrimé à la jurisprudence religieuse – moins par conviction que parce qu’elle offrait un cadre normatif stable à ses échanges économiques. Si le mouvement iranien est national, porté par des groupes sociaux, professionnels et générationnels multiples, chacun mû par des motifs distincts, le désistement du bazar conserve une singularité claire : celle d’un acteur qui cesse d’assurer sa fonction d’amortisseur institutionnel entre société et pouvoir.
Pour en saisir la portée, il faut revenir à la mutualité séculaire entre le Bazar et la Mosquée. Cette relation ne reposait ni sur une fusion idéologique ni sur une subordination politique, mais sur une complémentarité fonctionnelle : le religieux garantissait les normes et arbitrages assurant la prévisibilité des échanges ; le marchand finançait le clergé et garantissait son indépendance vis-à-vis du pouvoir central. Cette autonomie réciproque constituait l’un des fondements de la stabilité sociale iranienne.
La révolution islamique de 1979 rompt cet équilibre. En assujettissant la Mosquée pour monopoliser le sacré, le nouveau pouvoir transforme une institution autonome en instrument de règne. La relation cesse d’être horizontale et devient médiatisée par un État idéologique. La grève de janvier 2026 ne peut donc être réduite à une réaction conjoncturelle à la cherté de la vie – même si celle-ci joue un rôle déclencheur. Elle révèle une rupture plus profonde, inscrite dans la longue durée, née de la transformation du rapport entre religion, économie et pouvoir depuis 1979.
Le Bazar et la Mosquée : une relation ancienne, fonctionnelle et non fusionnelle
La relation séculaire entre le Bazar et la Mosquée repose sur une division fonctionnelle du travail social. Avant toute politisation du clergé, cette relation est avant tout professionnelle. La jurisprudence islamique chiite (fiqh) agit depuis toujours, surtout depuis la dynastie des Safavides (1501-1722), comme un véritable « code de commerce » : elle encadre les contrats, arbitre les litiges et garantit la sécurité des échanges (Lambton, 1969). La Mosquée fonctionne ainsi comme un tiers de confiance indépendant, extérieur à l’État, assurant la prévisibilité de l’ordre marchand.
Les travaux empiriques de Keshavarzian (2009) confirment que cette relation repose sur des réseaux horizontaux de confiance et de coordination sociale, produits en dehors des structures étatiques, et non sur une loyauté idéologique. L’islam chiite non politisé valorise historiquement l’activité marchande, faisant du commerce une pratique socialement légitime et moralement encadrée. Cette alliance économico-religieuse constitue un fait sociologique structurant de longue durée (Abrahamian, 1982), dans lequel la religion ne gouverne pas l’économie mais en stabilise les règles.
Cette mutualité s’exprime politiquement dès le XIXe siècle. Lors de la crise du tabac (1891–1892), Bazar et Mosquée s’unissent contre une concession accordée par le pouvoir. La révolte du tabac, déclenchée en 1891 sous le règne de Nasser al-Din Chah, était une protestation massive contre la concession accordée par le gouvernement iranien à un ressortissant britannique pour le monopole du tabac. Cette mesure, perçue comme une violation de l’intérêt national et une intrusion étrangère, a été fortement dénoncée par le clergé chiite et les intellectuels, marquant un tournant dans la mobilisation politique moderne de l’Iran. Cette opposition ciblée à l’arbitraire étatique – plutôt qu’un projet théocratique (Keddie, 1966) – a jeté les bases d’un mouvement nationaliste sans ambitions politiques religieuses qui changera de cap plus tard pour soutenir la Révolution iranienne de 1979.
Le même schéma se retrouve durant la Révolution constitutionnelle (1905–1911), lorsque les grands commerçants financent les bast (sit-in de protestation) et les hijrat (exils protestataires, consistant généralement à quitter une ville pour exercer une pression politique) afin de soutenir l’instauration d’une mashrouteh – un État constitutionnel limitant le pouvoir monarchique, non un État islamique (Afary, 1996).
La modernisation des années 1920–1930 ne rompt pas immédiatement cet équilibre. Reza Shah (fondateur de la monarchie Pahlavi, à la tête du pays de 1925 à 1941) transforme progressivement le droit commercial religieux en droit civil, en extrayant les principes juridiques modernes du fiqh sans rupture frontale avec les institutions religieuses (Banani, 1961). Les sphères demeurent distinctes : le Bazar conserve sa fonction économique, la Mosquée son rôle normatif et social.
C’est précisément cette architecture fonctionnelle, fondée sur la séparation des rôles et l’autonomie réciproque, qui commence à se fissurer à partir des années 1940, et plus encore dans les années 1960, lorsqu’une partie du clergé se politise et remet en cause sa fonction traditionnelle de médiation.
L’émergence du clergé radical et la politisation de la mosquée
La politisation de la Mosquée marque une rupture décisive dans l’histoire des relations entre religion, commerce et pouvoir en Iran. Elle met fin à la fonction du clergé comme tiers normatif indépendant et ouvre la voie à une instrumentalisation politique du religieux. Deux figures structurent ce basculement.
La première est Navab Safavi (1924–1956), fondateur des Fadaian·e Islam (« les Sacrifiés de l’islam » ou « les Fidèles prêts au sacrifice pour l’islam »). En prônant l’application coercitive de la charia et en légitimant l’assassinat politique, Navab Safai rompt avec le rôle historique du clergé chiite comme arbitre moral et juridique. Bien que marginal et rapidement réprimé, ce courant inaugure une conception militante et autoritaire du religieux, qui influencera durablement l’islamisme politique iranien (Rahnema, 1998).
La deuxième figure, l’ayatollah Ruhollah Khomeini, procède à une rupture structurelle. À partir de 1963, son opposition aux réformes de la « Révolution blanche » (un vaste programme de modernisation lancé par Mohammad Reza Chah, comprenant la réforme agraire, l’alphabétisation de masse, l’émancipation juridique des femmes, etc.) transforme la Mosquée en acteur politique central. Le clergé cesse alors d’être un garant des normes sociales et économiques ; il devient un instrument de mobilisation politique, puis, après 1979, un pilier constitutif de l’État idéologique.
Cette politisation rencontre un écho auprès d’une fraction du bazar dans un contexte de transformation rapide de l’économie iranienne. Durant les années 1960, la croissance atteint en moyenne 9 à 10 % par an, portée par la substitution des importations et l’industrialisation (Amuzegar, 1977). Ce processus marginalise les bazaris spécialisés dans le commerce extérieur, alimentant un mécontentement économique qui se mue en radicalisation politique partielle.
C’est dans ce contexte qu’émerge le Motalefeh (Parti de la coalition islamique), réseau de bazaris islamisés, qui joue un rôle clé dans la mobilisation révolutionnaire de 1978–1979 (Bakhash, 1984). Toutefois, cette alliance ne traduit pas un ralliement durable du bazar comme corps social. Le Motalefeh se transforme rapidement en élite intégrée à l’appareil d’État, utilisant son identité bazari pour administrer et contrôler le bazar plutôt que pour le représenter.
La politisation du religieux désorganise ainsi les réseaux traditionnels. La confiance horizontale fondée sur le fiqh est remplacée par une loyauté idéologique surveillée, médiatisée par l’État. En sortant la religion du domaine de la croyance volontaire et de la médiation sociale, le régime affaiblit sa capacité à structurer durablement les relations économiques, préparant les conditions du désistement ultérieur du bazar.
Les limites de l’État rentier clientéliste (1979–2026)
Le régime islamique issu de la révolution de 1979 opère une double transformation structurante. D’une part, il place le clergé et la mosquée sous l’autorité du velayat·e faqih – le principe de « tutelle du juriste‑théologien », qui confère au guide suprême un pouvoir politique et religieux supérieur à toutes les autres institutions ; d’autre part, il étatiste une large part du secteur privé, redistribuant entreprises, licences et monopoles d’import-export à ses fidèles. Les frères Asgaroladi incarnent ce capitalisme de connivence adossé à l’État révolutionnaire. Issus du bazar traditionnel, ils deviennent des hommes d’affaires ultra‑puissants grâce à leur proximité avec le régime, obtenant monopoles, licences et positions clés dans les fondations para‑étatiques – une illustration emblématique du capitalisme de connivence né après 1979.
Cette mutation rompt l’équilibre historique : la Mosquée perd son autonomie institutionnelle, tandis que le Bazar devient un bénéficiaire rentier dépendant de l’État. Tant que la rente pétrolière permet de financer ce clientélisme, le système fonctionne de manière précaire mais durable.
Toutefois, ce modèle ne repose jamais sur une représentation collective du Bazar. Le régime privilégie des relations personnelles et sélectives, substituant au profit marchand l’accès à des licences d’importation. Ce mécanisme devient fatal lorsque les sanctions internationales privent l’État de devises. Exclu des circuits financiers internationaux, le régime perd son principal levier de contrôle économique.
L’économie entre alors dans une spirale inflationniste : inflation supérieure à 42 %, effondrement du rial, chute rapide du pouvoir d’achat. Pour les bazaris, dont l’activité repose sur l’anticipation, cette instabilité rend le calcul économique impossible. Comme l’avait montré Hayek (1945), la désorganisation du système des prix détruit la rationalité des décisions économiques.
Cette crise s’accompagne d’une fragmentation institutionnelle entretenue : division des chambres de commerce, bureaucratisation du clergé, marginalisation des mosquées comme instances d’arbitrage. La rupture de janvier 2026 résulte ainsi d’une double faillite : celle d’un État rentier incapable de tenir ses promesses, et celle d’une Mosquée assujettie ayant cessé de jouer son rôle historique.
Le désistement des alliés stratégiques
Le cas iranien montre que le désistement d’un allié stratégique ne relève ni d’un sursaut moral ni d’une rupture idéologique soudaine, mais de l’effondrement progressif des mécanismes institutionnels qui rendaient l’obéissance rationnelle.
En janvier 2026, le Grand Bazar ne se retire pas seulement d’un État en crise économique. Il se désengage d’un ordre politique qui a détruit les conditions mêmes de la loyauté. En assujettissant la Mosquée, la République islamique a rompu la mutualité fonctionnelle entre religion et économie, privant le bazar des cadres normatifs stables indispensables à son activité.
Ce désistement ne traduit pas un rejet de la foi, mais le refus d’une religion devenue autoritaire, bureaucratisée et imprévisible. En neutralisant les corps intermédiaires qui assuraient la coordination sociale, l’État a remplacé la confiance horizontale par une loyauté contrainte, tolérée tant qu’elle restait matériellement soutenable.
Comme l’avait montré Raymond Aron, un régime autoritaire devient vulnérable lorsqu’il perd l’obéissance de ses soutiens structurants. Le désistement du Bazar révèle ainsi une fragilisation systémique. Lorsque l’État détruit simultanément la prévisibilité économique et les institutions sociales qui rendaient l’obéissance rationnelle, il ouvre une zone d’incertitude historique dont l’issue dépend moins de la rue que de la capacité – ou non – à reconstruire une alternative institutionnelle crédible.
Djamchid Assadi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.