Violent acts in houses of worship are rare but deadly – here’s what the data shows

Source: The Conversation – USA (3) – By James Densley, Professor of Criminal Justice, Metropolitan State University

A church program lies on the ground near the family reunification area after the shooting in Grand Blanc, Mich., on Sept. 28, 2025. Jeff Kowalsky/AFP via Getty Images

On Sept. 28, 2025, at least four people were killed and eight others injured during a Sunday service at a Church of Jesus Christ of Latter-day Saints chapel in Grand Blanc, Michigan. Just a month earlier, two people died and 21 were injured during a Mass for students at the Catholic Church of the Annunciation in Minneapolis.

These tragedies may feel sudden and senseless, but they are part of a longer pattern that we have been tracking.

We are criminologists who have studied violence for decades. In 2023, we created a public database of homicides that occur in houses of worship across the United States. It now spans nearly 25 years of incidents, documenting how often these attacks happen, who perpetrates them, what weapons are used, when and where they occur, and how deadly they are.

What the numbers show

From 2000 to 2024, the dataset records 379 incidents and 487 deaths at religious congregations and religious community centers. Most involved a single victim, but some – like the recent shootings in Michigan and Minnesota – killed or injured many people.

About 7 in 10 incidents involved firearms, accounting for three-quarters of the deaths. Firearm cases averaged about 1.4 deaths each, compared with 1.1 for nonfirearm cases.

Handguns were the most common weapon, linked to more than 100 incidents and 147 deaths. But semiautomatic rifles, though used in only seven cases, killed 46 people — more than six per attack, on average.

The deadliest year was 2017, when 47 people were killed at places of worship, 42 of them with firearms. Twenty-six of those people were killed in a single catastrophic shooting at First Baptist Church of Sutherland Springs, Texas.

‘Mass shootings’

Mass shootings are often defined as attacks that kill four or more people. Using that threshold, the data shows 10 incidents since 2000 at houses of worship. Lower the bar to three killed, and there are 14; at two killed, 40.

Definitions shape perception. Most people associate mass shootings with high-profile tragedies like the massacres at Charleston’s Emanuel African Methodist Episcopal Church in 2015 or Pittsburgh’s Tree of Life Synagogue in 2018. But many other attacks, like the tragedy at Annunciation in Minneapolis, involve two or three deaths. Each represents a profound loss for a community.

A man with a white beard, wearing a black sports cap and a cross necklace, somberly holds up a lit candle amid a crowd outside.
Attendees attend a vigil at Holy Redeemer Church in Burton, Mich. on Sept. 28, 2025, following a shooting at a nearby chapel of The Church of Jesus Christ of Latter-day Saints.
AP Photo/Jose Juarez

In the cases where four or more people were killed, every perpetrator was a man in his 20s to 40s, with an average age of 32. Compared with other homicides at worship sites, these shooters were far more likely to have a history of mental health problems: 60% vs. 18%. They were also far more likely to have been thinking about or planning suicide – 70% vs. 17% – and to die by suicide during or after the attack: 60% vs. 10%.

There were other similarities, too. Among attackers who killed four or more people, 20% had served in the military, and 60% had a criminal background. Among attackers who killed fewer people, those numbers were 4% and 43%. Deadlier shooters more often leaked their plans or showed signs of being in crisis beforehand.

When and where

Violence is most likely to strike on Sundays – a quarter of all cases – followed by Saturdays. That reflects worship patterns: Sundays are the busiest day for most Christian denominations, while Saturdays are common for Jewish services.

Incidents cluster around mornings and nights, with mornings most common — the prime window for weekly services. And despite headlines about shootings inside sanctuaries, 71% of homicides occurred outside – in parking lots, courtyards or on steps – when people were gathering or leaving.

In two-thirds of cases, it was unclear whether the perpetrator had a connection with the congregation. Most of the other cases, though, involved attackers with clear ties, including members, relatives, pastors and employees. In dozens of cases, domestic disputes spilled into worship settings. Because services are routine, predictable gatherings, they can become flash points for private conflicts that turn deadly.

Attacks happened across the nation, but were concentrated in the South. The region tends to have more frequent attendance at religious services and looser firearm laws – a combination that helps explain the South’s overrepresentation, though no region is untouched.

Which faiths are affected

Ninety-seven percent of deadly incidents occurred at Christian churches, reflecting how many there are in the United States.

But, adjusting for the number of congregations, the data underscores other faiths’ vulnerability to targeted violence. Jewish and Muslim houses of worship, community centers and cemeteries, for example, contend with frequent threats and vandalism.

Only one incident at a gurdwara – a Sikh temple – appears in the dataset. Because there are so few in the U.S., though, that single case translates into the highest rate for any faith tradition, once the total number of congregations are taken into account. Stabbings or shootings also occurred at six Jewish synagogues and community centers, further suggesting disproportionate risk.

Two incidents involved mosques. Yet that contrasts with data showing high levels of Islamophobia in the U.S., suggesting that most violence against Muslims may occur in other settings.

A woman's face is illuminated by the candle she holds, and she and a man beside her stand in a crowd at night.
People attend a vigil on Aug. 5, 2013, to mark the one-year anniversary of a shooting at a Sikh temple in Oak Creek, Wis.
Scott Olson/Getty Images

Why this research matters

Homicides in houses of worship remain rare, but when they occur, firearms make them deadlier. Victims have included pastors, rabbis, imams, monks, congregants, staff and children.

Numbers cannot capture the grief of families in Grand Blanc or Minneapolis, or the trauma that survivors carry. But they can reveal patterns that ground conversations about safety and prevention.

Houses of worship are meant to be open spaces of peace and refuge. The challenge is balancing this higher purpose with practical security. By studying these past tragedies, Americans may better prepare for the future – and prevent more families from enduring the heartbreak of recent weeks.

The Conversation

James Densley has received funding from the National Institute of Justice, Joyce Foundation, and Sandy Hook Promise Foundation.

Jillian Peterson has received funding from the National Institute of Justice, Joyce Foundation, and Sandy Hook Promise Foundation.

ref. Violent acts in houses of worship are rare but deadly – here’s what the data shows – https://theconversation.com/violent-acts-in-houses-of-worship-are-rare-but-deadly-heres-what-the-data-shows-266328

Comment débutent les cancers du sein ? Conversation avec Alexandra Van Keymeulen

Source: The Conversation – in French – By Alexandra Van Keymeulen, Maître de recherche FNRS au Laboratoire des Cellules Souches et du Cancer, Université Libre de Bruxelles (ULB)

Alexandra Van Keymeulen est biochimiste et spécialiste du cancer du sein. Avec son équipe, elle explore les étapes extrêmement précoces dans le développement des tumeurs, bien avant que celles-ci ne soient détectables. Elle a reçu Elsa Couderc, cheffe de rubrique Science et Technologie, pour expliquer simplement ce qu’est un cancer, et les avancées de la recherche depuis qu’elle a débuté dans le domaine.


The Conversation France : Aujourd’hui, vous êtes une spécialiste reconnue sur l’origine du cancer du sein, mais vous n’avez pas commencé vos recherches par là.

Alexandra Van Keymeulen : J’ai fait ma thèse, en Belgique, sur la thyroïde. J’étudiais les mécanismes qui font que les cellules thyroïdiennes prennent la décision de se diviser. Comme les cellules ne sont pas immortelles, qu’elles vivent moins longtemps que nous, il y a sans arrêt des cellules qui meurent et, donc, des cellules qui se divisent pour donner naissance à de nouvelles cellules. Dans une thyroïde saine, les cellules prennent en permanence la décision de se diviser ou non pour donner naissance à la prochaine génération de cellules.

Je travaillais sur les thyroïdes saines, mais dans un groupe où d’autres personnes étudiaient le cancer de la thyroïde. En effet, les mécanismes de division cellulaire sont dérégulés dans le cas d’un cancer : les cellules se divisent de manière anarchique, sans contrôle. Elles forment une masse, un peu comme un mini-organe. Elles ne répondent plus aux signaux environnants qui leur indiquent de stopper leur croissance. La division cellulaire incontrôlée est la première étape pour former une tumeur.

Mais une tumeur bénigne n’est pas appelée « cancer ». Un cancer a aussi des caractéristiques invasives, c’est-à-dire que ces cellules migrent et envahissent les autres tissus.

Et justement, après ma thèse, je suis partie cinq années à San Francisco en postdoctorat. Là, j’ai travaillé sur la migration cellulaire. Je ne travaillais toujours pas sur des cellules cancéreuses, mais sur les mécanismes intrinsèques, au sein des cellules, qui font qu’elles se déplacent d’un organe à l’autre ; typiquement, ce sont les cellules du système immunitaire qui se déplacent pour aller au site de l’infection.

Ce sont ces mécanismes-là qui sont piratés par les cellules cancéreuses pour former des métastases. Les cellules cancéreuses migrent moins vite que des cellules du système immunitaire, mais elles arrivent à se déplacer.

Après avoir étudié la division cellulaire et la migration des cellules saines, vous êtes rentrée en Belgique pour étudier les cancers du sein ?

A. V. K. : Oui, je suis rentrée en même temps que Cédric Blanpain et j’ai rejoint l’équipe qu’il était en train de monter. Il est spécialiste du cancer de la peau. Très vite, j’ai décidé de travailler sur le sein, qui n’est pas si différent que ça de la peau, car ces deux organes sont composés de cellules épithéliales. Ils ont des caractéristiques communes et donc on peut utiliser les mêmes souris pour les projets qui ont trait au cancer de la peau ou au cancer du sein.

À ce stade, c’était nouveau pour vous comme organe d’étude ?

A. V. K. : Tout était nouveau ! Travailler sur le sein était nouveau, mais je n’avais jamais travaillé non plus avec des souris.

Et quelles étaient les grandes questions de la recherche sur le cancer du sein à l’époque ? Qu’est-ce que vous cherchiez à savoir, dans ce tout nouveau labo, en 2006 ?

A. V. K. : La grande question, c’était de savoir quelles cellules sont à l’origine des cancers du sein. Il y avait déjà à l’époque deux hypothèses. En vingt ans, on a répondu à certaines choses, mais ces deux hypothèses sont toujours là aujourd’hui. Pourquoi y a-t-il différents types de cancer du sein ? Est-ce parce que les patients ont eu différentes mutations génétiques ou parce que les mutations sont survenues dans différents types de cellules de la glande mammaire ? On pourrait avoir aussi une combinaison de ces deux explications.

En ce qui concerne les mutations, on avait déjà repéré que certaines mutations génétiques sont liées à certains types de cancers du sein chez l’humain : on dit que la mutation a un impact sur l’issue tumorale.

Pour explorer l’autre hypothèse – quelles sont les cellules à l’origine d’un cancer, il a d’abord fallu comprendre comment se renouvellent les cellules dans la glande mammaire. Est-ce que tous les types de cellules de la glande mammaire sont maintenus par un seul type de cellule souche, ou bien est-ce qu’à chaque type de cellule correspond une cellule souche ? On appelle ça la « hiérarchie cellulaire ».

Qu’est-ce qu’une cellule souche ?

  • Une cellule souche adulte est une cellule capable, à la fois, de générer des cellules spécialisées d’un organe et de se régénérer dans l’organe pour une spécialisation ultérieure.

Comment étudiez-vous d’où viennent les cellules de la glande mammaire et comment elles se renouvellent tout au cours de la vie, pendant une grossesse, l’allaitement, etc. ?

A. V. K. : On a fait du « traçage de lignée » (lineage tracing, en anglais), qui est notre grande spécialité au laboratoire. Cette technique consiste à introduire un marqueur fluorescent dans une cellule. Comme ce marqueur fluorescent est dû à une mutation génétique, le marquage est irréversible : une fois que la cellule est fluorescente, elle va le rester toute sa vie. Et surtout, si elle se divise, toute sa progéniture va être fluorescente aussi… ce qui va nous permettre de suivre le devenir d’une cellule ! Si on a ciblé une cellule qui ne se divise plus, elle va être éliminée après quelques semaines et on n’aura plus de fluorescence. Par contre, si on a ciblé une cellule souche, on va voir qu’elle va donner naissance à de nouvelles cellules qui vont également être fluorescentes.

Avec cette technique, on a pu étudier comment les glandes mammaires sont maintenues au cours du temps et démontrer, en 2011, que ce sont différents types de cellules souches qui renouvellent la glande mammaire.

C’était vraiment un changement de paradigme, car on croyait à l’époque qu’en haut de la hiérarchie cellulaire de la glande mammaire, il y avait des cellules souches « multipotentes » (c’est-à-dire, capables de se différencier en plusieurs types de cellules). On sait aujourd’hui qu’il y a trois types de cellules souches dans la glande mammaire, qui se différencient chacune en un seul type de cellule.

Quels sont ces trois types de cellules dans le sein ?

A. V. K. : Les glandes mammaires contiennent un réseau de tuyaux reliés au mamelon, et qui vont produire le lait à l’intérieur du tube pour l’expulser.

Un premier type de cellules est celui des « cellules basales », aussi appelées myoépithéliales, qui ont des propriétés contractiles et vont se contracter au moment de l’allaitement pour expulser le lait.

Puis, à l’intérieur des tubes, se trouve la couche luminale, qui est composée de deux types de cellules : celles qui sont positives aux récepteurs aux œstrogènes et celles qui sont négatives aux récepteurs aux œstrogènes. Les positives vont sentir la présence des hormones et relayer les signaux hormonaux aux autres cellules, pour dire « Maintenant, on se divise tous ensemble ». Les négatives sécrètent du lait pendant l’allaitement.

Donc aux trois types de cellules dans le sein correspondent trois types de cellules souches « unipotentes ». Mais en ce qui concerne la formation de tumeurs cancéreuses : comment étudiez-vous une tumeur avant même qu’elle existe ? Vous avez une machine à remonter le temps ?

A. V. K. : Eh non ! Il faut prédisposer les souris aux tumeurs. Pour cela, on utilise des souris transgéniques, avec une mutation génétique dont on sait qu’elle est favorable à un cancer du sein. On insère la mutation soit dans les cellules luminales, soit dans les cellules basales. Et on a montré que le type de cancer développé n’est pas le même lorsque la mutation est introduite dans les cellules luminales ou basales.

Comment ça se passe en pratique ? Vous induisez une mutation génétique, mais vous ne pouvez pas être sûre que chaque souris va développer un cancer. Est-ce qu’il faut tuer la souris avant qu’elle développe un cancer, ou on peut faire des prélèvements ?

A. V. K. : Effectivement, toutes les souris prédisposées ne développent pas de cancers. Pour savoir comment ça évolue, nous palpons les souris – comme les palpations qui accompagnent les mammographies dans les examens pour les femmes. Il existe aussi des PET-scanners pour souris, mais mon laboratoire n’est pas équipé.

Si on palpe une tumeur, alors on tue la souris afin de prélever la tumeur et d’étudier le type de cancer qui a été provoqué par la mutation que nous avions induite. C’est comme cela que nous avons démontré, en 2015, qu’une même mutation n’a pas le même effet si elle est introduite sur une cellule basale ou sur une cellule luminale.

Ensuite on a développé un outil pour cibler les cellules luminales, qui sont divisées en deux types, comme on l’a vu : celles qui sont positives aux récepteurs aux œstrogènes et celles qui sont négatives aux récepteurs aux œstrogènes. C’est ce que nous avons publié en 2017. On s’est posé la même question que précédemment : est-ce qu’une même mutation génétique provoque des types de cancers différents ?

Ce sont des recherches qui sont encore en cours, mais, à nouveau, nos résultats semblent montrer que l’issue tumorale dépend de la cellule dans laquelle survient la première mutation.

Vous avez étudié plusieurs mutations connues pour favoriser les cancers du sein ?

A. V. K. : On connaît aujourd’hui des dizaines de mutations génétiques responsables de cancers du sein. Les étudier toutes va prendre du temps, d’autant que cette librairie de mutations est peut-être non exhaustive. Pour l’instant, nous avons étudié une seule mutation, qui est l’une des plus courantes dans le cancer du sein chez la femme.




À lire aussi :
Cancer du sein : une nouvelle étude révèle un risque génétique chez les femmes africaines


Est-ce que vous interagissez avec les médecins, avec les patientes ?

A. V. K. : Avec les médecins, oui, bien sûr. On se retrouve aux conférences, et certains de mes collègues sont médecins à l’hôpital universitaire de l’Université libre de Bruxelles, juste à côté de notre laboratoire. Quand j’ai des résultats, je vais en discuter avec un spécialiste du cancer du sein chez l’humain pour essayer de trouver la pertinence pour des cancers chez l’humain.

Je fais aussi partie des experts scientifiques bénévoles pour la Fondation contre le cancer belge – ça fait partie des missions d’un chercheur à l’université que de prendre ce genre de rôle.

Les patientes, je les rencontre plutôt pour de la vulgarisation, avec la Fondation contre le cancer, qui organise tous les ans des visites de laboratoire. Il y a aussi le Télévie, un organisme inspiré du Téléthon, en Belgique francophone et au Luxembourg, où on côtoie des patients et des bénévoles lors d’événements. Ces organismes sont aussi des financeurs de nos recherches.

La prévention est un thème qui me tient à cœur, puisqu’un cancer du sein sur quatre pourrait être évité en éliminant le tabac, l’alcool, le surpoids et en faisant régulièrement de l’activité physique. En particulier, le fait que même une consommation légère d’alcool augmente le risque de cancer du sein est encore très méconnu du grand public, mais démontré scientifiquement.




À lire aussi :
Pourquoi l’alcool augmente le risque de cancer, et ce, dès le premier verre


On entend beaucoup parler de certains cancers du sein qui sont liés à des prédispositions génétiques…

A. V. K. : En fait, il n’y a que 10 % des cancers du sein qui viennent de prédispositions génétiques, c’est-à-dire des mutations présentes depuis la naissance, comme c’est le cas d’Angelina Jolie.

La grande majorité des cancers provient de mutations génétiques qui ont lieu au cours de la vie, par exemple à cause de cassures de l’ADN qui sont liées à la consommation de tabac et d’alcool, et qui ont été mal ou pas réparées par l’organisme.

Or, plus un cancer est pris tôt, plus les chances de guérison sont grandes et plus le traitement sera léger. D’où l’intérêt de notre travail sur les étapes extrêmement précoces dans le développement d’une tumeur… mais aussi l’importance pour le patient de consulter dès l’apparition de symptômes.

Justement, vous disiez tout à l’heure que les grandes questions sur l’origine des cancers du sein, qui prévalaient au début de votre carrière, étaient toujours d’actualité aujourd’hui ?

A. V. K. : Tout à fait. Quand on introduit une mutation dans les souris, on doit attendre plusieurs mois – parfois six mois ou un an – avant d’observer l’apparition d’une tumeur. Mais on ne sait pas encore ce qui se passe dans la glande mammaire pendant ce temps-là.

C’est pour cela que je disais tout à l’heure que la question que nous nous posions il y a vingt ans demeure dans une certaine mesure : on cherche toujours ce qu’il se passe dans les cellules qui sont à l’origine du cancer.

En fait, on observe que la mutation change complètement le comportement de ces cellules. La structure extérieure macroscopique de la glande mammaire reste la même, mais, à l’intérieur, les cellules sont tout à fait reprogrammées. Elles deviennent beaucoup plus plastiques, multipotentes – c’est-à-dire qu’elles peuvent donner lieu aux autres types cellulaires.

L’idée serait d’avoir une « fenêtre de tir » thérapeutique entre la mutation et le développement d’une tumeur ?

A. V. K. : Tout à fait : si on comprend ce qui se passe pendant cette période-là, on pourrait imaginer des outils de diagnostic. Par exemple, pour les femmes qui sont prédisposées génétiquement, comme Angelina Jolie, plutôt que d’enlever les seins et les ovaires, on aimerait pouvoir les surveiller de près et, dès que l’on verrait apparaître certaines de ces étapes précoces, intervenir avec un traitement préventif pour inhiber le développement d’une tumeur cancéreuse.

À l’heure actuelle, ça reste hypothétique : nous sommes un laboratoire de recherche fondamentale. Aujourd’hui, on essaye de comprendre ce qui se passe entre l’introduction de la mutation et le début de la tumeur. Auparavant, on devait se contenter d’étudier les tumeurs elles-mêmes, car nous n’avions pas les outils pour étudier cette fenêtre de six mois – je précise que cette durée est évaluée chez les souris, pas chez les humains.

Pour mener à un cancer, il faut une mutation génétique dans une seule cellule, ou bien la même mutation dans plein de cellules différentes, une accumulation progressive ?

A. V. K. : Il faut plusieurs mutations dans une seule cellule – s’il ne fallait qu’une mutation dans une cellule, tout le monde aurait des cancers partout ! C’est une accumulation de probablement sept ou huit mutations bien spécifiques.

Mais quand une cellule est mutée, souvent ce qu’on observe, c’est que ces mutations donnent un avantage à ces cellules par rapport aux cellules avoisinantes. Des études récentes montrent par exemple des « taches » dans la peau des paupières, invisibles à l’œil nu. Ce sont des zones de la peau où toutes les cellules ont les mêmes mutations. Elles proviennent d’une seule et même cellule, qui s’est divisée, au détriment des cellules avoisinantes : en se divisant, les descendantes de la cellule mutée poussent les autres et propagent les mutations. C’est aussi vrai pour d’autres organes, notamment la glande mammaire.

Aujourd’hui, sur les étapes précoces des cancers du sein, nous cherchons donc à savoir comment les cellules à l’origine du cancer sont reprogrammées génétiquement et comment cela leur confère un avantage par rapport aux cellules saines. On explore ainsi petit à petit les grandes étapes qui mènent à une tumeur.

The Conversation

Alexandra Van Keymeulen est consultant scientifique de Cancer State Therapeutics.
Ses recherches bénéficient du soutien financier du FNRS, Télévie, Fondation contre le Cancer et du Fonds Gaston Ithier.

ref. Comment débutent les cancers du sein ? Conversation avec Alexandra Van Keymeulen – https://theconversation.com/comment-debutent-les-cancers-du-sein-conversation-avec-alexandra-van-keymeulen-265813

Fusion nucléaire : les systèmes d’IA changent déjà la donne

Source: The Conversation – in French – By Waleed Mouhali, Enseignant-chercheur en Physique, ECE Paris

On peut déclencher des réactions de fusion nucléaire en focalisant des lasers ultrapuissants sur une toute petite fraction de cette chambre sphérique. National Ignition Facility, Lawrence Livermore National Laboratory, Lawrence Livermore National Security, LLC, and the Department of Energy, CC BY

La fusion nucléaire, qui alimente notre Soleil, est l’un des plus grands espoirs pour produire une énergie propre, abondante et sûre. Elle consiste à fusionner des noyaux légers, par exemple de l’hydrogène, pour former des noyaux plus lourds, en libérant une énorme quantité d’énergie. Contrairement à la fission, elle ne génère pas de déchets radioactifs de longue durée ni de gaz à effet de serre.

Mais recréer cette réaction sur Terre est un défi technologique et scientifique colossal. Les prototypes sont gigantesques et très coûteux, et le numérique prend une place importante pour faciliter les essais. Depuis le milieu des années 2010, et de manière accélérée depuis 2020, des systèmes d’intelligence artificielle sont utilisés pour contrôler le plasma et améliorer la conception de futurs réacteurs.


Pour atteindre la fusion, il faut chauffer les atomes à des températures de plus de 100 millions de degrés. Les atomes forment alors un plasma, un gaz ionisé ultra-chaud impossible à contenir par des matériaux solides.

Les physiciens doivent donc faire preuve d’imagination et deux grandes approches expérimentales sont poursuivies depuis des décennies : l’une avec des champs magnétiques, l’autre avec des lasers.

La fusion par confinement magnétique confine le plasma par de puissants champs magnétiques dans un réacteur en forme de tore, appelé « tokamak ». Le projet international ITER, un consortium international impliquant l’Union européenne, le Japon, les États-Unis, la Chine, la Russie, l’Inde et la Corée du Sud et installé en Provence, est l’exemple le plus ambitieux, mais il existe de nombreux tokamaks expérimentaux à travers le monde.

schéma 3D d’ITER
Le tokamak ITER, avec le tore au centre et les différents étages de service autour.
Oak Ridge National Laboratory, CC BY
carte du monde
Les installations de fusion nucléaire dans le monde (incluant tokamaks et autres technologies).
Rémi Delaporte Mathurin, MIT, CC BY

La fusion par confinement inertiel utilise des lasers, incarnée par le laboratoire National Ignition Facility aux États-Unis. Au NIF, les scientifiques utilisent 192 lasers géants pour comprimer et chauffer une capsule de combustible en une fraction de seconde, et pendant une minuscule fraction de seconde.

Les deux approches font face à d’énormes défis : maintenir la stabilité du plasma, éviter les instabilités destructrices, prédire les disruptions (par exemple, dans un tokamak, une « disruption thermique » peut brutalement refroidir le plasma et libérer son énergie sur les parois, risquant de les endommager), optimiser les tirs laser ou la forme du plasma.

Et c’est ici que l’intelligence artificielle entre en scène. L’outil numérique a toujours été vital pour saisir les phénomènes complexes, grâce notamment à l’analyse de données massives. Aujourd’hui, l’IA pousse cette capacité encore plus loin.

Fusion magnétique : une IA aux commandes du plasma

Dans les tokamaks, des milliards de données sont générées à chaque tir : images, champs magnétiques, températures, densités. En 2022, une avancée spectaculaire a été réalisée dans le tokamak TCV (Tokamak à Configuration Variable) de l’EPFL à Lausanne, qui est un dispositif expérimental de taille moyenne, dédié aux recherches fondamentales. Une intelligence artificielle développée par DeepMind et le Swiss Plasma Center a été utilisée pour contrôler en temps réel la forme et la position du plasma en utilisant l’apprentissage par renforcement profond. Les ajustements de l’IA se font en temps réel, à l’échelle de la milliseconde, ce qui correspond aux temps caractéristiques de l’évolution des instabilités dans un plasma de tokamak. Ainsi, l’algorithme peut ajuster les champs magnétiques de manière dynamique pour maintenir le plasma stable, une première mondiale publiée dans la revue Nature.

Autre prouesse : la prédiction des disruptions, ces instabilités soudaines qui peuvent endommager les réacteurs. Des modèles d’apprentissage automatique, comme les réseaux de neurones, sont capables d’identifier les signaux précoces de telles instabilités.

Ainsi, sur le tokamak DIII-D aux États-Unis, une IA entraînée uniquement sur des données expérimentales de ce tokamak a pu anticiper une disruption, 300 millisecondes à l’avance, donnant au système le temps de réagir. Cette approche sans modèle physique — c’est-à-dire basée uniquement sur une IA analysant en temps réel les données du réacteur (data-driven) —, a permis d’activer des systèmes d’atténuation (par exemple injection d’impuretés ou modulation des champs) à temps, ce qui a stabilisé le plasma. On conclut qu’une disruption a été évitée non pas parce qu’on l’a « vue » se produire, mais parce que les conditions observées correspondaient à celles qui, dans toutes les campagnes précédentes sans intervention, menaient invariablement à une interruption brutale. Publiés dans Nature en 2024, ces résultats ouvrent la voie à un contrôle plus dynamique des réactions de fusion.

L’IA est aussi utilisée pour améliorer les diagnostics, repérer les anomalies dans les capteurs, analyser les vidéos de turbulence plasma ou encore accélérer les simulations grâce aux jumeaux numériques.

Un jumeau numérique est une réplique informatique d’un système réel, alimentée en continu par des données expérimentales. Dans le cas de la fusion, il s’agit de modèles capables de reproduire l’évolution d’un plasma. L’IA intervient ici pour accélérer ces modèles (par exemple en remplaçant des calculs très lourds de mécanique des fluides par des approximations apprises) et pour combler les manques des équations physiques là où les théories actuelles sont incomplètes.

Alors que, dans le cas précédent, l’IA prédisait un événement critique (une disruption) à partir de données, les jumeaux numériques assistés par IA permettent d’accélérer des simulations complètes de plasma pour des usages plus prospectifs — l’optimisation de l’architecture d’un réacteur par exemple.

Fusion inertielle : concevoir les meilleurs tirs laser avec l’IA

La fusion inertielle, elle, repose sur la compression ultrarapide de capsules de combustible par des lasers. Les tirs sont rares et coûteux, principalement à cause de l’énergie colossale nécessaire pour alimenter les lasers (et leur préparation), mais aussi du coût des capsules de combustible et du temps de recalibrage entre deux tirs. Dans ces conditions, chaque milliseconde compte.

Ici encore, l’IA change la donne. À l’Université de Rochester, aux États-Unis, une IA a été entraînée à optimiser la forme des impulsions laser sur le système OMEGA (le plus puissant laser académique au monde, dédié à la recherche sur la fusion par confinement inertiel). OMEGA génère ces tirs avec précision, et des diagnostics mesurent les résultats à des échelles de millionièmes de mètre et de trillionièmes de seconde.

L’IA est utilisée pour corriger les écarts entre simulations et réalité, optimiser les impulsions laser, et proposer les meilleures configurations expérimentales. Résultat : une augmentation spectaculaire du rendement de fusion, multiplié par trois dans certains cas. Ce type de modèle, publié dans Nature, permet d’explorer rapidement un vaste espace de configurations sans tout tester expérimentalement.

L’IA est aussi utilisée pour corriger les simulations, combler les écarts entre théorie et réalité, et proposer des conceptions inverses : on fixe un objectif (par exemple, atteindre l’ignition) et l’IA propose le meilleur design pour y arriver. C’est ce qui a permis, fin 2022, à NIF d’atteindre pour la première fois un rendement de fusion supérieur à l’énergie injectée par les lasers, un jalon historique.

Enfin, plusieurs types de systèmes d’intelligence artificielle sont utilisés : certains sont spécialisés dans l’analyse d’images pour exploiter les diagnostics, d’autres aident les robots à bien viser et aligner les cibles, et d’autres encore reconnaissent automatiquement quand un tir a échoué. L’objectif à terme est d’automatiser totalement ces expériences, en les rendant adaptatives et intelligentes.

Défis et avenir de l’IA dans la fusion

Alors que d’ici 2035, ITER générera environ 2 pétaoctets de données par jour, on comprend que la science des données se révèlera vitale pour traiter et appréhender toutes les informations.

Intégrer des systèmes d’IA à la fusion n’est pas sans obstacle. Les modèles doivent être rapides (c’est-à-dire capables de donner des résultats quasi en temps réel pour accompagner le pilotage du plasma), robustes (résistants aux erreurs de mesure et aux variations des données), interprétables (leurs décisions doivent pouvoir être comprises par les physiciens et justifiées, et non pas rester une « boîte noire ») et transférables d’une machine à l’autre (un modèle entraîné sur un tokamak donné doit pouvoir être adapté sans repartir de zéro sur un autre dispositif).

Les chercheurs travaillent donc sur des systèmes d’IA informés par la physique, capables d’expliquer leurs décisions et respectueux des lois fondamentales. Les données sont aussi limitées pour certains dispositifs comme NIF, ce qui pousse à combiner expériences et simulations pour enrichir les jeux de données. En effet, plus le volume de données est grand, plus l’IA peut apprendre des régularités complexes du plasma ; tandis qu’un jeu de données limité risque de conduire à des modèles biaisés ou peu généralisables.

Au-delà des limitations techniques actuelles, par exemple la puissance de calcul nécessaire pour traiter en temps réel les données issues de milliers de capteurs, la difficulté à garantir la fiabilité des prédictions face à un plasma chaotique ou encore la rareté de bases de données suffisamment riches pour entraîner correctement les modèles, l’intégration de systèmes d’IA dans des réacteurs de fusion pose aussi des questions de responsabilité. En cas de défaillance d’un algorithme entraînant une perte de confinement ou un dommage matériel, qui serait responsable : les concepteurs du réacteur, les développeurs du logiciel, ou les opérateurs ? Ces enjeux juridiques et éthiques restent encore largement ouverts, mais sont cruciaux au regard des énergies et températures en jeu.

Dans les années à venir, l’intégration de l’IA pourrait accélérer les progrès vers une fusion maîtrisée et commercialement viable. Si la fusion est le rêve énergétique ultime, alors l’intelligence artificielle pourrait bien en être la clé.

The Conversation

Sadruddin Benkadda reçoit des financements de Aix Marseille Université, CNRS et de EUROFUSION.

Collaboration avec ITER Organisation et l’IRFM (CEA)

Thierry Lehner et Waleed Mouhali ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. Fusion nucléaire : les systèmes d’IA changent déjà la donne – https://theconversation.com/fusion-nucleaire-les-systemes-dia-changent-deja-la-donne-265006

Les chats peuvent aussi souffrir de démence : les huit signes à surveiller

Source: The Conversation – in French – By Emily Blackwell, Senior Lecturer in Animal Behaviour and Welfare, University of Bristol

Les changements de comportement peuvent être un signe de démence chez les chats. larisa Stefanjuk/ Shutterstock

Tous comme les humains, les chats subissent un déclin cognitif en vieillissant pouvant aller jusqu’à de la démence : quels en sont les signes et comment accompagner, au mieux, votre chat vieillissant ?


De nombreux propriétaires de chats ne réalisent pas que, tout comme les humains, les chats peuvent souffrir de démence. Un article scientifique récent a même mis en évidence de nombreuses similitudes entre la démence féline et la démence humaine, concluant que les troubles cognitifs peuvent se développer de manière similaire.

Certains symptômes de la démence chez les chats sont même similaires à ceux que l’on observe chez les humains, mais pas tous, bien sûr. Il est important de connaître les signes à surveiller afin de pouvoir prodiguer les meilleurs soins à votre animal pendant cette phase de sa vie.

Le syndrome de dysfonctionnement cognitif félin (également appelé démence féline) est un déclin des capacités cognitives d’un chat lié à l’âge. Il se caractérise généralement par des changements de comportement qui ne peuvent être attribués à d’autres troubles médicaux.

La démence féline serait très fréquente chez les chats âgés. Une étude a révélé qu’à l’âge de 15 ans, plus de la moitié des chats présentaient des signes de démence. Cependant, certains comportements associés à cette maladie ont également été observés chez des chats âgés de seulement 7 ans. Une autre enquête menée auprès de propriétaires de chats a également révélé qu’environ 28 % des chats âgés de 11 à 14 ans présentaient au moins un changement de comportement associé à la démence. (NDLT : l’espérance de vie d’un chat domestique varie entre 13 et 20 ans)

Les changements de comportement sont souvent les premiers signes indiquant qu’il pourrait y avoir un problème. Il existe huit signes à surveiller qui peuvent indiquer que votre chat souffre de démence.

1. Vocalisations inhabituelles : votre chat peut commencer à vocaliser de manière excessive ou dans des situations nouvelles. Un exemple courant est celui des miaulements bruyants pendant la nuit.

2. Modifications de leurs interactions avec les humains : les chats atteints de démence peuvent parfois rechercher davantage d’attention ou devenir « collants ». À l’inverse, ils peuvent également interagir moins qu’auparavant, sembler irritables ou ne pas reconnaître les personnes familières.

3. Changements dans leur sommeil : vous remarquerez peut-être des changements dans les habitudes de sommeil de votre chat, qui deviendra souvent agité la nuit et dormira davantage pendant la journée.

4. Souillures dans la maison : les changements dans les habitudes d’élimination peuvent être le signe de plusieurs troubles différents, mais faire ses besoins en dehors du bac à litière peut être un signe courant de démence chez les chats.

5. Désorientation : tout comme les personnes atteintes de démence, les chats peuvent montrer des signes de confusion ou sembler se perdre. Cela peut se traduire par une perte de repères, un regard fixe sur les murs, le fait de rester coincé derrière des objets ou de se diriger du mauvais côté de la porte.

Un chat tuxedo noir et blanc est couché sur le ventre de son propriétaire pendant que celui-ci le caresse
Les chats atteints de démence peuvent devenir plus collants qu’auparavant.
Creative Family/Shutterstock

6. Changements de niveau d’activité : Un chat atteint de démence peut être plus ou moins actif que d’habitude. Il peut jouer moins souvent ou être moins enclin à explorer. Vous remarquerez peut-être également qu’il passe moins de temps à prendre soin de lui, par exemple en se toilettant ou en se lavant moins souvent.

7. Anxiété apparente : un chat atteint de démence peut montrer des signes d’anxiété dans des situations où il se sentait auparavant en confiance, par exemple en présence de personnes, dans des lieux ou face à des sons familiers. Un chat anxieux peut se cacher plus souvent, se réfugier sous le lit ou sur les placards pour s’échapper.

8. Problèmes d’apprentissage : Les chats atteints de démence peuvent avoir plus de difficultés à accomplir des tâches qu’ils avaient apprises auparavant, comme trouver leur gamelle, et peuvent avoir du mal à en apprendre de nouvelles.

Bien s’occuper de son chat

Il existe un chevauchement important entre les symptômes de la démence féline et d’autres pathologies courantes, telles que l’arthrite et les maladies rénales. Si vous constatez l’un de ces changements de comportement chez votre chat, consultez votre vétérinaire afin d’écarter ces autres problèmes.

Les recherches sur la démence féline sont limitées. La plupart de nos connaissances en matière de prévention et de traitement sont extrapolées à partir de recherches menées sur les humains et les chiens. Et, comme pour ces autres espèces, il n’existe aucun remède contre la démence chez les chats. Il existe toutefois des moyens de limiter l’impact de la maladie.

Certaines modifications de leur environnement peuvent aider à stimuler les chats, en activant leur cerveau et en favorisant la croissance des nerfs. Mais il faut tenir compte de la gravité de la démence de votre chat avant d’apporter ces changements.

Chez les chats en bonne santé ou légèrement atteints, on pense que le fait de les inciter à jouer ou de simuler la chasse à l’aide de jouets interactifs et de les encourager à explorer leur environnement à travers des jeux de cache-cache permet de retarder la progression des troubles cognitifs.

Mais chez les chats souffrant de troubles cognitifs sévères, changer leur environnement pourrait entraîner de la confusion et de l’anxiété, ce qui aggraverait les symptômes comportementaux.

Des changements alimentaires, notamment l’ajout de compléments alimentaires contenant des antioxydants (vitamines E et C) et des acides gras essentiels, peuvent également contribuer à réduire l’inflammation cérébrale et à ralentir la progression de la maladie.

Cependant, seuls les compléments alimentaires spécifiques aux chiens ont été testés dans le cadre de recherches scientifiques et ont prouvé leur efficacité pour améliorer les capacités cognitives des chiens. Mais si vous souhaitez tout de même donner ces compléments à votre chat, veillez à ne lui donner que des compléments approuvés pour les félins. Les compléments alimentaires pour chiens ne doivent pas être donnés aux chats, car ils peuvent contenir des substances toxiques pour eux, telles que l’acide alpha-lipoïque.

La démence féline est une maladie très répandue et difficile à traiter. Connaître les symptômes à surveiller peut permettre à votre chat d’être diagnostiqué plus tôt. Cela vous permettra également d’apporter les changements nécessaires à son environnement ou à son alimentation, ce qui améliorera sa qualité de vie.

The Conversation

Emily Blackwell reçoit des financements de Cats Protection, Zoetis, Defra et Waltham Petcare Science Institute.

Sara Lawrence-Mills reçoit un financement de Zoetis.

ref. Les chats peuvent aussi souffrir de démence : les huit signes à surveiller – https://theconversation.com/les-chats-peuvent-aussi-souffrir-de-demence-les-huit-signes-a-surveiller-264544

Titanic : le navire qui cache la flotte d’épaves en danger

Source: The Conversation – in French – By Laurent Urios, Ingénieur de Recherche en microbiologie de l’environnement, Université de Pau et des pays de l’Adour (UPPA)

L’épave du « Titanic » est en danger et pourrait se briser d’ici 2030. Ce n’est pourtant qu’un cas parmi des millions d’autres. Saviez-vous que les bactéries sont impliquées dans la dégradation des épaves, mais aussi dans leur transformation en oasis de vie ? Mieux connaître ces microorganismes et leurs interactions avec les navires est urgent pour protéger notre patrimoine historique.


La découverte de l’épave du RMS Titanic en 1985 a provoqué un engouement extraordinaire autour de ce navire, son histoire, sa fin tragique et le repos de cette épave dans l’obscurité des profondeurs glacées de l’Atlantique. Les images ont révélé un navire brisé recouvert d’étranges concrétions ressemblant à des stalactites de rouille appelées rusticles.

Elles sont faites notamment à partir du métal de l’épave et leur origine est liée aux microorganismes qui utilisent le fer de l’épave pour leur développement, participant ainsi à la corrosion.

Les interactions entre les bactéries et les matériaux sont au cœur de mes recherches. Les bactéries qui se multiplient à la surface des matériaux peuvent participer à leur protection ou à leur dégradation. Le cas du fer est particulier, car c’est un élément indispensable aux êtres vivants. Mais la biocorrosion, conséquence de son utilisation par les microorganismes, est un phénomène qui touche de nombreux secteurs : industries, installations en mer, sur terre ou souterraines… et bien sûr les épaves métalliques.

Les plongées successives sur le Titanic ont montré un affaiblissement des structures de l’épave rongées par la corrosion et s on effondrement a été évoqué pour 2050, voire 2030. Ceux qui se passionnent pour le Titanic s’alarment : comment sauver cette épave ? Et d’ailleurs, pourquoi faudrait-il sauver le Titanic ?

Qu’est-ce qu’une épave ?

Pourquoi sauver une épave ? Parce qu’elle nous touche, parce qu’elle provoque en nous des sensations, de l’émerveillement. Une épave, c’est un souvenir, un témoin d’une histoire, d’un événement, un vestige d’une création humaine qui a eu une fin le plus souvent tragique. Tout comme un monument historique à terre, une épave gisant sous les eaux témoigne de notre histoire.

La différence, c’est que si tout le monde peut voir le monument, très rares sont ceux qui peuvent voir l’épave. Et pourtant, elle est là, artéfact de notre patrimoine historique. Aux termes de notre législation, c’est un bien culturel maritime. Selon la charte de l’Unesco de 2001, ratifiée par la France en 2013, elle peut faire partie du patrimoine culturel immergé. À ces titres, elle doit être protégée. Est-ce tout ? Non, loin de là. Une épave peut aussi être porteuse d’économie, par les activités de loisirs qui sont menées autour d’elle, comme la plongée sous-marine, ou comme site de ressources halieutiques.

Épave du SG11 ex-Alice Robert torpillé au large de Port-Vendres le 2 juin 1944.
Laurent Urios, Fourni par l’auteur

Une oasis de vie

Dès le moment où l’épave se pose sur le fond, sa colonisation commence. Ce sont d’abord des microorganismes planctoniques qui se fixent sur les surfaces. Cette première étape favorise l’arrivée d’autres organismes, notamment des larves d’animaux vivant fixés sur des substrats durs, comme les gorgones ou les coraux, ainsi que des algues. Tout ce petit monde va attirer ceux qui s’en nourrissent, puis les prédateurs de ces derniers et ainsi de suite… pour aboutir à la formation d’un véritable écosystème récifal, dont les limites sont approximativement celles du site de l’épave, même si la zone d’influence de cet écosystème peut aller bien au-delà.

L’épave se transforme en un récif animé, une oasis de vie gisant sur un morne fond de sable à l’apparence d’un désert sous-marin. Ainsi vont les choses, tant que l’épave tient bon. Tempêtes, filets de pêche, corrosion, avec le temps l’épave s’affaiblit et commence à craquer, d’abord dans ses parties les moins solides, puis dans son ossature. C’est la vie ! Ou justement, c’est la fin de la vie… En perdant ses volumes, l’épave offre de moins en moins de surfaces dures à la colonisation. Les populations d’organismes fixés décroissent, ce qui rend le récif moins attirant pour leurs prédateurs. Plus l’épave se désagrège, plus l’oasis de vie se réduit, jusqu’à disparaître avec le vestige. Plus de vestige, plus d’écosystème récifal, donc, mais encore ? Moins d’attrait pour les plongeurs et pour les pêcheurs, donc moins d’intérêt économique. En enfin, c’est la disparition d’un témoignage de notre histoire, d’une partie de notre patrimoine. Lorsqu’un monument historique tombe en ruine, il se trouve souvent quelqu’un pour tenter de le sauver de l’oubli. Pourquoi en serait-il autrement pour une épave ?

Épave du Prosper Schiaffino dit le Donator qui a sauté sur une mine en 1945 entre Porquerolles et Port Cros.
Laurent Urios, Fourni par l’auteur

Les racines du mal

Quel est le point commun entre le Titanic et nombre d’épaves des deux derniers siècles, dont celles des deux guerres mondiales ? Elles sont en alliages ferreux. Et le fer dans l’eau, ça rouille, surtout en eau salée. En réalité, c’est beaucoup plus compliqué que cela et c’est justement cette complexité qui est au cœur du problème : comment lutter contre un phénomène mal compris ? Pour espérer sauver une épave, il faut d’abord comprendre les mécanismes qui causent sa perte. La corrosion d’une épave métallique n’est pas qu’une affaire de physico-chimie entre l’épave et l’eau dans laquelle elle baigne.

Les microorganismes colonisateurs jouent plusieurs rôles, à la fois dans l’accentuation et dans la protection contre la corrosion. Leur développement a comme effet à court terme l’initiation de l’écosystème récifal. À moyen et long terme, ces bactéries peuvent protéger ou accentuer la corrosion. La prolifération bactérienne s’accompagne de la production de substances organiques qui les enveloppent, formant ainsi ce que l’on appelle un biofilm sur la surface colonisée. D’autres composés peuvent être produits et s’accumuler, par exemple du calcaire. L’ensemble peut agir comme une barrière à l’interface entre le métal et l’eau, avec un effet protecteur. Certains groupes bactériens sont particulièrement attirés par ces épaves, par exemple les zétaprotéobactéries. Elles sont capables d’oxyder le fer. Elles trouvent donc sur ces épaves des conditions favorables à leur développement, avec pour conséquence un rôle dans les mécanismes de la corrosion au cours du temps. Les zétaproteobactéries ne sont pas les seules. La diversité bactérienne colonisant les épaves métalliques est importante. Tout ce petit monde forme des communautés qui varient selon les épaves et les conditions environnementales où elles gisent.

Comprendre la composition et la dynamique des communautés au sein de ces biofilms est nécessaire pour savoir de quelles manières elles participent au devenir de l’épave et pour imaginer des solutions de préservation aussi bien pour les épaves métalliques que pour d’autres structures immergées. En effet, les épaves métalliques ne sont qu’une catégorie de structures immergées. Pour les autres types de structures, les problèmes de conservation, de durabilité de leurs matériaux se posent de la même façon, avec le risque de coûts non négligeables engendrés pour leur entretien. Être en mesure de protéger notre patrimoine historique et culturel immergé va donc bien au-delà. Mais le temps s’écoule et à chaque instant la corrosion poursuit son œuvre, grignotant sans relâche. Les recherches ont besoin de temps et surtout de moyens. Il est difficile de financer des projets regroupant des microbiologistes, des archéologues, des chimistes, des océanographes pour travailler de façon globale sur cette problématique. La rareté des publications scientifiques sur le sujet en atteste et les connaissances sont balbutiantes. Or, dans cette course, il n’y a pas de seconde place : une fois détruite, l’épave est perdue. 2030 pour le Titanic ? Quelle échéance pour les épaves des deux guerres mondiales ? Il y a urgence.

The Conversation

Laurent Urios ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Titanic : le navire qui cache la flotte d’épaves en danger – https://theconversation.com/titanic-le-navire-qui-cache-la-flotte-depaves-en-danger-265033

Nouvelle paralysie des administrations fédérales aux États-Unis : ce que nous enseigne le « shutdown » de 2013

Source: The Conversation – France in French (3) – By Gonzalo Maturana, Associate Professor of Finance, Emory University

Un panneau indique la fermeture des services fédéraux lors du « shutdown » gouvernemental de 2013. AP Photo/Susan Walsh

Ce 1er octobre 2025, l’échec des négociations budgétaires au Congrès a mené à un shutdown. Concrètement, l’administration fédérale pourrait cesser de fonctionner. Une étude sur celui de 2013 – 16 jours durant – révèle des effets négatifs à long terme : un turnover plus élevé, des pertes de productivité mesurables et des coûts de recrutement exorbitants.


Alors que l’année fiscale fédérale touche à sa fin, une perspective malheureusement familière est discutée à Washington : une possible paralysie de l’administration fédérale. Pour les fonctionnaires fédéraux, cela ne pouvait arriver à un pire moment.

Dans le paysage politique divisé et polarisé des États-Unis, les démocrates et les républicains comptent sur des projets de loi de financement provisoires à court terme pour maintenir le gouvernement en activité, en l’absence d’accords budgétaires à plus long terme.

Alors que les partis sont éloignés d’un accord sur les termes d’une résolution budgétaire, même à court terme, le gouvernement doit cesser de fonctionner le 1er octobre 2025, à moins d’un accord de la dernière chance. Si ce shutdown se produit, cela marquerait un autre moment difficile cette année pour des fonctionnaires qui ont fait face à la suppression de plus de 300 000 emplois. Cette procédure de licenciement massif tient aux efforts de l’administration Trump pour restructurer ou supprimer en grande partie certaines agences gouvernementales. L’objectif : accroître leur efficacité.

Avec un potentiel shutdown, des centaines de milliers d’employés fédéraux seraient mis à pied – renvoyés chez eux sans salaire jusqu’à ce que le financement du gouvernement fédéral reprenne.

En tant qu’économistes spécialisés dans les marchés du travail et de l’emploi du secteur public, et ayant examiné des millions de dossiers du personnel fédéral liés à de telles fermetures gouvernementales dans le passé, nous avons constaté que les conséquences vont bien au-delà des images désormais familières de parcs nationaux fermés et de services fédéraux bloqués. Sur la base de notre étude du shutdown d’octobre 2013 au cours de laquelle environ 800 000 employés fédéraux ont été mis à pied pendant 16 jours, la fermeture des agences fédérales laisse un effet négatif durable sur ces fonctionnaires, remodelant leur composition et affaiblissant leur performance pour les années à venir.

Congé forcé pour les fonctionnaires fédéraux

Des millions d’États-Uniens interagissent chaque jour avec le gouvernement fédéral. Plus d’un tiers des dépenses nationales états-uniennes sont acheminées par le biais de programmes fédéraux, notamment Medicare. Les fonctionnaires fédéraux gèrent par exemple les parcs nationaux, rédigent des règlements environnementaux et aident à assurer la sécurité du transport aérien.

Quelles que soient les tendances politiques de chacun, si l’objectif est d’avoir un gouvernement qui s’acquitte efficacement de ces responsabilités, il est essentiel d’attirer et de retenir une main-d’œuvre compétente.

La capacité du gouvernement fédéral à le faire peut être de plus en plus difficile, en partie parce que les shutdown prolongées peuvent avoir des effets secondaires.

Lorsque le Congrès ne parvient pas à approuver des crédits, les agences fédérales doivent licencier des fonctionnaires dont les emplois ne sont pas considérés comme « exemptés » – parfois communément qualifiés d’essentiels. Ces fonctionnaires exclus continuent de travailler, tandis que d’autres n’ont pas le droit de travailler ou même de faire du bénévolat jusqu’à ce que le financement du gouvernement fédéral reprenne.

Le statut spécifique de ces « congés » imposés aux fonctionnaires pendant ce shutdown reflète les sources de financement de ces postes et les catégories de mission données, et non les performances d’un individu. Par conséquent, il ne donne aucun signal sur les perspectives d’avenir pour un fonctionnaire et agit principalement comme un choc pour le moral. Il est important de noter que les congés ne créent pas de pertes de richesse à long terme ; les arriérés de salaire ont toujours été accordés et, depuis 2019, sont légalement garantis. Les fonctionnaires touchent leur salaire, même s’ils peuvent faire face à de réelles contraintes financières à court terme.

Un observateur cynique pourrait qualifier les congés de congés payés, mais les données racontent une autre histoire.

Moral en berne des fonctionnaires

À l’aide de nombreux dossiers administratifs sur les fonctionnaires civils fédéraux du shutdown d’octobre 2013, nous avons étudié la façon dont ce choc moral s’est répercuté sur le fonctionnement des agences gouvernementales. Les fonctionnaires exposés à des congés lors du shutdown étaient 31 % plus susceptibles de quitter leur emploi dans l’année.

Ces départs n’ont pas été rapidement remplacés, ce qui a forcé les agences à compter sur des travailleurs temporaires coûteux et a entraîné des déclins mesurables dans les fonctions essentielles telles que les paiements, l’application des lois et les processus pour délivrer des brevets.

En outre, nous avons constaté que cet exode s’est renforcé au cours des deux premières années suivant un shutdown. Elle se stabilise ensuite par une baisse permanente des effectifs, ce qui implique une perte durable de capital humain. Le choc moral est plus prononcé chez les jeunes femmes et les professionnels très instruits qui ont beaucoup d’opportunités extérieures. En effet, notre analyse des données d’enquête d’un shutdown ultérieur en 2018-2019 confirme que c’est le moral, et non la perte de revenus, qui est à l’origine de ces départs massifs.

Les fonctionnaires qui se sont sentis les plus touchés ont signalé une forte baisse de leur capacité d’action, d’initiatives et de reconnaissance. De facto, ils étaient beaucoup plus susceptibles de planifier un départ.

L’effet de la perte de motivation est frappant. À l’aide d’un modèle économique simple où l’on peut s’attendre à ce que les travailleurs accordent de la valeur à la fois à l’argent et à leur objectif, nous estimons que la baisse de la motivation intrinsèque après un shutdown nécessiterait une augmentation de salaire d’environ 10 % pour compenser.

1 milliard de dollars pour des recrutements temporaires

Certaines personnes ont soutenu que ce départ de fonctionnaires est nécessaire, une façon de réduire le gouvernement fédéral pour « affamer la bête ».

Les preuves brossent un tableau différent. Les agences les plus durement touchées par les licenciements se sont tournées vers des entreprises de recrutement temporaire pour combler les emplois non pourvus. Au cours des deux années qui ont suivi le shutdown de 2016, ces organismes ont dépensé environ 1 milliard de dollars de plus en sous-traitants qu’ils n’ont économisé en salaires.

Les coûts vont au-delà des dépenses de remplacement, car la performance du gouvernement en souffre également. Les organismes qui ont été les plus touchés par le shutdown ont enregistré des taux plus élevés de paiements fédéraux inexacts pendant plusieurs années. Même après une récupération partielle de la main-d’œuvre fédérale, les pertes se sont élevées à des centaines de millions de dollars que les contribuables n’ont jamais récupérés.

Agences scientifiques sans scientifiques

D’autres postes nécessitant des compétences spécialisées ont également connu un déclin. Les poursuites judiciaires ont diminué dans les agences qui ont manqué d’avocats expérimentés, et les activités de brevetage ont chuté dans les agences scientifiques et d’ingénierie après le départ d’inventeurs clés.

Les estimations officielles des coûts du shutdown se concentrent généralement sur les effets à court terme sur le PIB et des arriérés de salaire. Nos résultats montrent qu’une facture encore plus importante se présente plus tard sous la forme d’un turnover plus élevé du personnel, de coûts de main-d’œuvre plus élevés pour combler les postes non pourvus et des pertes de productivité mesurables.

Chocs brutaux

Les shutdown sont des chocs brutaux et récurrents qui démoralisent les fonctionnaires et érodent leurs performances. Ces coûts se répercutent sur tous ceux qui dépendent des services gouvernementaux. Si le public veut des institutions publiques efficaces et responsables, alors nous devrions tous nous soucier d’éviter ces blocages gouvernementaux.

Après une année déjà mouvementée, il n’est pas clair si un shutdown à venir ajouterait considérablement la pression sur les fonctionnaires fédéraux ou aurait un effet plus limité. Beaucoup de ceux qui envisageaient de partir sont déjà partis par le biais de rachats de leurs congés ou de licenciements forcés cette année. Ce qui est clair, c’est que des centaines de milliers d’employés fédéraux sont susceptibles de connaître une autre période d’incertitude.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Nouvelle paralysie des administrations fédérales aux États-Unis : ce que nous enseigne le « shutdown » de 2013 – https://theconversation.com/nouvelle-paralysie-des-administrations-federales-aux-etats-unis-ce-que-nous-enseigne-le-shutdown-de-2013-266384

Even a government shutdown that ends quickly would hamper morale, raise costs and reduce long-term efficiency in the federal workforce

Source: The Conversation – USA (2) – By Gonzalo Maturana, Associate Professor of Finance, Emory University

Congress failed to reach a deal in time, leaving the federal government shut down. AP Photo/Mariam Zuhaib

The U.S. government shutdown couldn’t come at a worse time for federal workers.

With a government shutdown, hundreds of thousands of federal employees would be furloughed – sent home without pay until funding resumes. And ahead of the shutdown, President Donald Trump suggested that a prolonged lapse in funding could open the door to “irreversible” changes, such as reducing parts of the federal workforce.

The shutdown marks another difficult moment this year for a federal workforce that has so far shed more than 300,000 jobs. This is largely due to ongoing Trump administration efforts to downsize parts of the federal government and restructure or largely eliminate certain government agencies with the stated aim of increasing efficiency.

As a team of financial economists who study labor markets and public sector employment and have examined millions of federal personnel records spanning such government shutdowns in the past, we have found that the consequences reach far beyond the now-familiar images of closed national parks and stalled federal services. Indeed, based on our study of an October 2013 shutdown during which about 800,000 federal employees were furloughed for 16 days, shutdowns leave an enduring negative effect on the federal workforce, reshaping its composition and weakening its performance for years to come.

What happens to workers

Millions of Americans interact with the federal government every day in ways both big and small. More than one-third of U.S. national spending is routed through government programs, including Medicare and Social Security. Federal workers manage national parks, draft environmental regulations and help keep air travel safe.

Whatever one’s political leanings, if the goal is a government that handles these responsibilities effectively, then attracting and retaining a talented workforce is essential.

Yet the ability of the federal government to do so may be increasingly difficult, in part because prolonged shutdowns can have hidden effects.

When Congress fails to pass appropriations, federal agencies must furlough employees whose jobs are not deemed “excepted” – sometimes commonly referred to as essential. Those excepted employees keep working, while others are barred from working or even volunteering until funding resumes. Furlough status reflects funding sources and mission categories, not an individual’s performance, so it confers no signal about an employee’s future prospects and primarily acts as a shock to morale.

Importantly, furloughs do not create long-term wealth losses; back pay has always been granted and, since 2019, is legally guaranteed. Employees therefore recover their pay even though they may face real financial strain in the short run.

A cynical observer might call furloughs a paid vacation, yet the data tells a different story.

A sign in front of a national memorial.
National Parks are among the federal services that typically close during a shutdown, as happened in 2013.
AP Photo/Susan Walsh

Immediate consequences, longer-term effects

Using extensive administrative records on federal civilian workers from the October 2013 shutdown, we tracked how this shock to morale rippled through government operations. Employees exposed to furloughs were 31% more likely to leave their jobs within one year.

These departures were not quickly replaced, forcing agencies to rely on costly temporary workers and leading to measurable declines in core functions such as payment accuracy, legal enforcement and patenting activity.

Further, we found that this exodus builds over the first two years after the shutdown and then settles into a permanently lower headcount, implying a durable loss of human capital. The shock to morale is more pronounced among young, female and highly educated professionals with plenty of outside options. Indeed, our analysis of survey data from a later 2018-2019 shutdown confirms that morale, not income loss, drives the exits.

Employees who felt most affected reported a sharp drop in agency, control and recognition, and they were far more likely to plan a departure.

The effect of the motivation loss is striking. Using a simple economic model where workers can be expected to value both cash and purpose, we estimate that the drop in intrinsic motivation after a shutdown would require a roughly 10% wage raise to offset.

Policy implications

Some people have argued that this outflow of employees amounts to a necessary trimming, a way to shrink government by a so-called starving of the beast.

But the evidence paints a different picture. Agencies hit hardest by furloughs turned to temporary staffing firms to fill the gaps. Over the two years after the shutdown we analyzed, these agencies spent about US$1 billion more on contractors than they saved in payroll.

The costs go beyond replacement spending, as government performance also suffers. Agencies that were more affected by the shutdown recorded higher rates of inaccurate federal payments for several years. Even after partial recovery, losses amounted to hundreds of millions of dollars that taxpayers never recouped.

Other skill-intensive functions declined as well. Legal enforcement fell in agencies that became short of experienced attorneys, and patenting activity dropped in science and engineering agencies after key inventors left.

Official estimates of shutdown costs typically focus on near-term GDP effects and back pay. But our findings show that an even bigger bill comes later in the form of higher employee turnover, higher labor costs to fill gaps, and measurable losses in productivity.

Shutdowns are blunt, recurring shocks that demoralize the public workforce and erode performance. These costs spill over to everyone who relies on government services. If the public wants efficient, accountable public institutions, then we should all care about avoiding shutdowns.

After an already turbulent year, it is unclear whether a shutdown would significantly add to the strain on federal employees or have a more limited effect, since many who were considering leaving have already left through buyouts or forced terminations this year. What is clear is that hundreds of thousands of federal employees will experience another period of uncertainty.

This story was updated on Oct. 1, 2025, to include details of the shutdown.

The Conversation

The authors do not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. Even a government shutdown that ends quickly would hamper morale, raise costs and reduce long-term efficiency in the federal workforce – https://theconversation.com/even-a-government-shutdown-that-ends-quickly-would-hamper-morale-raise-costs-and-reduce-long-term-efficiency-in-the-federal-workforce-265723

Jimmy Kimmel no es el primer cómico censurado en Estados Unidos

Source: The Conversation – (in Spanish) – By Doina Repede, Profesora de Lengua española, Universidad de Granada

Jimmy Kimmel con el actor Billy Crystal en un programa de _Jimmy Kimmel Live!_ de 2024. Jimmy Kimmel Live!

A lo largo de la historia, la comedia ha sido una de las mejores formas de cuestionar el poder y burlarse de él. Ya en la antigua Grecia, dramaturgos como Aristófanes se reían de los líderes y mostraban sus abusos. En la Edad Media, los bufones podían decirle al rey lo que nadie más se atrevía.

También hoy en día los cómicos ridiculizan el poder, señalan sus errores y los critican. Por eso, la risa, muchas veces, más que entretenimiento, funciona como una herramienta para mantener la democracia viva y la sociedad alerta.

De la crítica y sátira política a la censura

Caricatura en la que el rey Jorge III recibe un puñetazo en la nariz del presidente estadounidense James Madison durante la Guerra de 1812.
En esta caricatura de William Charles, el rey Jorge III recibe un puñetazo en la nariz del presidente estadounidense James Madison durante la Guerra de 1812.
Librería del Congreso de los Estados Unidos.

Por ejemplo, en Estados Unidos, la crítica y la sátira política tienen una historia larga. En el siglo XVIII, los colonos ya se burlaban del gobierno británico con caricaturas y escritos. Benjamin Franklin usaba la sátira para cuestionar a los británicos durante la independencia. En el siglo XIX, escritores como Mark Twain recurrían a ella y a la ironía para criticar la esclavitud y el racismo presente en el país.

En los siglos XX y XXI la tradición no se detuvo. La sátira encontró en los presidentes su blanco favorito. Así, hubo risas a costa de Richard Nixon, Ronald Reagan, Bill Clinton, George Bush, Barack Obama y… Donald Trump.

Pero cuando uno ya no se siente libre para opinar, criticar, reírse del poder, la democracia empieza a tambalearse. Y no hay señal más peligrosa para una democracia que cuando el poder intenta callar a quienes lo cuestionan, ya sea con amenazas, persecuciones o censura.

La situación actual

Es el caso reciente de Jimmy Kimmel y su programa Jimmy Kimmel Live! (ABC), que se canceló de forma repentina poco después de un comentario que aludía al movimiento MAGA (siglas de Make America Great Again), tras el asesinato de Charlie Kirk.

La Casa Blanca negó haber ejercido presiones, pero lo cierto es que Donald Trump celebró públicamente la cancelación. Además, Brendan Carr, presidente de la Comisión Federal de Comunicaciones (FCC) nombrado por Trump, llegó a pedir directamente que se despidiera a Kimmel, asegurando que había que tomar medidas “por las buenas o por las malas”. Y la petición –o, mejor dicho, la amenaza– se cumplió.

Nueve días después, tras días de titulares y un fuerte respaldo por parte de la población, el programa volvió a emitirse en Estados Unidos. Kimmel regresó con un monólogo cargado de emoción, ironías y un contundente desafio: “No hay nada más antiestadounidense que cancelar a un cómico”. El desafío no gustó, evidentemente.

El monólogo de regreso de Jimmy Kimmel duró más de lo normal y aprovechó para tratar el tema de su cancelación y la libertad de expresión.

El presentador Stephen Colbert sí que parece que tendrá ese destino, ya que CBS no renovará su late night en 2026. La emisora afirma que el motivo es económico, pero se sospecha que la cancelación tiene que ver con las críticas que el presentador hizo a un acuerdo al que la cadena llegó con Trump. Parece que para el poder no existe la regla más sabia de todas las reglas: no hagas a los demás lo que no quieres que te hagan a ti.

Lo ocurrido con Kimmel y Colbert no es un caso aislado en Estados Unidos. En el pasado, otros cómicos corrieron –con mayor o menor fortuna– la misma suerte por atreverse a ridiculizar el poder.

El humor como contrapoder

Mort Sahl (1927-2021) fue uno de los primeros comediantes en Estados Unidos en usar la comedia para hablar de política y actualidad. Su estilo era directo, irónico y muy cercano al público. Subía al escenario con notas en la mano y comentaba noticias y decisiones de los líderes con humor y crítica. Su éxito empezó a decaer tras el asesinato de John F. Kennedy en 1963. Su interés por los detalles del caso, su cuestionamiento de la versión oficial y su humor más oscuro hicieron que las cadenas de televisión se distanciaran de él y muchos de sus shows fueran cancelados. Aunque no fue prohibido oficialmente, su carrera en la televisión se vio afectada.

Durante los años 50, Lenny Bruce, uno de los comediantes más importantes de Estados Unidos, también fue vetado en televisión. Su humor no era solo para hacer reír: era para abrir los ojos. Hablaba de todo lo que la sociedad de aquel entonces prefería callar: política, religión, racismo, sexualidad… y lo hacía sin tapujos. No le importaba incomodar. Su objetivo era cuestionar las normas y mostrar las contradicciones de la sociedad. Y por su humor “obsceno” fue arrestado y juzgado varias veces.

Por su parte, Dick Gregory cambió por completo la forma de hacer humor afroamericano. Tenía un estilo sofisticado, satírico y evitaba los estereotipos y los chistes manidos. Fue el primer afroamericano en aparecer como invitado en el Tonight Show de la NBC, un logro histórico para la época. Pero a medida que su activismo político crecía, su presencia en televisión comenzó a disminuir. A finales de los años 60 muchas cadenas y programas evitaban invitarlo, mostrando cómo el humor podía incomodar.

De los Smothers Brothers a Howard Stern

Artículo en el que se anuncia la cancelación del programa de los Smothers Brothers.
Artículo en el que se anuncia la cancelación del programa de los Smothers Brothers.
The Calgary Herald, 3 de abril de 1969.

Quizás uno de los actos de censura política hacia cómicos más claros en una democracia fue el que sufrieron los hermanos Smothers. Tom y Dick Smothers tenían su show de comedia y variedades, The Smothers Brothers Comedy Hour, en la CBS. El programa era un éxito en horario de máxima audiencia, combinando música, comedia y activismo político.
Pero CBS empezó a recortar partes “molestas” del programa para ajustarse a los censores de la cadena, hasta que canceló el programa repentinamente en 1969. Bromas sobre Lyndon B. Johnson y Richard Nixon, críticas a la guerra de Vietnam e invitados molestos hicieron que las presiones políticas y el miedo a perder dinero de los anunciantes terminaran con el programa prematuramente.

Los Smothers Brothers demandaron y ganaron el juicio a CBS, pero el daño ya estaba hecho.

A Kathy Griffin su humor irónico y a veces ofensivo le causó serios problemas. En 2017 posó con una cabeza ensangrentada del presidente Donald Trump. La broma fue considerada de muy mal gusto. Perdió su trabajo en CNN, varios de sus shows fueron cancelados e incluso fue investigada e interrogada por el Servicio Secreto.

La censura llegó también a la radio. Howard Stern, una de las figuras más icónicas de las ondas en Estados Unidos, era famoso por su estilo provocador. Su forma directa y a veces escandalosa de hablar le generó tanto críticas como un público fiel, convirtiéndolo en un referente de lo denominado “shock jock”, es decir, la utilización de bromas o melodramatismos exagerados para entretener a la audiencia –aunque alienando a una parte de ella–. A lo largo de su carrera, Stern se enfrentó a la censura y las multas de la Comisión Federal de Comunicaciones (FCC), lo que le convirtió en un símbolo de los debates sobre libertad de expresión en los medios.

A la vista está que la risa puede incomodar, ofender o irritar, pero mantiene viva la democracia. Y cuando se intenta silenciarla, lo que se apaga no es solo una broma, es la posibilidad misma de cuestionar el poder.

The Conversation

Doina Repede no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Jimmy Kimmel no es el primer cómico censurado en Estados Unidos – https://theconversation.com/jimmy-kimmel-no-es-el-primer-comico-censurado-en-estados-unidos-265722

De panaceas a venenos: así ha cambiado la percepción de algunos elementos químicos a lo largo de la historia

Source: The Conversation – (in Spanish) – By Laura Culleré Varea, Profesora titular de la Facultad de Ciencias de la Salud., Universidad San Jorge

GoodIdeas/Shutterstock

De sobra se conoce la toxicidad que presenta la exposición a algunos elementos químicos de la tabla periódica, como el radio, mercurio, plomo o el arsénico. No obstante, se ha necesitado mucho tiempo para que el avance de la ciencia fuera evidenciando su verdadero efecto de en nuestra salud. Un impacto que no siempre se percibió como nocivo, sino todo lo contrario.

¿Cuál eran los usos de estos elementos en sociedades antiguas y qué creencias había en torno a ellos?

Radio: un descubrimiento digno del Premio Nobel

Este elemento radioactivo fue descubierto en 1898 por Marie y Pierre Curie cuando estaban estudiando el uranio y sus propiedades, un hallazgo por el que ambos científicos recibieron el Premio Nobel.

El radio es el único metal alcalino-térreo radiactivo, y el más raro. Se forma en pequeñas cantidades cuando átomos de metales más comunes como el uranio o el torio se desintegran. Aunque en la actualidad se sabe que el radio causa, entre otros efectos adversos, anemia, cataratas, fractura de dientes, cáncer y muerte, todavía se desconoce la relación entre la cantidad y el tiempo necesarios para provocarlos.

Teniendo en cuenta lo dañino que puede llegar a ser este metal, es sorprendente que a principios del siglo XX se usara de manera tan frecuentemente. Entre otros muchos ejemplos, las pinturas luminosas, como las empleadas en las esferas de los relojes que brillaban en la oscuridad, contenían radio, lo que solía hacer enfermar por cáncer a las personas que trabajan con ellas.

Más llamativo resulta todavía saber que hasta la década de 1940 existía la creencia de que su radiactividad era beneficiosa, haciendo más fuerte a quien lo ingiriera y proporcionándole energía. Por ello, se comercializaban viales con uno de sus compuestos (el cloruro de radio), así como cremas elaboradas con este metal para mejorar la piel. Tal era el desconocimiento sobre sus efectos adversos que a principios del siglo pasado existían los surtidores de radio, que lo añadían al agua con el fin de hacerla más saludable.




Leer más:
Polonio y radio: radiactivos, mortales y muy útiles


Un traguito de mercurio para alcanzar la eternidad

El mercurio (Hg), único metal líquido a temperatura ambiente, es un mineral que puede ser muy dañino para los sistemas nerviosos, digestivo e inmunitario, así como para los pulmones, los riñones, piel y ojos cuando se inhala o ingiere.

Está clasificado por la OMS como una de las 10 sustancias químicas más peligrosas para la salud pública y, si bien su uso es en la actualidad muy limitado, todavía se sigue usando en algunas pilas y bombillas fluorescentes compactas de bajo consumo.

La intoxicación por este metal líquido puede producir el síndrome del sombrerero loco, un cuadro psicótico o depresivo acompañado de manifestaciones neurológicas (cefaleas, temblores, ataxia cerebelosa, etc.).

A pesar de su toxicidad, en la antigüedad se usaban en tratamientos para enfermedades como la lepra o el estreñimiento, y los alquimistas creían que su consumo incluso podía prolongar la vida hasta hacer alcanzar la inmortalidad. Pero, además de sus aplicaciones en salud, durante los imperios egipcio y romano se usaba como elemento de bisutería y pigmento en cosmética.




Leer más:
Por qué la contaminación por mercurio sigue siendo un problema aunque reduzcamos sus emisiones


Plomo: de la medicina a la guerra

El plomo es un elemento altamente tóxico y acumulativo que afecta principalmente al sistema nervioso de niños y adultos. También puede producir debilidad en los dedos, las muñecas o los tobillos, y anemia tras una exposición prolongada.

A día de hoy tiene un uso muy limitado, dirigido a la fabricación de baterías para vehículos, en blindaje radiológico (gracias a su capacidad para proteger contra radiación), así como cubierta para cables de teléfono, televisión o Internet.

Antiguamente, era un material mucho más extendido. Por ejemplo, siglos atrás se utilizaba en láminas para escribir, en la antigua Roma servía para fabricar tuberías y en la Edad Media se incorporaba a los revestimientos del armazón de madera de las flechas [https://desguacesballestero.es/el-plomo-un-metal-con-mucha-historia-2/].

Diversos compuestos con plomo se usaban además como astringentes, en farmacia y medicina, para controlar la secreción de fluidos, así como en pinturas, tintes del cabello e insecticidas.




Leer más:
Los científicos somos un poco detectives: el caso de los envenenamientos por arsénico en Arizona


Arsénico: el elixir que tantas enfermedades curaba

El uso del arsénico (As) ha disminuido considerablemente debido a sus propiedades tóxicas, limitándose a la industria para la fabricación de vidrios y componentes electrónicos. Pero, aproximadamente 2400 años atrás, se empleó en la preparación de productos terapéuticos por médicos griegos tan importantes como Hipócrates y Dioscórides.

La popularidad de este metal como agente terapéutico llegó a su cúspide a principios y mediados del Siglo XX, cuando era empleado para tratar patologías diversas, desde enfermedades venéreas como la sífilis, pasando por la diabetes, hasta ser recetados como tónicos (vigorizantes), fortificantes y elixires. Hasta principios del S XIX la mezcla de este mineral con oro se molía y se añadía a pinturas; y las puntas de las balas se elaboraban con arsénico fusionado con plomo.

Sabiendo ya algunos detalles del uso de estos cuatro elementos a lo largo de la historia, merece la pena prestar atención a una frase del célebre médico y alquimista del Renacimiento Paracelso, considerado el padre de la toxicología: “todo es tóxico dependiendo de la dosis, la presentación, la vía de exposición y los factores medioambientales”. Una frase que se podría completar añadiendo una puntilla: “y de los avances científicos de la época”.

The Conversation

Laura Culleré Varea no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. De panaceas a venenos: así ha cambiado la percepción de algunos elementos químicos a lo largo de la historia – https://theconversation.com/de-panaceas-a-venenos-asi-ha-cambiado-la-percepcion-de-algunos-elementos-quimicos-a-lo-largo-de-la-historia-264559

Más allá de la especialización: las ventajas de la colaboración entre saberes en la universidad

Source: The Conversation – (in Spanish) – By José Francisco Alfonso Jaramillo, Profesor del área de Didáctica de la Lengua y la Literatura, Universidad de Huelva

Gorgev/Shutterstock

Imaginemos que una universidad decide poner en marcha un proyecto para diseñar un automóvil de carreras. Necesitaría un equipo interdisciplinar: además de ingenieros mecánicos, aerodinámicos y electrónicos, harían falta también programadores de software, diseñadores industriales, expertos en seguridad y especialistas en estrategias y análisis de datos, así como un equipo de comunicación o marketing, entre otros.

Este tipo de proyectos solamente son posibles con una colaboración entre diferentes disciplinas, no necesariamente relacionadas. En un mundo caracterizado por desafíos complejos y en constante cambio, ser capaces de pensar más allá de los límites de nuestra especialidad nos prepara para los futuros retos laborales e incrementa nuestra motivación.

¿Qué es la interdisciplinariedad?

¿Cómo podemos definir el concepto de interdisciplinariedad? Es un método para resolver problemas que combina conocimientos y formas de pensar de diferentes disciplinas.

Por ejemplo, diseñar estrategias de prevención frente a una pandemia requeriría de la colaboración entre disciplinas como la medicina, la sociología, la economía o la comunicación. Ninguna de estas ciencias, por sí sola, sería capaz de trazar un plan integral que abarque el problema en toda su amplitud. Solo mediante la interdisciplinariedad podemos llegar a desarrollar todo nuestro potencial.

Es el enfoque más eficaz para comprender y afrontar problemas complejos, al integrar diversas perspectivas que ninguna disciplina ofrece por sí sola. De hecho, su papel en la educación ha sido revitalizado gracias a la difusión de las metodologías STEM, que parten de problemáticas aplicadas al mundo real, incentivándose su resolución mediante el trabajo en equipo entre diferentes saberes.




Leer más:
Diez pasos para implantar el enfoque tecnológico y científico en las aulas


Formación integral del estudiante

Uno de grandes los beneficios de la interdisciplinariedad es que fomenta el aprendizaje significativo. Al enfrentarse a diferentes formas de entender el conocimiento, los estudiantes desarrollan un pensamiento más crítico y una mejor capacidad para analizar problemas en diversos escenarios.

El pensamiento crítico es una de las habilidades más necesarias para el desempeño profesional en un futuro marcado, previsiblemente, por avances tecnológicos rápidos e impredecibles.

Involucrarse en proyectos interdisciplinares, además, da la oportunidad de poner en práctica los conocimientos propios de su especialidad en un contexto más amplio, comprendiendo la conexión de su área con otras. De esta manera, los estudiantes que participan en experiencias interdisciplinares desarrollan una mayor comprensión de cómo se conectan los conceptos y cómo se aplican sus conocimientos en el mundo real.




Leer más:
Aprender ayudando: universitarios fabricantes de prótesis a medida


A continuación, enumeramos más ventajas de la interdisciplinariedad universitaria.

1. Promoción de la innovación y la creatividad

Cuando estudiantes y docentes de distintas disciplinas trabajan en equipo, se potencia la creatividad. Esa colaboración da lugar a la aparición de ideas que difícilmente surgirían si cada uno trabajara por separado.

La innovación no es más que una práctica que implica la combinación de diferentes tipos de saberes. Las estructuras universitarias deben facilitar estos procesos para mantenerse relevantes ante los desafíos del siglo XXI.

2. Fortalecimiento del compromiso social universitario

Las universidades tienen la responsabilidad de generar impacto más allá de sus aulas. Las intervenciones interdisciplinares, especialmente cuando se orientan a comunidades externas y construyen proyectos para dar respuesta a necesidades reales pueden llegar a provocar impactos duraderos. La comunidad universitaria sale de sus límites y participa más activamente de la realidad social.

3. Incentivo a la investigación colaborativa

El trabajo interdisciplinar en las universidades suele dar lugar a proyectos de investigación más fuertes y colaborativos. Además, facilita el acceso a fuentes de financiamiento que priorizan la unión de diferentes áreas del conocimiento.

Este tipo de colaboración no solo mejora la calidad de las investigaciones: también amplía su visibilidad y alcance, logrando impactar a audiencias más amplias.

4. Mejora de la empleabilidad de los egresados

El mundo laboral exige mucho más que conocimientos técnicos. Las experiencias interdisciplinares ayudan a los estudiantes a trabajar en equipos diversos, tomar decisiones éticas y comunicarse con claridad en diferentes ámbitos.

Según el World Economic Forum, la adaptabilidad, la resolución de problemas complejos y la colaboración multidisciplinar son competencias esenciales para los trabajos del futuro. Todas estas cualidades se fortalecen cuando se apuesta por la interdisciplinariedad.

Transformación de las estructuras universitarias

El reto no es sencillo. Implementar prácticas interdisciplinares implica repensar las estructuras organizativas. Esto incluye currículos más flexibles, programas compartidos entre distintas facultades y métodos de enseñanza más activos.

Las universidades que adoptan modelos interdisciplinares tienden a generar estructuras más dinámicas y resilientes, capaces de adaptarse a entornos educativos en constante cambio.

La pandemia obligó al sistema educativo a reorganizarse y digitalizarse a todos los niveles para garantizar la educación virtual. A partir de aquellas circunstancias, se pusieron en marcha proyectos interdisciplinares. En Ecuador, por ejemplo, se estableció el plan educativo Aprendamos juntos, reforzando la interdisciplinariedad a través de proyectos diseñados aunando Ciencias, Arte, Educación Física y Matemáticas para asegurar la continuidad y calidad de la educación en línea en un contexto de emergencia.

Ejemplos de proyectos interdisciplinares

Cualquier campo del conocimiento permite trabajar con distintos enfoques combinados. Desde trabajos para abordar el cambio climático usando energías renovables para tratar la transición energética en países africanos, a iniciativas para facilitar el análisis de prensa histórica digitalizada a gran escala, pasando por proyectos para diseñar e implementar un programa interdisciplinar sobre aprendizaje automático e inteligencia artificial.

Estudiantes que han participado en proyectos de este tipo afirman haber ampliado perspectivas.

La educación con una perspectiva transversal promueve una ciudadanía más crítica.

Adoptar este enfoque exige compromiso institucional, innovación curricular y voluntad de transformación. Sin embargo, los resultados son claros: una universidad más inclusiva, flexible, relevante y conectada con los tiempos que vivimos.

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. Más allá de la especialización: las ventajas de la colaboración entre saberes en la universidad – https://theconversation.com/mas-alla-de-la-especializacion-las-ventajas-de-la-colaboracion-entre-saberes-en-la-universidad-259757