Doscientos días de verano

Source: The Conversation – (in Spanish) – By Armand Hernández, Investigador Ramón y Cajal en Ciencias de la Tierra y del Agua, Centro Interdiscilplinar de Química e Bioloxía (CICA), Universidade da Coruña

Massimo Todaro/Shutterstock

Seguramente todos hemos comentado lo caluroso y largo que fue el pasado verano. En el ascensor, en la cola del supermercado, en una sala de espera o mientras aguardamos a que nuestros hijos salgan del colegio; el “verano eterno” ha sido el tema estrella de muchas conversaciones cotidianas.

En Europa se empieza a sentir que el verano no termina. Las primaveras se acortan, los otoños llegan tarde y el frío del invierno, aunque puede ser extremo, dura poco. No es una impresión pasajera: la comunidad científica lleva tiempo observándolo, y ahora sabemos que el Viejo Continente se encamina hacia un cambio estacional sin precedentes en la historia humana.

En un estudio reciente, analizamos la evolución del verano durante los últimos 10 000 años y mostramos que, hace unos 6 000 años, esta estación llegó a extenderse durante casi 200 días. Entonces, las causas fueron naturales. Hoy el escenario es parecido, pero con una diferencia fundamental: el calentamiento actual tiene origen antropogénico y avanza a un ritmo muy superior al de aquel periodo.

Un archivo climático en el fondo de los lagos

Para reconstruir esta evolución, estudiamos las llamadas varvas, láminas de sedimento depositadas estacionalmente en algunos lagos. Cada varva suele incluir dos capas, una asociada al verano y otra al invierno. Midiendo su grosor es posible reconstruir, año a año, la duración e intensidad de cada estación.

El estudio de estas laminaciones en lagos europeos revela un patrón claro: los veranos del Holoceno medio (hace entre 8 000 y 4 000 años aproximadamente) duraban de media 200 días, casi un mes más que a principios del siglo XX.

¿Qué provocó esos veranos tan largos? La explicación principal está en el gradiente latitudinal de temperatura, la diferencia térmica entre el ecuador y el Ártico.

Cuando el Ártico se calienta más rápido que las zonas tropicales, ese gradiente se debilita y la circulación atmosférica se ralentiza. El chorro polar, la corriente de vientos rápidos que rodea el hemisferio norte, pierde intensidad y comienza a ondularse. Esta configuración favorece los llamados bloqueos atmosféricos: situaciones en las que un anticiclón estacionario permanece sobre Europa durante semanas, desviando las borrascas atlánticas y exponiendo al continente a aire cálido sostenido.




Leer más:
Fusión extrema en el Ártico: el nuevo rostro del deshielo acelerado por el cambio climático


Las consecuencias son veranos más largos y episodios más frecuentes de olas de calor, sequías y lluvias torrenciales al inicio del otoño. Según nuestra investigación, existe una relación estadística sólida entre la duración del verano y la intensidad del gradiente térmico: cerca de dos tercios de la variabilidad estacional del Holoceno se explica por cambios en este gradiente. Por cada grado de debilitamiento, Europa suma unos seis días adicionales de verano.

Lecciones del pasado

Lo preocupante es que este mecanismo está reactivándose hoy en día. La comparación con el pasado aporta perspectiva, pero también urgencia. Durante el Holoceno, las modificaciones del gradiente se debieron a variaciones orbitales o al retroceso de grandes masas de hielo, procesos lentos y graduales. Hoy, el motor del cambio es el calentamiento global inducido por la actividad humana, y la atmósfera responde con rapidez.

El Ártico se calienta unas cuatro veces más rápido que el resto del planeta, un fenómeno conocido como “amplificación ártica”, lo que reduce el gradiente térmico a una velocidad sin precedentes en los últimos diez milenios.




Leer más:
El Ártico, un termómetro del cambio climático


Desde los años ochenta, los veranos europeos muestran una clara tendencia a alargarse, confirmada por los registros meteorológicos. También lo reflejan los sistemas naturales: plantas que florecen antes, insectos que aparecen antes de lo habitual y aves migratorias que adelantan sus desplazamientos. El reloj climático de Europa está cambiando, y la diferencia principal respecto al pasado es la velocidad a la que ocurre.

Si las emisiones continúan al ritmo actual, Europa podría sumar hasta 42 días más de verano para el año 2100. Esto supondría veranos fuera de los umbrales naturales bajo los que se ha desarrollado la humanidad. En escenarios más optimistas, el aumento sería menor, pero aun así relevante: unos 13 días adicionales.

Aunque estas cifras puedan parecer pequeñas, dos semanas extra de verano extremo tienen consecuencias directas: mayor mortalidad por calor, estrés hídrico en cultivos, incendios más frecuentes, alteraciones en ecosistemas sensibles y presión añadida sobre las infraestructuras energéticas. A ello se suma el impacto en los inviernos que, aunque cada vez con más eventos extremos, duran poco, lo que afecta a la acumulación de nieve y la recarga de acuíferos, generando procesos de retroalimentación.

Una ventana al mañana

Aunque no existan predicciones exactas del futuro, aún es posible influir en su trayectoria. Cada decisión para reducir nuestras emisiones, cada avance tecnológico, cada política climática orientada a la neutralidad en carbono contribuye a frenar esta tendencia.

Contamos con herramientas científicas sólidas, sociedades más conscientes y una innovación climática en pleno desarrollo. El mismo conocimiento que permite reconstruir los veranos del Holoceno ayuda hoy a anticipar riesgos, transformar sistemas energéticos, restaurar ecosistemas y diseñar soluciones que hace poco parecían inalcanzables. La historia climática nos advierte. Queda por ver si sabremos escucharla.

The Conversation

Armand Hernández recibe fondos del Ministerio de Ciencia e Innovación (España).

Celia Martin Puertas recibe fondos de UK Research and Innovation

ref. Doscientos días de verano – https://theconversation.com/doscientos-dias-de-verano-270363

Beauty in ordinary things: why this Japanese folk craft movement still matters 100 years on

Source: The Conversation – Global Perspectives – By Penny Bailey, Lecturer in Japanese Studies, The University of Queensland

A thrown tea bowl made by Hamada Shōji. Wikimedia, CC BY-SA

On January 10 1926, Yanagi Sōetsu and the potters Hamada Shōji and Kawai Kanjirō sat talking excitedly late into the night at a temple on Mt Kōya, in Japan’s Wakayama Prefecture.

They were debating how best to honour the beauty of simple, everyday Japanese crafts. Out of that conversation came a new word, mingei, and a plan to found The Japan Folk Crafts Museum in Tokyo. Later, Yanagi would describe what emerged that night as “a new standard of beauty”.

A view of the front of a traditional Japanese building with a dark roof and large wooden doors. There is a short stone fence in the foreground.
The Japan Folk Crafts Museum in Meguro Ward, Tokyo, is dedicated to collecting, preserving, researching, and exhibiting the hand-crafted works of the Mingei movement.
Wikimedia, CC BY-SA

A century on, Yanagi’s ideas feel strikingly relevant. His message was simple: beautiful things need not be rare or expensive – they can be well-designed objects that we use every day.

In an age of fast fashion, disposable products and growing concerns about waste, his approach offers an important reminder to think about the objects we choose to have around us.

How mingei was born

Yanagi (1889–1961) was an art critic and collector who believed beauty was not solely the preserve of famous artists or rare treasures. He and his friends were drawn, instead, to well-made and functional objects: bowls, baskets, fabrics and tools created for daily use, rather than to display.

A black and white image of a Japanese man in a traditional robe, holding a bowl.
Yanagi was an art critic, philosopher and founder of the Mingei movement.
Wikimedia

To Yanagi, these simple things shaped the rhythm of daily life – yet had gone unnoticed in a world rushing toward modern mass production.

The attraction came from looking closely. Yanagi described it as “seeing with one’s own eyes before dissecting with the intellect”. He admired the work of anonymous craftspeople who repeated familiar forms, refining them through long periods of practice.

These makers did not seek fame; their goal was to create objects that balanced beauty and function so completely that they were inseparable.

Japan in the 1920s was changing fast. Mass-produced goods were replacing handmade ones, and many local craft traditions were in decline. Yanagi worried this shift would erase skills and weaken the bond between beauty and everyday life. Mingei aimed to bring this connection back into view.

Yanagi, Hamada and Kawai agreed they needed a new word for the kind of objects they wanted to celebrate. From minshuteki kōgei, meaning “craft of the people”, they coined the shorter term mingei. It describes objects made for use rather than prestige, and by hand rather than by machine. Yanagi believed these objects formed the true heart of Japanese craft.

A year after their Mount Kōya conversation, the group held their first folk craft exhibition in Ginza. None of the works carried signatures. The exhibition aimed to encourage a new way of looking at humble objects, suggesting that everyday things held artistic value when viewed with care.

Close-up shot of a grey-ish hand-made bowl.
A thrown bowl by Bernard Leach.
Wikimedia, CC BY

How mingei shaped Japanese design

Yanagi’s ideas went on to shape Japanese craft and design throughout the 20th century, influencing not only craftspeople but also designers.

His son, Yanagi Sōri, adopted mingei principles in his famous 1954 Butterfly Stool, made from two curved pieces of plywood that meet like wings. Simple, balanced and light, the stool is now an icon of modern design, showing how mingei could take form in new materials and contexts.

A stool made with two curved pieces of wood, against a white background.
The maple veneer Butterfly stool designed by Yanagi Sōri.
David Wong/South China Morning Post via Getty Images

The movement also shaped the work of Hamada and Kawai, and many other makers including Tomimoto Kenkichi, Serizawa Keisuke, Munakata Shikō and the Englishman Bernard Leach. They showed how traditional craft practised with care and humility could remain vital in a rapidly changing world.

Another branch of Yanagi’s legacy emerged with the rise of seikatsu kōgei, or “lifestyle crafts”, in the 1990s. These makers turned to simple, functional objects to reconsider how we live. After Japan’s economic bubble burst in the 1980s, many began to question the habit of buying and discarding.

Why Yanagi’s ideas matter today

The influence of mingei continues in contemporary design. Fukasawa Naoto – one of Japan’s most influential designers and the current director of The Japan Folk Crafts Museum – aims to create objects which work so naturally that they seem to disappear into daily life.

He describes this as “without thought” design: things that feel right in the hand, fit their purpose and do not demand attention. His long collaboration with MUJI, known for its pared-back products, shows how closely his work follows the mingei spirit.

This way of thinking sits in sharp contrast to how many goods are made today. A culture of fast buying and quick disposal has left people feeling disconnected from the act of making, from materials and from the things they own.

An older Japanese man and woman look at some folk art on panels inside a gallery.
Former Japanese Emperor Akihito and Empress Michiko visiting The Japan Folk Crafts Museum, during a 2017 exhibition commemorating the 80th anniversary of the museum.
Yomiuri Shimbun/AP

Mingei offers an alternative way of thinking. It invites us to look closely at the objects we use each day – to notice their shape, feel and purpose. It suggests beauty should be part of everyday life, not an escape from it.

Yanagi believed if we change how we see and choose ordinary things, we might also change how we live. A century later, his call to value simple and well-made objects offers a steady guide through our profit-driven, disposable world.

The Conversation

Penny Bailey does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Beauty in ordinary things: why this Japanese folk craft movement still matters 100 years on – https://theconversation.com/beauty-in-ordinary-things-why-this-japanese-folk-craft-movement-still-matters-100-years-on-269802

Why eating disorders are more common among LGBTQIA+ people and what can help

Source: The Conversation – Global Perspectives – By Kai Schweizer, PhD Candidate in Youth Mental Health, The University of Western Australia; The Kids Research Institute

MDV Edwards/Getty

When people picture someone with an eating disorder, many think of a thin, teenage girl with anorexia nervosa. This stereotype is so pervasive it can feel like a fact.

The reality is that eating disorders affect people of all ages, body sizes, cultures, races, sexes, genders and sexualities. In 2023, around 1.1 million Australians (around 4.5% of the population) were living with an eating disorder.

A growing body of evidence suggests LGBTQIA+ people are particularly vulnerable to developing eating disorders. But we still need more research to understand how and why they affect this group more.

Here’s what we know so far about LGBTQIA+ people’s higher risk – and what treatment actually works for them.

What is an eating disorder?

Eating disorders are serious mental health conditions that affect a person’s eating behaviours. They can harm both physical and mental health.

Anorexia nervosa and bulimia nervosa are the most well-known eating disorders, but the most common are actually binge eating disorder (eating a lot in a short amount of time and feeling out of control) and avoidant/restrictive food intake disorder (restricting eating because of sensory sensitivity, lack of appetite, or fear of illness or choking).

Eating disorders can cause damage to a person’s organs, bones, fertility and brain function. People with an eating disorder are up to five times more likely to die early than those without one.




Read more:
What’s the difference between an eating disorder and disordered eating?


How much higher is the risk for LGBTQIA+ people?

Research shows that LGBTQIA+ people have much higher rates of eating disorders than non-LGBTQIA+ people.

For example, in the United States an estimated 9% of the population will experience an eating disorder in their lifetime. But a 2018 survey of LGBTQ young people in the US found rates were significantly higher:

  • 54% reported an eating disorder diagnosis
  • another 21% thought they had an eating disorder, but hadn’t been diagnosed.

Within the LGBTQIA+ community, the risk also varies across different groups:

We don’t have data for asexual people, but we do know that asexual people have poorer body image than their non-asexual peers. So it is likely they also experience higher rates of eating disorders.

Why LGBTQIA+ people face higher risk

Being an LGBTQIA+ person is not a mental illness. There is no evidence of a biological reason why LGBTQIA+ people experience higher rates of eating disorders.

While many factors contribute, two of the most studied risk factors are minority stress and gender dysphoria.

1. Minority stress

Minority stress refers to how discrimination and stigma negatively impact the health of LGBTQIA+ people. This means it is not who they are, but how LGBTQIA+ people are treated that drives their higher risk.

Discrimination can lead LGBTQIA+ people to feel shame about their identities and bodies. Some people try to cope through disordered eating behaviours, which can develop into an eating disorder.

For intersex people, medically unnecessary surgeries in childhood to “normalise” their bodies can cause trauma and shame that can also increase eating disorder risk.

2. Gender dysphoria

Many trans people experience something called gender dysphoria. This is the distress, discomfort or disconnect that can happen when a person’s gender identity doesn’t match their physical body or how others see them. For many trans people, eating disorders can be an attempt to reduce gender dysphoria.

In trans teens, eating disorders often develop as a way to stop puberty when they can’t access puberty blocking medications. For example, restricting food may be a way to try to reduce the appearance of breast tissue or to stop having periods.

What kind of treatment would work?

After a diagnosis, typical eating disorder treatment involves a multidisciplinary team including a doctor, mental health professional and dietitian. Treatment can be provided in the community or in a hospital if someone’s physical health needs close monitoring.

But eating disorder treatment was not designed with LGBTQIA+ people in mind and can sometimes cause harm. LGBTQIA+ people report more negative experiences of treatment compared to the general population.

For example, mirror exposure exercises are a common therapy, where someone with an eating disorder is asked to look in a mirror for prolonged periods to lessen their body image distress. But for some trans people this can worsen their gender dysphoria.

This doesn’t mean treatment can’t help LGBTQIA+ people. It means treatment has to be adapted to ensure it meets their needs.

In practice, this might look like:


If this article raised any concerns for you or someone you know, contact the Butterfly Foundation on 1800 33 4673. You can also contact QLife at 1800 184 527.

The Conversation

Kai Schweizer receives funding from the Australian Government Research Training Program and the Australian Eating Disorder Research and Translation Centre SEED Grants Scheme.

ref. Why eating disorders are more common among LGBTQIA+ people and what can help – https://theconversation.com/why-eating-disorders-are-more-common-among-lgbtqia-people-and-what-can-help-270268

NASA’s Pandora telescope will study stars in detail to learn about the exoplanets orbiting them

Source: The Conversation – USA – By Daniel Apai, Associate Dean for Research and Professor of Astronomy and Planetary Sciences, University of Arizona

A new NASA mission will study exoplanets around distant stars. European Space Agency, CC BY-SA

On Jan. 11, 2026, I watched anxiously at the tightly controlled Vandenberg Space Force Base in California as an awe-inspiring SpaceX Falcon 9 rocket carried NASA’s new exoplanet telescope, Pandora, into orbit.

Exoplanets are worlds that orbit other stars. They are very difficult to observe because – seen from Earth – they appear as extremely faint dots right next to their host stars, which are millions to billions of times brighter and drown out the light reflected by the planets. The Pandora telescope will join and complement NASA’s James Webb Space Telescope in studying these faraway planets and the stars they orbit.

I am an astronomy professor at the University of Arizona who specializes in studies of planets around other stars and astrobiology. I am a co-investigator of Pandora and leading its exoplanet science working group. We built Pandora to shatter a barrier – to understand and remove a source of noise in the data – that limits our ability to study small exoplanets in detail and search for life on them.

Observing exoplanets

Astronomers have a trick to study exoplanet atmospheres. By observing the planets as they orbit in front of their host stars, we can study starlight that filters through their atmospheres.

These planetary transit observations are similar to holding a glass of red wine up to a candle: The light filtering through will show fine details that reveal the quality of the wine. By analyzing starlight filtered through the planets’ atmospheres, astronomers can find evidence for water vapor, hydrogen, clouds and even search for evidence of life. Researchers improved transit observations in 2002, opening an exciting window to new worlds.

When a planet passes in front of its star, astronomers can measure the dip in brightness, and see how the light filtering through the planet’s atmosphere changes.

For a while, it seemed to work perfectly. But, starting from 2007, astronomers noted that starspots – cooler, active regions on the stars – may disturb the transit measurements.

In 2018 and 2019, then-Ph.D. student Benjamin V. Rackham, astrophysicist Mark Giampapa and I published a series of studies showing how darker starspots and brighter, magnetically active stellar regions can seriously mislead exoplanets measurements. We dubbed this problem “the transit light source effect.”

Most stars are spotted, active and change continuously. Ben, Mark and I showed that these changes alter the signals from exoplanets. To make things worse, some stars also have water vapor in their upper layers – often more prominent in starspots than outside of them. That and other gases can confuse astronomers, who may think that they found water vapor in the planet.

In our papers – published three years before the 2021 launch of the James Webb Space Telescope – we predicted that the Webb cannot reach its full potential. We sounded the alarm bell. Astronomers realized that we were trying to judge our wine in light of flickering, unstable candles.

The birth of Pandora

For me, Pandora began with an intriguing email from NASA in 2018. Two prominent scientists from NASA’s Goddard Space Flight Center, Elisa Quintana and Tom Barclay, asked to chat. They had an unusual plan: They wanted to build a space telescope very quickly to help tackle stellar contamination – in time to assist Webb. This was an exciting idea, but also very challenging. Space telescopes are very complex, and not something that you would normally want to put together in a rush.

The Pandora spacecraft with an exoplanet and two stars in the background
Artist’s concept of NASA’s Pandora Space Telescope.
NASA’s Goddard Space Flight Center/Conceptual Image Lab, CC BY

Pandora breaks with NASA’s conventional model. We proposed and built Pandora faster and at a significantly lower cost than is typical for NASA missions. Our approach meant keeping the mission simple and accepting somewhat higher risks.

What makes Pandora special?

Pandora is smaller and cannot collect as much light as its bigger brother Webb. But Pandora will do what Webb cannot: It will be able to patiently observe stars to understand how their complex atmospheres change.

By staring at a star for 24 hours with visible and infrared cameras, it will measure subtle changes in the star’s brightness and colors. When active regions in the star rotate in and out of view, and starspots form, evolve and dissipate, Pandora will record them. While Webb very rarely returns to the same planet in the same instrument configuration and almost never monitors their host stars, Pandora will revisit its target stars 10 times over a year, spending over 200 hours on each of them.

NASA’s Pandora mission will revolutionize the study of exoplanet atmospheres.

With that information, our Pandora team will be able to figure out how the changes in the stars affect the observed planetary transits. Like Webb, Pandora will observe the planetary transit events, too. By combining data from Pandora and Webb, our team will be able to understand what exoplanet atmospheres are made of in more detail than ever before.

After the successful launch, Pandora is now circling Earth about every 90 minutes. Pandora’s systems and functions are now being tested thoroughly by Blue Canyon Technologies, Pandora’s primary builder.

About a week after launch, control of the spacecraft will transition to the University of Arizona’s Multi-Mission Operation Center in Tucson, Arizona. Then the work of our science teams begins in earnest and we will begin capturing starlight filtered through the atmospheres of other worlds – and see them with a new, steady eye.

The Conversation

Daniel Apai is a professor of astronomy, planetary sciences and optical science at the University of Arizona. He receives funding from NASA.

ref. NASA’s Pandora telescope will study stars in detail to learn about the exoplanets orbiting them – https://theconversation.com/nasas-pandora-telescope-will-study-stars-in-detail-to-learn-about-the-exoplanets-orbiting-them-272155

L’avenir de l’impression 3D passera par les matériaux

Source: The Conversation – in French – By Benoît Vieille, Professeur en mécanique des matériaux aéronautiques, INSA Rouen Normandie

Qu’il s’agisse de pièces de fusée, d’automobile, de pont ou même d’aliments, la fabrication additive (FA) redéfinit complètement le champ des possibles dans de très nombreux domaines d’activités. Elle offre des perspectives prometteuses en matière de matériaux, mais elle pose également des défis techniques, économiques et environnementaux qui nécessitent une maturation et une adaptation des procédés en lien avec les matériaux utilisés.


Plus connu sous la dénomination « impression 3D », ce procédé met en œuvre des polymères (plastiques) ou des alliages métalliques pour fabriquer des objets du quotidien. Les imprimantes 3D polymères sont accessibles au grand public pour quelques centaines d’euros. Elles permettent notamment de fabriquer des pièces prototypes (d’où le nom prototypage rapide), des coques de téléphone, des pièces de rechange, des prothèses, des bijoux, des jouets, des objets de décorations ou des maquettes. En ce qui concerne les métaux, les machines d’impression sont beaucoup plus chères (quelques centaines de milliers d’euros). On trouve des applications telles que des implants médicaux, des pièces aérospatiales/automobiles, de l’outillage industriel, des bijoux de luxe. On peut également trouver ce principe de fabrication dans le domaine du BTP avec des « imprimantes » qui mettent en œuvre du béton pour fabriquer des maisons, des bâtiments ou tout type de structure en génie civil.

Mais, comme toute nouveauté, le procédé suscite autant d’espoir qu’il ne réserve de surprises (bonnes ou mauvaises) à celles et ceux qui souhaitent utiliser ce nouveau moyen de fabrication.

D’un point de vue technique, l’impression 3D consiste, couche après couche, à durcir (polymériser) une résine liquide ou à venir déposer de la matière (plastique ou métallique) de manière précise et contrôlée (en ajustant les paramètres tels que la température, la vitesse d’impression, le taux de remplissage, l’orientation de l’objet) pour répondre à certaines contraintes de géométrie, poids, optimisation des propriétés mécaniques ou physiques.

La microstructure d’une pièce imprimée en 3D (polymère ou métal) désigne l’organisation interne de sa matière à une échelle microscopique, influencée par le procédé d’impression. La complexité de la géométrie, les dimensions, le prix vont conditionner le choix de la technologie d’impression et des matériaux associés.

Une révolution dans de nombreux domaines industriels

Qu’elle soit alternative ou complémentaire des techniques conventionnelles par enlèvement de matière ou par déformation, la FA révolutionne de nombreux domaines industriels. De la réalisation de pièces monolithiques (en une seule étape de fabrication, sans assemblage) à forte valeur ajoutée à la fonctionnalisation (conférer à la pièce certaines propriétés locales en changeant les paramètres d’impression au besoin), en passant par le prototypage rapide (valider la conception d’une pièce prototype de manière itérative), les possibilités sont multiples. On peut citer notamment des prothèses de hanche en titane adaptées à l’anatomie de chaque patient, des injecteurs de fusée à géométrie complexe et fabriquées en une seule pièce, des moules optimisés avec canaux de refroidissement sur mesure, des bijoux en métaux précieux avec des designs impossibles à obtenir avec des moyens d’usinage conventionnels.

La chaîne de valeurs de la FA – qui définit l’ensemble des étapes de réalisation d’une pièce de l’approvisionnement en matière première, à la conception, aux conditions de mise en œuvre, à la fabrication, au coût énergétique, à la reprise d’usinage, aux opérations de parachèvement, à la qualification de la santé matière, à la caractérisation des propriétés physiques, au recyclage – est cependant plus complexe et potentiellement plus onéreuse. La technicité, oui, mais pas à n’importe quel prix ! Outre les moyens de fabrication spécifiques sur lesquels elle repose, elle nécessite des règles de conception fondamentalement différentes car elle impose de nouvelles contraintes techniques. De la Conception Assistée par Ordinateur, au choix matériau, au programme machine et à l’industrialisation, il faut ainsi redéfinir complètement la manière de penser du cahier des charges à la maintenance des produits issus de la FA.

Des enjeux majeurs pour les matériaux

Un des points fondamentaux du développement de ces nouveaux procédés réside dans la compréhension du lien entre les paramètres de fabrication des pièces (temps d’impression, puissance du laser, vitesse de déplacement de la tête d’impression, dimensions, environnement de travail – sous atmosphère contrôlée ou non), leur santé matière (présence de porosités ou de défauts parfois liés à un manque de fusion/gazéification locaux de la matière) et leurs propriétés physiques (conductivité thermique ou électrique, propriétés mécaniques, densité). Autrement dit, il est nécessaire de fiabiliser les procédés et optimiser les propriétés finales de la pièce en étant capable de contrôler des paramètres de fabrication, lesquels vont beaucoup dépendre des matériaux mis en œuvre. Ainsi, la FA présente des enjeux majeurs pour les matériaux, qu’ils soient techniques, économiques ou environnementaux.

Tout d’abord, les procédés de FA nécessitent de développer, en amont, des matériaux adaptés (filaments, poudres) aux spécificités des procédés (fusion laser, dépôt de matière fondue, alimentation en matière des têtes d’impression), lesquels vont imposer des contraintes en termes de prix, toxicité et recyclabilité. En effet, les poudres métalliques ou polymères spécifiques (de type thermoplastique) dédiées à la fabrication additive restent souvent plus coûteuses que les matériaux conventionnels, d’un facteur 10 environ.

Néanmoins, malgré le coût plus élevé des matériaux et des procédés, l’impression 3D réduit les déchets (pas de copeaux comme en usinage), permet de fabriquer des pièces dont la géométrie est optimisée (allègement des structures) et élimine le besoin de moules coûteux pour les petites séries, ce qui peut compenser l’écart de coût pour des pièces à forte valeur ajoutée. Ainsi, la réduction des coûts est un enjeu clé pour une adoption plus large. De plus, l’approvisionnement en matière première peut être limité, ce qui ralentit le développement des applications industrielles.

La FA permet également de faire de l’hybridation en associant différents types de matériaux lors de l’impression (en utilisant plusieurs têtes d’impression) afin d’obtenir des pièces composites dont les propriétés mécaniques, électriques ou thermiques sont spécifiques. Par exemple, dans l’industrie aérospatiale ou l’automobile, l’impression 3D de pièces comme des moules d’injection ou des échangeurs thermiques avec des canaux de refroidissement complexes intégrés – lesquels sont impossibles à réaliser par usinage classique – permettent d’optimiser la dissipation thermique, améliorant l’efficacité et la longévité de la pièce.

Les procédés de FA permettent également d’imprimer des structures arborescentes (bio-mimétisme) obtenues via des outils d’optimisation topologique qui est une méthode de conception avancée qui utilise des algorithmes pour déterminer la forme optimale d’une structure en fonction de contraintes spécifiques, telles que la résistance, le poids, ou la distribution des efforts. La spécificité de l’impression 3D réside aussi dans la possibilité de produire des structures complexes de type treillis ou architecturées pour fonctionnaliser le matériau (propriétés mécaniques sur mesure, réduction de la masse, diminution des coûts de fabrication, isolation thermique, acoustique, absorption des chocs ou des vibrations).

Fusion de matière

Quand les pièces sont imprimées, il existe – selon le procédé de fabrication – des opérations dites de parachèvement qui consistent à finaliser les pièces. Cela inclut l’usinage des supports de conformage (qui sont comme des échafaudages qui supportent la pièce lors de la fabrication couche par couche), la reprise d’usinage des surfaces (ou polissage) pour améliorer l’état de surface (quand cela est possible) en raison de la rugosité importante des pièces brutes. On peut également réaliser des traitements thermiques pour homogénéiser la microstructure (pièces métalliques) ou de compression à chaud pour limiter le taux de porosités (un des inconvénients majeurs de l’impression 3D). Ces opérations sont fondamentales, car la rugosité de surface et le taux de porosités sont les caractéristiques les plus critiques du point de vue du comportement mécanique. Par ailleurs, quand il s’agit de procédés à base de poudres, il est nécessaire de dépoudrer les pièces pour évacuer le surplus de matière, lequel peut nuire au fonctionnement en service de la pièce ainsi fabriquée.

Par nature, la majorité des procédés de FA impliquent la fusion de matière (plastique ou métallique), ce qui va se traduire par des échauffements localisés et des différences de température très importants au sein de la pièce. Ces gradients thermiques vont conditionner la microstructure, la présence de contraintes internes (en lien avec la microstructure), la santé (présence de défauts), l’anisotropie (les propriétés ne sont pas les mêmes dans toutes les directions) et l’hétérogénéité (les propriétés ne sont pas les mêmes en tout point) des pièces. La fiabilité des pièces imprimées va donc beaucoup dépendre de ces caractéristiques.

En amont, il est alors important d’étudier les interactions entre procédés-microstructure et propriétés mécaniques pour différents types de matériaux. C’est l’objet de nos travaux de recherche menés à l’INSA Rouen Normandie. Pour les polymères, l’impression 3D par dépôt de filament fondu (FFF) présente une porosité intrinsèque qui réduit la résistance à la rupture. En utilisant des procédés tels que le laser shock peening (LSP), un traitement mécanique in situ appliqué à certaines couches pendant l’impression, on peut alors faire de la fonctionnalisation en réduisant localement la porosité et en créant des barrières ralentissant la propagation des fissures, améliorant ainsi la ténacité des matériaux (la résistance à la fissuration du matériau). De manière similaire, pour les alliages métalliques obtenus par Fusion sur Lit de Poudre, en jouant sur les paramètres de fabrication (puissance et vitesse de déplacement du laser notamment), il est possible d’ajuster localement les propriétés du matériau pour moduler sa ténacité ou sa capacité à se déformer plastiquement.*

Aussi, il est nécessaire de caractériser précisément – en aval de la fabrication – les propriétés (thermiques, électriques, mécaniques) des pièces en accord avec les normes de certification propres aux différents domaines d’activité (médical, aéronautique, aérospatiale, automobile, agro-alimentaire).

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. L’avenir de l’impression 3D passera par les matériaux – https://theconversation.com/lavenir-de-limpression-3d-passera-par-les-materiaux-258652

Quand les IA cadrent l’information et façonnent notre vision du monde

Source: The Conversation – in French – By Adrian Kuenzler, Scholar-in-Residence, University of Denver; University of Hong Kong

Selon une étude OpinionWay pour le think tank La villa numeris, publiée le 15 octobre 2025, les Français sont 8 % à préférer l’IA aux médias pour s’informer. Matúš Gocman/Unsplash, CC BY

Les grands modèles de langage façonnent notre perception de l’information, au-delà de l’exactitude ou inexactitude des faits présentés. Dans cette optique, comprendre et corriger les biais de l’intelligence artificielle est crucial pour préserver une information fiable et équilibrée.


La décision de Meta de mettre fin à son programme de fact-checking aux États-Unis a suscité une vague de critiques dans les milieux de la technologie et des médias (NDT : En France, le programme est maintenu). En jeu, les conséquences d’une pareille décision en termes de confiance et de fiabilité du paysage informationnel numérique, en particulier lorsque des plates-formes guidées par le seul profit sont en grande partie laissées à elles-mêmes pour se réguler.

Ce que ce débat a largement négligé, toutefois, c’est qu’aujourd’hui les grands modèles de langage d’intelligence artificielle (IA) sont de plus en plus utilisés pour rédiger des résumés d’actualité, des titres et des contenus qui captent votre attention bien avant que les mécanismes traditionnels de modération des contenus puissent intervenir.

Le problème ne se limite pas à des cas évidents de désinformation ou de contenus préjudiciables qui passeraient entre les mailles du filet en l’absence de modération. Ce qui se joue dans l’ombre, c’est comment des informations factuellement justes peuvent être sélectionnées, présentées et valorisées de façon à orienter la perception du public.

En générant les informations que les chatbots et assistants virtuels présentent à leurs utilisateurs, les grands modèles de langage (LLM) influencent progressivement la manière dont les individus se forgent une opinion. Ces modèles sont désormais également intégrés aux sites d’information, aux plates-formes de réseaux sociaux et aux services de recherche, devenant ainsi la principale porte d’accès à l’information.

Des études montrent que ces grands modèles de langage font bien plus que simplement transmettre de l’information. Leurs réponses peuvent mettre subtilement en avant certains points de vue tout en en minimisant d’autres, souvent à l’insu des utilisateurs.

Biais de communication

Mon collègue, l’informaticien Stefan Schmid, et moi-même, chercheur en droit et politiques des technologies, montrons dans un article à paraître dans la revue Communications of the ACM que les grands modèles de langage présentent un biais de communication. Nous constatons qu’ils peuvent avoir tendance à mettre en avant certaines perspectives tout en en omettant ou en atténuant d’autres. Un tel biais est susceptible d’influencer la manière dont les utilisateurs pensent ou ressentent les choses, indépendamment du fait que l’information présentée soit vraie ou fausse.

Les recherches empiriques menées ces dernières années ont permis de constituer des jeux de données de référence qui mettent en relation les productions des modèles avec les positions des partis avant et pendant les élections. Elles révèlent des variations dans la manière dont les grands modèles de langage actuels traitent ces contenus publics. Le simple choix de la persona (l’identité fictive implicitement assignée au modèle) ou du contexte dans la requête suffit à faire glisser subtilement les modèles actuels vers certaines positions, sans que la justesse factuelle des informations soit remise en cause.

Ces glissements révèlent l’émergence d’une forme de pilotage fondée sur la persona : la tendance d’un modèle à aligner son ton et ses priorités sur ce qu’il perçoit comme les attentes de l’utilisateur. Ainsi, lorsqu’un utilisateur se présente comme militant écologiste et un autre comme chef d’entreprise, un modèle peut répondre à une même question sur une nouvelle loi climatique en mettant l’accent sur des préoccupations différentes, tout en restant factuellement exact dans les deux cas. Les critiques pourront par exemple porter, pour l’un, sur le fait que la loi n’aille pas assez loin dans la promotion des bénéfices environnementaux, et pour l’autre, sur les contraintes réglementaires et les coûts de mise en conformité qu’elle impose.

Un tel alignement peut facilement être interprété comme une forme de flatterie. Ce phénomène est appelé « sycophancy » (NDT : Si en français, le sycophante est un délateur, en anglais il désigne un flatteur fourbe), les modèles disant en pratique aux utilisateurs ce qu’ils ont envie d’entendre. Mais si la « sycophancy » est un symptôme de l’interaction entre l’utilisateur et le modèle, le biais de communication est plus profond encore. Il reflète des déséquilibres dans la conception et le développement de ces systèmes, dans les jeux de données dont ils sont issus et dans les incitations qui orientent leur perfectionnement. Lorsqu’une poignée de développeurs dominent le marché des grands modèles de langage et que leurs systèmes présentent systématiquement certains points de vue sous un jour plus favorable que d’autres, de légères différences de comportement peuvent se transformer, à grande échelle, en distorsions significatives de la communication publique.

Les biais partent des données avec lesquelles ces modèles sont entraînés.

Ce que la régulation peut – et ne peut pas – faire

Les sociétés contemporaines s’appuient de plus en plus sur les grands modèles de langage comme interface principale entre les individus et l’information. Partout dans le monde, les gouvernements ont lancé des politiques pour répondre aux préoccupations liées aux biais de l’IA. L’Union européenne, par exemple, avec l’AI Act et le règlement européen sur les services numériques, cherche à imposer davantage de transparence et de responsabilité. Mais aucun de ces textes n’est conçu pour traiter la question plus subtile du biais de communication dans les réponses produites par l’IA.

Les partisans de la régulation de l’IA invoquent souvent l’objectif d’une IA neutre, mais une neutralité véritable est le plus souvent hors d’atteinte. Les systèmes d’IA reflètent les biais inscrits dans leurs données, leur entraînement et leur conception, et les tentatives pour réguler ces biais aboutissent fréquemment à remplacer une forme de biais par une autre.

Et le biais de communication ne se limite pas à l’exactitude : il concerne la production et le cadrage des contenus. Imaginons que l’on interroge un système d’IA sur un texte législatif controversé. La réponse du modèle est façonnée non seulement par les faits, mais aussi par la manière dont ces faits sont présentés, par les sources mises en avant, ainsi que par le ton et le point de vue adoptés.

Cela signifie que la racine du problème des biais ne réside pas seulement dans la correction de données d’entraînement biaisées ou de sorties déséquilibrées, mais aussi dans les structures de marché qui orientent la conception des technologies. Lorsque seuls quelques grands modèles de langage (LLM) contrôlent l’accès à l’information, le risque de biais de communication s’accroît. Une atténuation efficace des biais suppose donc de préserver la concurrence, de renforcer la responsabilité portée par les utilisateurs et tout en restant ouvert aux différentes conceptions et offres de LLM du côté du régulateur.

La plupart des réglementations actuelles visent soit à interdire des contenus préjudiciables après le déploiement des technologies, soit à contraindre les entreprises à réaliser des audits avant leur mise sur le marché. Notre analyse montre que si les contrôles en amont et la supervision a posteriori peuvent permettre d’identifier les erreurs les plus manifestes, ils sont souvent moins efficaces pour traiter les biais de communication subtils qui émergent au fil des interactions avec les utilisateurs.

Aller au-delà de la régulation de l’IA

Il est tentant de croire que la régulation peut éliminer l’ensemble des biais des systèmes d’IA. Dans certains cas, ces politiques peuvent être utiles, mais elles échouent le plus souvent à traiter un problème plus profond : les incitations qui déterminent les technologies chargées de communiquer l’information au public.

Nos travaux montrent qu’une solution plus durable réside dans le renforcement de la concurrence, de la transparence et d’une participation effective des utilisateurs, afin de permettre aux citoyens de jouer un rôle actif dans la manière dont les entreprises conçoivent, testent et déploient les grands modèles de langage.

Ces orientations sont essentielles car, in fine, l’IA n’influencera pas seulement les informations que nous recherchons et l’actualité que nous consommons au quotidien : elle jouera aussi un rôle déterminant dans la façon dont nous imaginons la société de demain.

The Conversation

Adrian Kuenzler ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quand les IA cadrent l’information et façonnent notre vision du monde – https://theconversation.com/quand-les-ia-cadrent-linformation-et-faconnent-notre-vision-du-monde-272768

Groenland : rester avec les Inuit polaires

Source: The Conversation – in French – By Ludovic Slimak, Archéologue, penseur et chercheur au CNRS, Université de Toulouse

En juin 1951, l’explorateur Jean Malaurie voit surgir de la toundra une immense base militaire américaine, bâtie dans le secret le plus total. Ce choc marque pour lui le début d’un basculement irréversible pour les sociétés inuit. Aujourd’hui, alors que le Groenland redevient un enjeu stratégique mondial, l’histoire semble se répéter. Rester avec les Inuit polaires, c’est refuser de parler de territoires en oubliant ceux qui les habitent.


Le 16 juin 1951, l’explorateur français Jean Malaurie progresse en traîneaux à chiens sur la côte nord-ouest du Groenland. Il est parti seul, sur un coup de tête, avec un maigre pécule du CNRS, officiellement pour travailler sur les paysages périglaciaires. En réalité, cette rencontre avec des peuples dont la relation au monde était d’une autre nature allait forger un destin singulier.

Ce jour-là, après de longs mois d’isolement parmi les Inuit, au moment critique du dégel, Malaurie avance avec quelques chasseurs. Il est épuisé, sale, amaigri. L’un des Inuit lui touche l’épaule : « Takou, regarde » Un épais nuage jaune monte au ciel. À la longue-vue, Malaurie croit d’abord à un mirage : « une cité de hangars et de tentes, de tôles et d’aluminium, éblouissante au soleil dans la fumée et la poussière […] Il y a trois mois, la vallée était calme et vide d’hommes. J’avais planté ma tente, un jour clair de l’été dernier, dans une toundra fleurie et virginale. »

Le souffle de cette ville nouvelle, écrira-t-il, « ne nous lâchera plus ». Les excavatrices tentaculaires raclent la terre, les camions vomissent les gravats à la mer, les avions virevoltent. Malaurie est projeté de l’âge de pierre à l’âge de l’atome. Il vient de découvrir la base secrète américaine de Thulé, nom de code Operation Blue Jay. L’un des projets de construction militaire les plus massifs et les plus rapides de l’histoire des États-Unis.

La base américaine de Thulé au début des années 1950.
U.S. Army, The Big Picture — Operation Blue Jay (1953), CC BY

Sous ce nom anodin se cache une logistique pharaonique. Les États-Unis redoutent une attaque nucléaire soviétique par la route polaire. En un seul été, quelque 120 navires et 12 000 hommes sont mobilisés dans une baie qui n’avait connu jusque-là que le glissement silencieux des kayaks. Le Groenland ne comptait alors qu’environ 23 000 habitants. En 104 jours, sur un sol gelé en permanence, surgit une cité technologique capable d’accueillir les bombardiers géants B-36, porteurs d’ogives nucléaires. À plus de 1 200 kilomètres au nord du cercle polaire, dans un secret presque total, les États-Unis font surgir l’une des plus grandes bases militaires jamais construites hors de leur territoire continental. Un accord de défense est signé avec le Danemark au printemps 1951, mais l’Operation Blue Jay est déjà engagée : la décision américaine a été prise dès 1950.

L’annexion de l’univers Inuit

Malaurie comprend aussitôt que la démesure de l’opération signe, de fait, une annexion de l’univers Inuit. Un monde fondé sur la vitesse, la machine, l’accumulation vient de pénétrer brutalement, aveuglément, un espace réglé par la tradition, le cycle, la chasse et l’attente.

Le geai bleu est un oiseau bruyant, agressif, extrêmement territorial. La base de Thulé se situe à mi-chemin entre Washington et Moscou par la route polaire. À l’heure des missiles hypersoniques intercontinentaux, hier soviétiques, aujourd’hui russes, c’est cette même géographie qui fonde encore l’argument du « besoin impérieux » invoqué par Donald Trump dans son désir d’annexion du Groenland.

La base de Thulé a une position stratégique entre les USA et la Russie.
U.S. Army, The Big Picture — Operation Blue Jay (1953), CC BY

Le résultat immédiat le plus tragique de l’Opération Blue Jay ne fut pas militaire, mais humain. En 1953, pour sécuriser le périmètre de la base et de ses radars, les autorités décidèrent de déplacer l’ensemble de la population inughuit locale vers Qaanaaq, à une centaine de kilomètres plus au nord. Le déplacement fut rapide, contraint, sans consultation, brisant le lien organique entre ce peuple et ses territoires de chasse ancestraux. Un “peuple racine” déraciné pour faire place à une piste d’aviation.

C’est sur ce moment de bascule foudroyante que Malaurie situe l’effondrement des sociétés traditionnelles inuit, où la chasse n’est pas une technique de survie mais un principe organisateur du monde social. L’univers inuit est une économie du sens, faite de relations, de gestes et de transmissions, qui donnent à chacun reconnaissance, rôle et place. Cette cohérence intime, qui fait la force de ces sociétés, les rend aussi extrêmement vulnérables lorsqu’un système extérieur en détruit soudainement les fondements territoriaux et symboliques.

Conséquences de l’effondrement des structures traditionnelles

Aujourd’hui, la société groenlandaise est largement sédentarisée et urbanisée. Plus du tiers des 56 500 habitants vit à Nuuk, la capitale, et la quasi-totalité de la population réside désormais dans des villes et localités côtières sédentarisées. L’habitat reflète cette transition brutale. Dans les grandes villes, une part importante de la population occupe des immeubles collectifs en béton, construits pour beaucoup dans les années 1960 et 1970, souvent vétustes et suroccupées. L’économie repose largement sur une pêche industrielle tournée vers l’exportation. La chasse et la pêche de subsistance persistent. Fusils modernes, GPS, motoneiges, connexions satellitaires accompagnent désormais les gestes anciens. La chasse demeure un repère identitaire, mais elle ne structure plus ni l’économie ni la transmission.

Les conséquences humaines de cette rupture sont massives. Le Groenland présente aujourd’hui l’un des taux de suicide les plus élevés au monde, en particulier chez les jeunes hommes inuit. Les indicateurs sociaux contemporains du Groenland – taux de suicide, alcoolisme, violences intrafamiliales – sont largement documentés. De nombreux travaux les relient à la rapidité des transformations sociales, à la sédentarisation et à la rupture des transmissions traditionnelles.

Manœuvres militaires américaines à Thulé.
U.S. Army, The Big Picture — Operation Blue Jay (1953), CC BY

Revenons à Thulé. L’immense projet secret engagé au début des années 1950 n’avait rien de provisoire. Radars, pistes, tours radio, hôpital : Thulé devient une ville stratégique totale. Pour Malaurie, l’homme du harpon est condamné. Non par une faute morale, mais par une collision de systèmes. Il met en garde contre une européanisation qui ne serait qu’une civilisation de tôle émaillée, matériellement confortable, humainement appauvrie. Le danger n’est pas dans l’irruption de la modernité, mais dans l’avènement, sans transition, d’une modernité sans intériorité, opérant sur des terres habitées comme si elles étaient vierges, répétant, à cinq siècles d’écart, l’histoire coloniale des Amériques.

Espaces et contaminations radioactives

Le 21 janvier 1968, cette logique atteint un point de non-retour. Un bombardier B-52G de l’US Air Force, engagé dans une mission permanente d’alerte nucléaire du dispositif Chrome Dome, s’écrase sur la banquise à une dizaine de kilomètres de Thulé. Il transporte quatre bombes thermonucléaires. Les explosifs conventionnels des bombes nucléaires, destinés à amorcer la réaction, détonnent à l’impact. Il n’y a pas d’explosion nucléaire, mais la déflagration disperse sur une vaste zone du plutonium, de l’uranium, de l’americium et du tritium.

Dans les jours qui suivent, Washington et Copenhague lancent Project Crested Ice, une vaste opération de récupération et de décontamination avant la fonte printanière. Environ 1 500 travailleurs danois sont mobilisés pour racler la glace et collecter la neige contaminée. Plusieurs décennies plus tard, nombre d’entre eux engageront des procédures judiciaires, affirmant avoir travaillé sans information ni protection adéquates. Ces contentieux se prolongeront jusqu’en 2018-2019, débouchant sur des indemnisations politiques limitées, sans reconnaissance juridique de responsabilité. Aucune enquête épidémiologique exhaustive ne sera jamais menée auprès des populations inuit locales.

Aujourd’hui rebaptisée Pituffik Space Base, l’ancienne base de Thulé est l’un des nœuds stratégiques majeurs du dispositif militaire américain. Intégrée à la US Space Force, elle joue un rôle central dans l’alerte antimissile et la surveillance spatiale en Arctique, sous un régime de sécurité maximale. Elle n’est pas un vestige de la guerre froide, mais un pivot actif de la géopolitique contemporaine.

Dans Les Derniers Rois de Thulé, Malaurie montre que les peuples racine n’ont jamais de place possible au cœur des considérations stratégiques occidentales. Face aux grandes manœuvres du monde, l’existence des Inuit y devient aussi périphérique que celle des phoques ou des papillons.

Les déclarations de Donald Trump ne font pas surgir un monde nouveau. Elles visent à généraliser au Groenland un système en place depuis soixante-quinze ans. Mais la position d’un homme ne saurait nous exonérer de nos responsabilités collectives. Entendre aujourd’hui que le Groenland « appartient » au Danemark et dépend de l’OTAN, sans même évoquer les Inuit, revient à répéter un vieux geste colonial : concevoir les territoires en y effaçant ceux qui l’habitent.

Les Inuit demeurent invisibles et inaudibles. Nos sociétés continuent de se représenter comme des adultes face à des populations indigènes infantilisées. Leur savoir, leurs valeurs, leurs manières sont relégués au rang de variables secondaires. La différence n’entre pas dans les catégories à partir desquelles nos sociétés savent agir.

À la suite de Jean Malaurie, mes recherches abordent l’humain par ses marges. Qu’il s’agisse des sociétés de chasseurs-cueilleurs ou de ce qu’il reste de Néandertal, lorsqu’on le déshabille de nos projections, l’Autre demeure toujours l’angle mort de notre regard. Nous ne savons pas voir comment s’effondrent des mondes entiers lorsque la différence cesse d’être pensable.

Malaurie concluait son premier chapitre sur Thulé par ces mots :

« Rien n’aura été prévu pour imaginer l’avenir avec hauteur. »

Il faut redouter par-dessus tout non la disparition brutale d’un peuple, mais sa relégation silencieuse, et radicale, dans un monde qui parle de lui sans jamais le regarder ni l’entendre.

The Conversation

Ludovic Slimak ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Groenland : rester avec les Inuit polaires – https://theconversation.com/groenland-rester-avec-les-inuit-polaires-273057

Cinq pistes pour éviter les clichés sur l’apprentissage et aider les élèves à progresser

Source: The Conversation – in French – By Jerrid Kruse, Professor of Science Education, Drake University

C’est pour apprendre que les élèves se rendent chaque jour en classe. Mais savent-ils bien toujours ce que cela signifie réellement ? Les fausses croyances sur la manière dont on acquiert des connaissances sont nombreuses, et elles peuvent compliquer la tâche des enfants et des adolescents. Quelques pistes pour les aider à réajuster leurs méthodes de travail et augmenter leurs chances de réussite.


Au cours de mes années d’enseignement des sciences au collège, au lycée et à l’université, j’ai constaté que certains de mes élèves résistaient à l’exercice de ce que les pédagogues appellent la pensée de haut niveau, incluant l’analyse, la pensée créative et critique, et la résolution de problèmes.

Par exemple, lorsque je leur ai demandé de tirer des conclusions à partir de données ou de mettre au point un protocole pour tester une idée, certains élèves ont répondu : « Pourquoi ne nous dites-vous pas quoi faire ? » ou « N’est-ce pas le rôle de l’enseignant que de nous donner les bonnes réponses ? »

En d’autres termes, mes élèves avaient développé une forte idée préconçue selon laquelle le savoir provient de l’autorité. Après enquête, mes collègues et moi-même avons conclu que ces croyances sur l’apprentissage influençaient leur approche de nos cours, et donc ce qu’ils étaient capables d’apprendre.

Tous les élèves arrivent en classe avec des croyances diverses sur ce que signifie apprendre. Dans le domaine de l’éducation, la croyance la plus recherchée est peut-être ce que nous appelons avoir un état d’esprit de croissance. Les élèves ayant un état d’esprit de croissance croient qu’ils peuvent s’améliorer et continuer à apprendre. En revanche, les élèves ayant un état d’esprit fixe ont du mal à croire qu’ils peuvent approfondir leurs connaissances sur le sujet qu’ils étudient. Lorsque les élèves disent « Je suis nul en maths », ils font preuve d’un état d’esprit fixe.




À lire aussi :
À l’école, ce que les élèves pensent de leur intelligence influence leurs résultats


En tant qu’enseignants, nous essayons non seulement d’aider les élèves à comprendre le sujet traité, mais nous cherchons également à leur inculquer des croyances justes sur l’apprentissage afin que rien ne vienne entraver leur capacité à assimiler de nouvelles informations.

Outre l’état d’esprit de croissance, je soutiens que cinq autres croyances sont particulièrement importantes à promouvoir dans les salles de classe afin d’aider les élèves à mieux apprendre et à mieux se préparer au monde moderne.

Apprendre, c’est comprendre

Certains élèves et enseignants assimilent l’apprentissage à la mémorisation.

Si la mémorisation joue un rôle dans l’apprentissage, l’apprentissage approfondi repose quant à lui sur la compréhension. Les élèves ont tout intérêt à reconnaître que l’apprentissage consiste à expliquer et à relier des concepts entre eux pour leur donner un sens.

Se concentrer trop sur la mémorisation peut masquer des lacunes.

a young girl sitting at a desk buries her forehead in a textbook
Apprendre, c’est un processus difficile.
demaerre/iStock via Getty Images

Par exemple, je travaillais un jour avec un élève de maternelle qui m’a fièrement montré qu’il savait réciter les chiffres de 1 à 20. Je lui ai alors demandé de compter les crayons sur le bureau. L’élève n’a pas compris ma demande. Il n’avait pas fait le lien entre ces nouveaux mots et le concept des chiffres.

Pour aider les élèves à reconnaître l’importance de la compréhension dans l’apprentissage, les enseignants et les parents peuvent leur poser des questions telles que « Pourquoi est-il préférable de relier une nouvelle idée à une ancienne idée plutôt que d’essayer simplement de mémoriser la réponse ? » ou « Pourquoi une explication est-elle plus utile qu’une simple réponse ? »

Apprendre est un défi

La conviction des élèves selon laquelle l’apprentissage s’apparente à la mémorisation peut refléter une croyance connexe selon laquelle la connaissance est simple et l’apprentissage devrait être facile.

Au contraire, les éducateurs veulent que les élèves acceptent la complexité et les défis qu’elle comporte. En se confrontant aux nuances et à la complexité, les élèves fournissent l’effort mental nécessaire pour former et renforcer de nouvelles connexions dans leur pensée.

Lorsque les élèves pensent que les connaissances sont simples et que l’apprentissage devrait être facile, leur engagement dans la réflexion de haut niveau, nécessaire pour appréhender la complexité et les nuances, en pâtit.

Pour aider les élèves en difficulté à saisir une idée complexe, les enseignants et les parents peuvent leur poser des questions qui les aident à comprendre pourquoi l’apprentissage est complexe et nécessite des efforts.

Apprendre prend du temps

Lorsque les élèves pensent que l’apprentissage est simple et facile, les enseignants ne devraient pas s’étonner qu’ils pensent également que l’apprentissage doit être rapide.

Au contraire, les élèves doivent comprendre que l’apprentissage approfondi prend du temps. Si les élèves pensent que l’apprentissage est rapide, ils sont moins enclins à rechercher des défis, à explorer les nuances ou à réfléchir et à établir des liens entre les idées. Malheureusement, de nombreux programmes scolaires condensent tellement d’objectifs d’apprentissage en un laps de temps très court que la croyance en un apprentissage rapide est subtilement renforcée.

Si les enseignants peuvent faire preuve de créativité dans l’utilisation du matériel pédagogique et consacrer plus de temps à inciter les élèves à explorer la complexité et à établir des liens, le simple fait de passer plus de temps sur un concept peut ne pas suffire à changer les convictions des élèves en matière d’apprentissage.

a man stands facing away from the camera toward students at row desks
L’apprentissage ne se fait pas uniquement auprès des enseignants.
Drazen Zigic/iStock via Getty Images

Pour aider les élèves à changer leur façon de penser, je leur demande de discuter de questions telles que « Pourquoi pensez-vous que la compréhension de concepts complexes prend autant de temps ? » ou « Pourquoi une seule leçon ne suffirait-elle pas pour couvrir ce concept ? » Grâce à ces questions, mes collègues et moi avons constaté que les élèves commencent à reconnaître que l’apprentissage approfondi est lent et prend du temps.

L’apprentissage est un processus continu

Les étudiants doivent également comprendre que l’apprentissage n’a pas de fin.

Malheureusement, beaucoup d’étudiants considèrent l’apprentissage comme une destination plutôt que comme un processus continu. Or, comme la connaissance comporte un degré inhérent d’incertitude et qu’un apprentissage accru révèle souvent une complexité accrue, l’apprentissage doit être continu.

Pour aider les élèves à s’interroger sur cette conviction, les enseignants et les parents pourraient leur poser les questions suivantes : « Comment pensez-vous que vos connaissances ont évolué au fil du temps ? » et « Comment pensez-vous que votre apprentissage va évoluer à l’avenir ? »

L’apprentissage ne se fait pas uniquement auprès des enseignants

Je me souviens qu’un lycéen m’avait dit : « Les enseignants sont censés nous donner les réponses pour que nous sachions quoi écrire à l’examen. »

Cet élève avait apparemment compris les « règles du jeu » et n’était pas content lorsque son professeur essayait de l’inciter à réfléchir de manière plus approfondie. Il s’accrochait à un modèle d’apprentissage par transmission, reposant sur des figures d’autorité.

Au contraire, les élèves doivent comprendre que l’apprentissage provient de nombreuses sources, notamment de leurs expériences, de leurs pairs et de leur propre réflexion, autant que de figures d’autorité.

Même si les enseignants et les parents peuvent hésiter à remettre en cause leur propre autorité, ils rendent un mauvais service aux élèves lorsqu’ils ne les préparent pas à remettre en question les figures d’autorité et à aller au-delà.

Pour aider les élèves à changer leur façon de penser, les enseignants peuvent leur demander de réfléchir à la question suivante : « Pourquoi le fait d’apprendre à partir de sources multiples peut-il vous aider à mieux comprendre la complexité et les nuances d’un concept ? »

Changer nos croyances sur l’apprentissage

Souvent, les enseignants et les parents pensent que les occasions de faire appel à un raisonnement de haut niveau suffisent à aider leurs élèves à développer de meilleures croyances concernant l’apprentissage.

Mais de telles croyances nécessitent une attention explicite et doivent être prévues dans les cours. Pour ce faire, il convient de poser des questions ciblant des croyances spécifiques, telles que celles mentionnées dans la chacune des sections précédentes.

Les conversations que j’ai pu avoir par ce biais avec les élèves étaient très intéressantes. De plus, aider les enfants à développer des croyances plus solides sur l’apprentissage est peut-être la chose la plus importante que les enseignants puissent faire pour les préparer à l’avenir.

The Conversation

Jerrid Kruse a reçu des financements de la National Science Foundation, du NASA Iowa Space Grant Consortium et de la William G. Stowe Foundation.

ref. Cinq pistes pour éviter les clichés sur l’apprentissage et aider les élèves à progresser – https://theconversation.com/cinq-pistes-pour-eviter-les-cliches-sur-lapprentissage-et-aider-les-eleves-a-progresser-265441

Après l’abattage de milliers de chevaux sauvages, le parc australien du Kosciuszko retrouve peu à peu ses paysages

Source: The Conversation – in French – By David M Watson, Professor in Ecology, Charles Sturt University

Des brumbies, chevaux sauvages d’Australie, dans le parc national du Kosciuszko. Fourni par l’auteur, CC BY-ND

Dans le parc national du Kosciuszko, la diminution de la population de brumbies, les chevaux sauvages, ouvre une chance de restauration pour les écosystèmes fragiles du massif. Celles et ceux qui parcourent le parc au quotidien en voient déjà les premiers effets.


Dans le parc national du Kosciuszko, en pleines Alpes australiennes, le paysage évolue lentement. Des zones de végétation, autrefois rasées par les chevaux, repoussent. Les berges de ruisseaux, longtemps érodées, paraissent moins tassées sur les bords. Les visiteurs croisent aussi moins de chevaux immobiles sur les routes, ce qui représentait un réel danger pour la circulation.

En 2023, en effet, la Nouvelle-Galles du Sud a autorisé l’abattage aérien de chevaux sauvages dans le parc national du Kosciuszko. Et fin novembre, le gouvernement a adopté un projet de loi abrogeant le texte qui reconnaissait aux brumbies ou chevaux sauvages un « statut patrimonial » dans le parc (NDT : ces chevaux, arrivés d’Angleterre avec les premiers colons ont été au centre d’une bataille culturelle culturelle ces dernières années).

Ce changement a supprimé les protections juridiques dont bénéficiaient les chevaux dans le parc, qui les distinguaient des autres espèces introduites comme les cerfs, les porcs, les renards et les lapins. Désormais, ils sont traités en Australie de la même manière que les autres espèces invasives, rétablissant une cohérence dans la gestion de leur impact sur les paysages.

La dernière enquête estime qu’environ 3 000 chevaux subsistent dans le parc national du Kosciuszko, contre quelque 17 000 il y a un an. Plus de 9 000 chevaux ont été abattus depuis 2021.

Le plan de gestion actuellement en vigueur prévoit de conserver 3 000 de ces chevaux, un compromis entre protection des écosystèmes et sauvegarde de la valeur patrimoniale de ces animaux. Il doit s’appliquer jusqu’à la mi-2027.

Quels sont les effets environnementaux de la réduction du nombre de chevaux à Kosciuszko ? Et à quoi le parc pourrait-il ressembler à l’avenir ?

Un étalon se tenant dans une tourbière alpine à sphaignes
Un étalon se tenant dans une tourbière alpine à sphaignes.
Fourni par l’auteur, CC BY-ND

Les dégâts

Depuis des décennies, les chevaux sauvages constituent une source majeure de dégradations écologiques dans les paysages alpins du Kosciuszko. Leur impact dans ces milieux d’altitude fragiles s’est particulièrement accru au cours de la dernière décennie, période pendant laquelle leur population a augmenté de manière incontrôlée.

Des études empiriques et des analyses d’images satellites montrent que les brumbies réduisent la couverture végétale, dégradent la structure des sols et endommagent les berges des cours d’eau, les tourbières et les marais alpins – des sols riches en carbone formés sur des dizaines de milliers d’années.

Une partie de ces dégâts résulte de leur alimentation, fondée sur des graminées et des plantes herbacées alpines à croissance lente. Un cheval consomme généralement l’équivalent de 2 % de sa masse corporelle par jour, soit environ 8 kilogrammes quotidiens. À titre de comparaison, le plus grand herbivore indigène des hauts plateaux, le kangourou gris de l’Est, consomme environ 600 grammes par jour, c’est 13 fois moins.

Mais l’essentiel des dégâts est causé par leurs sabots. Les chevaux sauvages parcourent jusqu’à 50 kilomètres par jour, et leurs sabots durs écrasent les couches de mousses à sphaignes, compactant en profondeur les sols tourbeux. Ces plantes et ces sols fonctionnent normalement comme des éponges à restitution lente, stockant l’eau de fonte des neiges et alimentant les cours d’eau tout au long de l’été. Et contrairement aux wombats, aux kangourous et à d’autres espèces indigènes, les chevaux sauvages se déplacent en file indienne, traçant de profonds sentiers qui quadrillent les prairies alpines et les assèchent.

Ces transformations affectent l’ensemble de l’écosystème. Les scinques alpins, les rats à dents larges, les grenouilles corroboree, les phalangers pygmées des montagnes et les poissons indigènes dépendent tous d’une végétation dense, de tapis de mousse intacts ou de cours d’eau exempts de sédiments – soit précisément les éléments que les chevaux dégradent.

Un groupe de chevaux sauvages traversant une rivière dans le parc national de Kosciuszko
Un groupe de chevaux sauvages traversant une rivière dans le parc national de Kosciuszko.
Fourni par l’auteur, CC BY-ND

Les cours d’eau ont été particulièrement touchés. Les Alpes australiennes fournissent près d’un tiers des eaux de surface qui alimentent le bassin Murray-Darling (NDT : le plus vaste bassin hydrographique d’Australie), mais le piétinement des chevaux le long des cours d’eau trouble des rivières jusque-là limpides et déstabilise les apports lents et réguliers dont dépendent ces bassins versants.

Ces impacts ne se limitent pas au parc. Ces dernières années, de nombreux chevaux ont gagné des zones voisines, notamment des forêts domaniales, où leurs perturbations s’ajoutent aux effets de l’exploitation forestière commerciale et mettent en danger les visiteurs et les campeurs.

Si l’attention s’est surtout concentrée sur les effets des brumbies au Kosciuszko et, plus largement, dans les écosystèmes alpins, près d’un demi-million de chevaux sauvages affectent les paysages à l’échelle de toute l’Australie, les forêts tropicales claires et les zones semi-arides étant les plus durement touchées.

Une berge de ruisseau, dont le sol tourbeux a été érodé par le passage des chevaux
Une berge de ruisseau, dont le sol tourbeux a été érodé par le passage des chevaux.
Fourni par l’auteur, CC BY-ND

Ce que nous avons observé jusqu’à présent

Nous avons passé beaucoup de temps dans le parc au cours de l’année écoulée et avons commencé à remarquer de petits changements dans les hauts plateaux, cohérents avec ce que l’on pourrait attendre du programme de contrôle des animaux sauvages.

Nous voyons moins de chevaux lors de nos journées sur le terrain. Dans les zones régulièrement piétinées, de petites poches de végétation réapparaissent sur les surfaces dénudées. Même certaines berges, érodées de longue date, paraissent plus souples sur les bords.

Ces observations restent strictement anecdotiques et ne constituent pas des preuves formelles. Mais elles suggèrent un paysage qui commence à se « réoxygéner » à mesure que la pression diminue. Il y a aussi un aspect sécuritaire. Quiconque circule sur les routes alpines connaît la surprise, au sortir d’un virage dans les eucalyptus, de se retrouver nez à nez avec un cheval, voire un troupeau, sur le bitume. Moins de chevaux signifie moins de ces rencontres dangereuses pour les chercheurs, le personnel des parcs nationaux et les visiteurs.

Le retour progressif

Avec beaucoup moins de chevaux dans les hauts plateaux, la pression commence à diminuer. À mesure que le piétinement diminue, les tourbières et les marais devraient commencer à se régénérer et à retenir l’eau plus longtemps. Les tapis de mousse repousseront et d’autres plantes productrices de tourbe pourront s’implanter à nouveau dans des sols qui ne sont plus constamment compactés et surpâturés.

Moins de pâturage signifie également que les herbes alpines, les carex et les graminées des neiges retrouveront de l’espace pour se développer. Les sols nus vont se stabiliser, les berges des cours d’eau se rétablir et les lits des ruisseaux commencer à se dégager.

Un ruisseau alpin sous la chaîne principale dans le parc national de Kosciuszko
Un ruisseau alpin sous la chaîne principale dans le parc national de Kosciuszko.
Fourni par l’auteur, CC BY-ND

Ces améliorations se répercutent sur l’ensemble de l’écosystème : des sols plus stables et une végétation plus dense créent un habitat plus favorable aux grenouilles, aux scinques, aux petits mammifères et aux invertébrés qui dépendent d’environnements alpins frais, humides et structurés.

La récupération prendra du temps – des décennies, et non des mois. Des études empiriques à long terme seront indispensables pour suivre les changements et identifier les zones du parc où des efforts de restauration ciblés seront nécessaires pour accélérer le rétablissement.

Enfin, une vraie chance

Rien de tout cela ne se produira en un claquement de doigts. Les écosystèmes alpins se régénèrent lentement, et des décennies de dégâts ne peuvent pas être effacées du jour au lendemain. Les courtes saisons de croissance font que les plantes repoussent progressivement, et non par à-coups. De nombreuses pentes et berges de ruisseaux portent encore les cicatrices du pâturage bovin plus de 60 ans après le départ du bétail. Les perturbations perdurent ici pendant des générations.

La diminution du nombre de chevaux n’est qu’un début, mais c’est une étape essentielle. Et désormais – avec moins de chevaux sur le terrain et la suppression des barrières légales – le parc du Kosciuszko dispose enfin d’une voie réaliste vers la restauration. La prochaine décennie déterminera combien de son fragile patrimoine alpin pourra finalement être retrouvé.

Le fragile écosystème alpin du parc national de Kosciuszko
Le fragile écosystème alpin du parc national de Kosciuszko.
Fourni par l’auteur, CC BY-ND

The Conversation

David M. Watson reçoit des financements de recherche du gouvernement fédéral (via l’ARC, le DAFF, le DCCEEW) et siège aux conseils d’administration du Holbrook Landcare Network et des Great Eastern Ranges. Il a exercé deux mandats au sein du Comité scientifique des espèces menacées de la Nouvelle-Galles du Sud, avant de démissionner lorsque la Wild Horse Heritage Act est entrée en vigueur en juin 2018.

Patrick Finnerty est actuellement directeur pour les carrières émergentes en écologie à l’Ecological Society of Australia, coordinateur des jeunes chercheurs à l’Australasian Wildlife Management Society, et membre du conseil de la Royal Zoological Society of NSW. Il reçoit des financements de l’Australian Research Council.

ref. Après l’abattage de milliers de chevaux sauvages, le parc australien du Kosciuszko retrouve peu à peu ses paysages – https://theconversation.com/apres-labattage-de-milliers-de-chevaux-sauvages-le-parc-australien-du-kosciuszko-retrouve-peu-a-peu-ses-paysages-272905

Cyclone Senyar: Why hazards continue to turn into disasters in Indonesia

Source: The Conversation – Canada – By Lisa Hiwasaki, Assistant Professor, Management of International Cooperation and Humanitarian Action, Université Laval

Weeks after Cyclone Senyar made landfall in northern Sumatra, Indonesia, the province of Aceh continues to struggle. The cyclone passed through the Strait of Malacca in late November, bringing heavy rains and causing widespread flooding in parts of Indonesia, Malaysia and Thailand. More than 500 people were killed and 250,000 people displaced in Aceh alone.

The cyclone’s unusually high death toll and catastrophic impacts have been attributed to a range of factors, including warming ocean temperatures due to climate change, deforestation and other environmental changes, Aceh’s unique geographical and topographical setting and how rarely cyclones occur near the equator.

What’s missing from the discussion is the root cause of why Aceh was ill-prepared for the hazard. Like many other regions in the Global South, Aceh’s vulnerability can be traced back to colonialism, which created an inequitable distribution of power, wealth and resources. Post-colonial development continues to reinforce it.

The impact of Cyclone Senyar has drawn parallels to the 2004 Aceh tsunami that devastated the province and surrounding areas. Since then, disaster preparedness in Aceh has come a long way. Yet the aftermath of Senyar suggests that disaster preparedness efforts have not tackled Aceh’s underlying vulnerabilities.

Indonesia’s national meteorological agency gave multiple warnings of the hazard well in advance. But neither the national agency responsible for disaster management, the National Agency for Disaster Countermeasure, nor the Aceh Provincial Disaster Management Agency were able to translate warnings into effective action or effectively lead emergency response efforts. Such institutional failures are among the challenges that contribute to vulnerability in Aceh.

In our ongoing research among coastal communities in Aceh, we explore how their livelihoods have been impacted by external shocks, as well as the diverse ways they have adapted to navigate these stresses.




Read more:
Death and devastation: why a rare equatorial cyclone and other storms have hit southern Asia so hard


The colonial roots of Aceh’s vulnerability

Starting in the late 16th century, the Dutch colonial government established infrastructure and policies to facilitate resource extraction in Indonesia. The focus of European colonizers was on the eastern part of the archipelago to control the spice trade in the Maluku region. However, it was in Aceh that the Dutch spent the most resources to conquer.

The Dutch East India company opened the port of Kuala Langsa in 1907, in the same area where Cyclone Senyar made landfall. That was followed by large-scale investment in rubber and palm oil plantations. Colonialists supported top-down governance and implemented policies that gave lasting economic and political advantages to those who aligned themselves with the Dutch.

An example is the Ethische politiek (Ethical Policy); among other things, it provided educational opportunities to local elites with the aim of helping the Dutch lead the colony. Local elites were also given land that had previously been communal, to expand agriculture and exploit natural resources, creating divisions within the Acehnese.

Colonial rule also had a lasting impact on the natural environment: highly biodiverse forests were converted to monocrop plantations, ports were expanded to accommodate larger ships and both land and seas were exploited for resources.

Post-independence pressures

Post-independence governments have maintained the top-down institutions put in place by the Dutch. They have also emphasized a continued economic focus on extractive industries, such as pepper, copra and petroleum to fuel Indonesia’s rapid economic growth. These coupled together continue to have devastating impacts on the environment and on the livelihoods of the communities.

In the 1970s, communities in Kuala Langsa, a village in the city of Langsa along Aceh’s east coast, shifted their livelihoods to intensive tiger prawn aquaculture as part of the push to develop marine fisheries under then-president Suharto’s “New Order” political economy regime.

However, a viral disease outbreak led to the collapse of the tiger prawn industry in the early 1990s. Intensive prawn aquaculture significantly degraded the coastal mangrove forests and reduced water quality. That, in turn, undermined the viability of small-scale fisheries that local communities had traditionally relied on.

The conflict between the government and separatists in Aceh from 1976 to 2005 led to an influx of migrants to Kuala Langsa from other parts of the province, putting additional pressures on the environment.

The 2004 tsunami destroyed many mangrove forests along Langsa’s coastline, further negatively affecting the livelihoods of communities that depended on shrimp, crab and fish living in the mangroves.

Policy decisions increase vulnerability

The hazard that struck Langsa and other parts of Aceh did not turn into such a devastating disaster due to climatic and geophysical factors alone. Hazards turn into disasters due to decisions made by those in power that make people vulnerable.

Between 1990 and 2024, almost 160,000 hectares of land was deforested to make way for palm oil monoculture plantations under permits issued by the Ministry of Forestry. Land converted into monoculture plantations loses its capacity to absorb rainwater, turning torrential rain into runoff that can create landslides. The forest on which communities depended for fruits such as durian, mangoes, rambutan and medicinal plants were impacted, affecting local incomes and sources of food, as well as their local knowledge associated with them.

Aceh’s vulnerability stems from environmental degradation from rampant resource extraction, instability and displacement due to armed conflict, top-down, centralized decision-making by the government and weak institutions stemming from poor governance and corruption.

Measures to strengthen disaster preparedness in Aceh have not tackled the region’s underlying vulnerabilities. Oftentimes, projects meant to promote resilience and development do not address the factors and processes that decrease the vulnerability of the most marginalized.

Disaster contingency plans continue to focus on geological hazards instead of taking a multi-hazard approach. These plans have not been successful in strengthening preparedness of institutions responsible for reducing disaster risk.

As the fourth-most flood-prone region in Indonesia, local and provincial authorities in Aceh need to prepare for extreme weather events so future events like Cyclone Senyar do not wreak such havoc.

As climate change increases the frequency and intensity of storms, it is imperative that disaster risk reduction efforts centre on reducing vulnerability and social justice. Equitable distribution of wealth, power and resources can only be realized when local and Indigenous knowledge is acknowledged to help build sustainable communities.

The Conversation

Lisa Hiwasaki has received funding from the Social Sciences and Humanities Research Council of Canada.

Haekal A. Haridhi does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Cyclone Senyar: Why hazards continue to turn into disasters in Indonesia – https://theconversation.com/cyclone-senyar-why-hazards-continue-to-turn-into-disasters-in-indonesia-272242