España suspende en formación emprendedora: por qué es importante y cómo mejorar

Source: The Conversation – (in Spanish) – By Pau Sendra Pons, Profesor de Contabilidad, Universitat de València

insta_photos/Shutterstock

Crear empleo, crecer económicamente, estimular la innovación, atraer inversión o aumentar la competitividad son objetivos comunes y recurrentes de cualquier economía mundial. Aunque las recetas para lograrlo varíen, hay un elemento que contribuye de manera significativa a conseguirlos: el emprendimiento, entendido como la puesta en marcha de proyectos empresariales basados en ideas innovadoras orientadas a la creación de valor.

Pero si preguntamos a cualquier niño o niña qué es lo que quieren ser de mayores, “emprendedor” o “emprendedora” no suele ser una respuesta habitual. Y sin embargo, es importante darles a conocer esta opción profesional y animarles a tenerla en cuenta.

Lo que se conoce como “formación emprendedora” –toda aquella que ayuda a una persona a convertir una idea de negocio innovadora en un proyecto empresarial real– pone al talento joven frente a un itinerario profesional que muchos aún no se habían planteado recorrer. En España, pese a los avances alcanzados en los últimos años, los jóvenes todavía no muestran una preferencia clara por emprender frente a otras alternativas de empleo por cuenta ajena.

Por otro lado, esta formación les dota de competencias y habilidades que, con independencia de que finalmente emprendan o no, favorecen una forma de trabajar ágil, resolutiva y alineada con las exigencias del entorno actual.

Suspensos en formación emprendedora

En España la formación emprendedora sigue siendo una asignatura pendiente: en una escala de 1 a 10, la educación y formación emprendedora en la etapa escolar apenas llega a un 2,6 según la valoración experta. Su evolución no está siendo muy prometedora: de un aprobado ajustado (5,1) en 2022 se descendió a un preocupante 2,1 en 2023, seguido del ligero avance citado.

En la etapa universitaria y de formación profesional, la puntuación alcanza un 5,2, una mejora notable respecto al 4,3 de 2023, y sigue una tendencia claramente ascendente. Pese a este avance, se sitúa lejos de niveles considerados sólidos. De hecho, el 68,4 % de los universitarios afirma no haber asistido a cursos de emprendimiento.

Valoración de los expertos (1-10) de la educación y formación emprendedora en la etapa escolar y postescolar.
Fuente: Informe Global Entrepreneurship Monitor: datos sobre España 2024-25.

Aun así, el emprendimiento ha ganado relevancia dentro de la educación superior en los últimos años: el 92 % de las universidades españolas desarrollan iniciativas para fomentarlo, más del 75 % de las universidades públicas cuentan con estructura propia en este ámbito y casi el 60 % dispone de recursos destinados específicamente a esas acciones.

Situación parecida en el resto del mundo

Los países de la Unión Europea obtienen resultados ligeramente superiores a los de España en la formación emprendedora escolar. En cambio, se sitúan por debajo en la formación postescolar: España alcanza un 5,2, frente al 4,5 de la media europea.

¿Y a escala mundial? Tanto en la etapa escolar como en la postescolar, los resultados son heterogéneos y en ningún caso superan el 6,5 en la valoración experta de la formación emprendedora escolar ni el 7,1 en la postescolar.

Formación y educación emprendedora escolar en el mundo según la National Expert Survey de GEM para 2024. Ilustración creada por el Banco Mundial.
GEM National Expert Survey (https://www.gemconsortium.org/data/key-nes).
Formación y educación emprendedora postescolar en el mundo según la National Expert Survey de GEM para 2024. Ilustración creada por el Banco Mundial.
GEM National Expert Survey (https://www.gemconsortium.org/data/key-nes)

Ahora bien, aunque la formación es relevante, no es el único condicionante: la infraestructura comercial de un país, su cultura, la facilidad en el acceso a financiación o la simplificación burocrática, entre otros aspectos, también influyen de forma notable y determinan que unos países presenten mayores tasas de emprendimiento que otros.




Leer más:
Los retos del empleo juvenil en España


¿Un talento innato?

La capacidad de emprender no es algo con lo que se nazca, pero tampoco depende solo de la formación que se reciba. Es el resultado de una combinación de predisposiciones personales, experiencias, aprendizajes y contexto.

La educación primaria, secundaria y superior tienen un papel destacado en dar a conocer el emprendimiento como vocación profesional y, a su vez, en dotar al estudiantado de las herramientas, los conocimientos y las destrezas para poder decantarse por esa opción.

Favorecer la formación emprendedora

Integrar la formación emprendedora en la educación escolar supone introducir desde etapas tempranas cuestiones clave como la innovación, la generación de valor compartido, la creatividad, el pensamiento crítico, la toma de decisiones en contextos de incertidumbre y la iniciativa personal. Existen varias formas de enseñar emprendimiento: de manera transversal, como asignatura obligatoria o como optativa. Integrarlo transversalmente en el currículum representa el enfoque más extendido en etapas tempranas a nivel europeo.




Leer más:
Educación para emprendedores: ¿qué es el enfoque 360?


En la educación superior, lo fundamental ahora es:

  • Consolidar buenas prácticas, reforzando e institucionalizando programas de formación y asesoramiento dirigidos al talento emprendedor universitario.

  • Dotar de mayores recursos, incrementando no solo la financiación, sino también la disponibilidad de espacios seguros de aprendizaje y de infraestructura tecnológica.

  • Comunicar bien lo que hay disponible, haciendo visible la estrategia emprendedora de los centros, su propósito y el alcance esperado de sus iniciativas. Este empeño requiere el compromiso del sector educativo, de los decisores políticos y, en definitiva, de la sociedad.

Todo ello desde un enfoque multidisciplinar, promoviendo equipos de trabajo en los que participe estudiantado de distintas áreas de conocimiento. A mayor diversidad de perfiles, mayor facilidad para identificar oportunidades de emprendimiento que resulten exitosas.

The Conversation

Pau Sendra Pons no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. España suspende en formación emprendedora: por qué es importante y cómo mejorar – https://theconversation.com/espana-suspende-en-formacion-emprendedora-por-que-es-importante-y-como-mejorar-272925

Violencia vicaria: ¿acaso son los niños “menos” víctimas que sus propias madres?

Source: The Conversation – (in Spanish) – By Lourdes Gaitán Muñoz, Co-directora revista científica complutense Sociedad e Infancias, Universidad Complutense de Madrid

Oleksandra Naumenko/Shutterstock

La figura de Janusz Korckzak es reconocida como una de las más influyentes en lo que se refiere a la consideración de niños y niñas como seres humanos, merecedores de amor, atención, respeto y derechos.

Resulta difícil definir a Korczak en una sola dimensión: médico pediatra, pedagogo, activista, locutor de radio, escritor… Escribir para él era una costumbre en la que se inició desde la escuela y siguió practicando hasta la víspera de su muerte.

Sin embargo, muy poco de su extensa obra está traducido al español, lo que dificulta, pero no impide, que sus ecos lleguen a los ámbitos de la pedagogía y la educación de tiempo en tiempo.

Existe en especial un pequeño texto titulado El derecho del niño al respeto (1928) en el que el autor vuelca las ideas fundamentales que surgen de sus largos años dedicados a observar, cuidar y tratar de comprender a los niños. En este texto podemos encontrar reflexiones como la siguiente, referida a la manera en que las personas adultas perciben a las niñas y niños:

Es como si hubiera dos tipos de vida: una seria y respetada, otra tolerada y menos valorada. Decimos que son personas del futuro, futuros trabajadores, futuros ciudadanos. Que lo serán, que su vida empezará de verdad más tarde, que no es seria hasta el futuro. Permitimos con indulgencia que se entretengan, pero estamos más cómodos sin ellos.

Nos vienen estas frases a la memoria a propósito del anteproyecto de Ley Orgánica de medidas en materia de violencia vicaria. Presentado el pasado septiembre por el Ministerio de Igualdad de España, tipifica la violencia vicaria como delito en el marco de la protección contra la violencia de género. La creadora del término, Sonia Vaccaro, define esta violencia “como su nombre indica: una violencia secundaria a la víctima principal, que es la mujer”.

Víctimas principales y secundarias

Más allá de la dudosa división entre víctimas principales (las mujeres) y víctimas secundarias (las personas sobre quienes ejerce violencia el maltratador), este término ha encontrado fácil acomodo en la costumbre de encerrar fenómenos complejos en etiquetas de fácil repetición y recuerdo –tan apreciadas por la cultura mediática– y que rápidamente se instalan en el pensamiento colectivo, llegando a convertirse en fenómenos en sí mismos.

Siendo tan grave por sí toda forma de violencia infligida a las mujeres, no necesitaría desviar el foco de la gravedad de las personas que sufren en su propio ser y en su propia carne esa violencia, es decir, las hijas e hijos de la mujer a quien se desea causar el mayor daño posible.

La doctrina jurídica y el propio diccionario de la RAE ya contienen la definición de figuras que ponen nombre a los delitos cometidos contra los propios hijos, o contra otros niños, con resultado de muerte. Son conceptos como “filicidio”, “neonaticidio” o “infanticidio”, que cuentan con décadas de investigación empírica y perfiles criminológicos bien estudiados. Del mismo modo lo están los conceptos de abuso o maltrato psicológico o físico ejercidos sobre niños y niñas.

El pensamiento, las prácticas y las enseñanzas de Janusz Korczak fueron una de las fuentes de inspiración de la primera Declaración Universal de los Derechos del Niño –la conocida como Declaración de Ginebra, de 1924–, si bien él mismo la criticaba por su indefinición y falta de compromiso. Mas esta indefinición quedó superada por la Convención sobre los Derechos del Niño de las Naciones Unidas, de 1989, que establece sin dudas el “principio del superior interés”. Esta expresión debe interpretarse como que, ante cualquier situación, es prioritario velar por el bienestar y la protección del niño, niña o adolescente, por encima de cualquier otro interés.

Los derechos de los niños deben funcionar de manera independiente

Esto significa que los derechos de los niños deben tomarse en consideración de forma independiente, sin quedar subordinados a los derechos, necesidades o intereses de las personas adultas, sean estas madres, padres, autoridades o instituciones.

El derecho al propio nombre, a ser nombrado como protagonista de la muerte propia, es un derecho que no puede ser negado a los niños cuando son víctimas de asesinato o maltrato. Son víctimas directas de esa agresión mortal, como lo son de otras formas de abuso y maltrato que hace tiempo fueron reconocidas por las leyes como tales.

Empatizar con el terrible dolor que sufre una madre a la que le arrebatan a sus hijos de manera trágica, no justifica que se desvíe la atención sobre la gravedad de un hecho, el infanticidio, que nunca es menos terrible que el feminicidio. Tristemente, la utilización del término “violencia vicaria” parece hacerle el juego al victimario, en cuanto que se reafirma la subordinación de la infancia, a la que se considera como un medio y no como un fin en sí misma, en el estricto sentido de la ética kantiana.

La asimilación de un término como “violencia vicaria” por parte de una sociedad bien intencionada y sensible frente a la violencia contra las mujeres no deja de representar la manifestación de un adultismo rampante; ese que considera a la persona adulta como superior, como medida de todas las cosas, mientras los niños y niñas son vistos como cargas que se acarrean, propiedades que se reclaman o daños colaterales que conlleva la violencia en las relaciones entre personas adultas.

Es consecuencia de admitir que, como decía Korczak, habría dos formas de vida: una seria y respetada (la de las mujeres adultas) y otra tolerada y menos valorada (la de los niños y niñas).

The Conversation

Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.

ref. Violencia vicaria: ¿acaso son los niños “menos” víctimas que sus propias madres? – https://theconversation.com/violencia-vicaria-acaso-son-los-ninos-menos-victimas-que-sus-propias-madres-270546

Doscientos días de verano

Source: The Conversation – (in Spanish) – By Armand Hernández, Investigador Ramón y Cajal en Ciencias de la Tierra y del Agua, Centro Interdiscilplinar de Química e Bioloxía (CICA), Universidade da Coruña

Massimo Todaro/Shutterstock

Seguramente todos hemos comentado lo caluroso y largo que fue el pasado verano. En el ascensor, en la cola del supermercado, en una sala de espera o mientras aguardamos a que nuestros hijos salgan del colegio; el “verano eterno” ha sido el tema estrella de muchas conversaciones cotidianas.

En Europa se empieza a sentir que el verano no termina. Las primaveras se acortan, los otoños llegan tarde y el frío del invierno, aunque puede ser extremo, dura poco. No es una impresión pasajera: la comunidad científica lleva tiempo observándolo, y ahora sabemos que el Viejo Continente se encamina hacia un cambio estacional sin precedentes en la historia humana.

En un estudio reciente, analizamos la evolución del verano durante los últimos 10 000 años y mostramos que, hace unos 6 000 años, esta estación llegó a extenderse durante casi 200 días. Entonces, las causas fueron naturales. Hoy el escenario es parecido, pero con una diferencia fundamental: el calentamiento actual tiene origen antropogénico y avanza a un ritmo muy superior al de aquel periodo.

Un archivo climático en el fondo de los lagos

Para reconstruir esta evolución, estudiamos las llamadas varvas, láminas de sedimento depositadas estacionalmente en algunos lagos. Cada varva suele incluir dos capas, una asociada al verano y otra al invierno. Midiendo su grosor es posible reconstruir, año a año, la duración e intensidad de cada estación.

El estudio de estas laminaciones en lagos europeos revela un patrón claro: los veranos del Holoceno medio (hace entre 8 000 y 4 000 años aproximadamente) duraban de media 200 días, casi un mes más que a principios del siglo XX.

¿Qué provocó esos veranos tan largos? La explicación principal está en el gradiente latitudinal de temperatura, la diferencia térmica entre el ecuador y el Ártico.

Cuando el Ártico se calienta más rápido que las zonas tropicales, ese gradiente se debilita y la circulación atmosférica se ralentiza. El chorro polar, la corriente de vientos rápidos que rodea el hemisferio norte, pierde intensidad y comienza a ondularse. Esta configuración favorece los llamados bloqueos atmosféricos: situaciones en las que un anticiclón estacionario permanece sobre Europa durante semanas, desviando las borrascas atlánticas y exponiendo al continente a aire cálido sostenido.




Leer más:
Fusión extrema en el Ártico: el nuevo rostro del deshielo acelerado por el cambio climático


Las consecuencias son veranos más largos y episodios más frecuentes de olas de calor, sequías y lluvias torrenciales al inicio del otoño. Según nuestra investigación, existe una relación estadística sólida entre la duración del verano y la intensidad del gradiente térmico: cerca de dos tercios de la variabilidad estacional del Holoceno se explica por cambios en este gradiente. Por cada grado de debilitamiento, Europa suma unos seis días adicionales de verano.

Lecciones del pasado

Lo preocupante es que este mecanismo está reactivándose hoy en día. La comparación con el pasado aporta perspectiva, pero también urgencia. Durante el Holoceno, las modificaciones del gradiente se debieron a variaciones orbitales o al retroceso de grandes masas de hielo, procesos lentos y graduales. Hoy, el motor del cambio es el calentamiento global inducido por la actividad humana, y la atmósfera responde con rapidez.

El Ártico se calienta unas cuatro veces más rápido que el resto del planeta, un fenómeno conocido como “amplificación ártica”, lo que reduce el gradiente térmico a una velocidad sin precedentes en los últimos diez milenios.




Leer más:
El Ártico, un termómetro del cambio climático


Desde los años ochenta, los veranos europeos muestran una clara tendencia a alargarse, confirmada por los registros meteorológicos. También lo reflejan los sistemas naturales: plantas que florecen antes, insectos que aparecen antes de lo habitual y aves migratorias que adelantan sus desplazamientos. El reloj climático de Europa está cambiando, y la diferencia principal respecto al pasado es la velocidad a la que ocurre.

Si las emisiones continúan al ritmo actual, Europa podría sumar hasta 42 días más de verano para el año 2100. Esto supondría veranos fuera de los umbrales naturales bajo los que se ha desarrollado la humanidad. En escenarios más optimistas, el aumento sería menor, pero aun así relevante: unos 13 días adicionales.

Aunque estas cifras puedan parecer pequeñas, dos semanas extra de verano extremo tienen consecuencias directas: mayor mortalidad por calor, estrés hídrico en cultivos, incendios más frecuentes, alteraciones en ecosistemas sensibles y presión añadida sobre las infraestructuras energéticas. A ello se suma el impacto en los inviernos que, aunque cada vez con más eventos extremos, duran poco, lo que afecta a la acumulación de nieve y la recarga de acuíferos, generando procesos de retroalimentación.

Una ventana al mañana

Aunque no existan predicciones exactas del futuro, aún es posible influir en su trayectoria. Cada decisión para reducir nuestras emisiones, cada avance tecnológico, cada política climática orientada a la neutralidad en carbono contribuye a frenar esta tendencia.

Contamos con herramientas científicas sólidas, sociedades más conscientes y una innovación climática en pleno desarrollo. El mismo conocimiento que permite reconstruir los veranos del Holoceno ayuda hoy a anticipar riesgos, transformar sistemas energéticos, restaurar ecosistemas y diseñar soluciones que hace poco parecían inalcanzables. La historia climática nos advierte. Queda por ver si sabremos escucharla.

The Conversation

Armand Hernández recibe fondos del Ministerio de Ciencia e Innovación (España).

Celia Martin Puertas recibe fondos de UK Research and Innovation

ref. Doscientos días de verano – https://theconversation.com/doscientos-dias-de-verano-270363

Beauty in ordinary things: why this Japanese folk craft movement still matters 100 years on

Source: The Conversation – Global Perspectives – By Penny Bailey, Lecturer in Japanese Studies, The University of Queensland

A thrown tea bowl made by Hamada Shōji. Wikimedia, CC BY-SA

On January 10 1926, Yanagi Sōetsu and the potters Hamada Shōji and Kawai Kanjirō sat talking excitedly late into the night at a temple on Mt Kōya, in Japan’s Wakayama Prefecture.

They were debating how best to honour the beauty of simple, everyday Japanese crafts. Out of that conversation came a new word, mingei, and a plan to found The Japan Folk Crafts Museum in Tokyo. Later, Yanagi would describe what emerged that night as “a new standard of beauty”.

A view of the front of a traditional Japanese building with a dark roof and large wooden doors. There is a short stone fence in the foreground.
The Japan Folk Crafts Museum in Meguro Ward, Tokyo, is dedicated to collecting, preserving, researching, and exhibiting the hand-crafted works of the Mingei movement.
Wikimedia, CC BY-SA

A century on, Yanagi’s ideas feel strikingly relevant. His message was simple: beautiful things need not be rare or expensive – they can be well-designed objects that we use every day.

In an age of fast fashion, disposable products and growing concerns about waste, his approach offers an important reminder to think about the objects we choose to have around us.

How mingei was born

Yanagi (1889–1961) was an art critic and collector who believed beauty was not solely the preserve of famous artists or rare treasures. He and his friends were drawn, instead, to well-made and functional objects: bowls, baskets, fabrics and tools created for daily use, rather than to display.

A black and white image of a Japanese man in a traditional robe, holding a bowl.
Yanagi was an art critic, philosopher and founder of the Mingei movement.
Wikimedia

To Yanagi, these simple things shaped the rhythm of daily life – yet had gone unnoticed in a world rushing toward modern mass production.

The attraction came from looking closely. Yanagi described it as “seeing with one’s own eyes before dissecting with the intellect”. He admired the work of anonymous craftspeople who repeated familiar forms, refining them through long periods of practice.

These makers did not seek fame; their goal was to create objects that balanced beauty and function so completely that they were inseparable.

Japan in the 1920s was changing fast. Mass-produced goods were replacing handmade ones, and many local craft traditions were in decline. Yanagi worried this shift would erase skills and weaken the bond between beauty and everyday life. Mingei aimed to bring this connection back into view.

Yanagi, Hamada and Kawai agreed they needed a new word for the kind of objects they wanted to celebrate. From minshuteki kōgei, meaning “craft of the people”, they coined the shorter term mingei. It describes objects made for use rather than prestige, and by hand rather than by machine. Yanagi believed these objects formed the true heart of Japanese craft.

A year after their Mount Kōya conversation, the group held their first folk craft exhibition in Ginza. None of the works carried signatures. The exhibition aimed to encourage a new way of looking at humble objects, suggesting that everyday things held artistic value when viewed with care.

Close-up shot of a grey-ish hand-made bowl.
A thrown bowl by Bernard Leach.
Wikimedia, CC BY

How mingei shaped Japanese design

Yanagi’s ideas went on to shape Japanese craft and design throughout the 20th century, influencing not only craftspeople but also designers.

His son, Yanagi Sōri, adopted mingei principles in his famous 1954 Butterfly Stool, made from two curved pieces of plywood that meet like wings. Simple, balanced and light, the stool is now an icon of modern design, showing how mingei could take form in new materials and contexts.

A stool made with two curved pieces of wood, against a white background.
The maple veneer Butterfly stool designed by Yanagi Sōri.
David Wong/South China Morning Post via Getty Images

The movement also shaped the work of Hamada and Kawai, and many other makers including Tomimoto Kenkichi, Serizawa Keisuke, Munakata Shikō and the Englishman Bernard Leach. They showed how traditional craft practised with care and humility could remain vital in a rapidly changing world.

Another branch of Yanagi’s legacy emerged with the rise of seikatsu kōgei, or “lifestyle crafts”, in the 1990s. These makers turned to simple, functional objects to reconsider how we live. After Japan’s economic bubble burst in the 1980s, many began to question the habit of buying and discarding.

Why Yanagi’s ideas matter today

The influence of mingei continues in contemporary design. Fukasawa Naoto – one of Japan’s most influential designers and the current director of The Japan Folk Crafts Museum – aims to create objects which work so naturally that they seem to disappear into daily life.

He describes this as “without thought” design: things that feel right in the hand, fit their purpose and do not demand attention. His long collaboration with MUJI, known for its pared-back products, shows how closely his work follows the mingei spirit.

This way of thinking sits in sharp contrast to how many goods are made today. A culture of fast buying and quick disposal has left people feeling disconnected from the act of making, from materials and from the things they own.

An older Japanese man and woman look at some folk art on panels inside a gallery.
Former Japanese Emperor Akihito and Empress Michiko visiting The Japan Folk Crafts Museum, during a 2017 exhibition commemorating the 80th anniversary of the museum.
Yomiuri Shimbun/AP

Mingei offers an alternative way of thinking. It invites us to look closely at the objects we use each day – to notice their shape, feel and purpose. It suggests beauty should be part of everyday life, not an escape from it.

Yanagi believed if we change how we see and choose ordinary things, we might also change how we live. A century later, his call to value simple and well-made objects offers a steady guide through our profit-driven, disposable world.

The Conversation

Penny Bailey does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Beauty in ordinary things: why this Japanese folk craft movement still matters 100 years on – https://theconversation.com/beauty-in-ordinary-things-why-this-japanese-folk-craft-movement-still-matters-100-years-on-269802

Why eating disorders are more common among LGBTQIA+ people and what can help

Source: The Conversation – Global Perspectives – By Kai Schweizer, PhD Candidate in Youth Mental Health, The University of Western Australia; The Kids Research Institute

MDV Edwards/Getty

When people picture someone with an eating disorder, many think of a thin, teenage girl with anorexia nervosa. This stereotype is so pervasive it can feel like a fact.

The reality is that eating disorders affect people of all ages, body sizes, cultures, races, sexes, genders and sexualities. In 2023, around 1.1 million Australians (around 4.5% of the population) were living with an eating disorder.

A growing body of evidence suggests LGBTQIA+ people are particularly vulnerable to developing eating disorders. But we still need more research to understand how and why they affect this group more.

Here’s what we know so far about LGBTQIA+ people’s higher risk – and what treatment actually works for them.

What is an eating disorder?

Eating disorders are serious mental health conditions that affect a person’s eating behaviours. They can harm both physical and mental health.

Anorexia nervosa and bulimia nervosa are the most well-known eating disorders, but the most common are actually binge eating disorder (eating a lot in a short amount of time and feeling out of control) and avoidant/restrictive food intake disorder (restricting eating because of sensory sensitivity, lack of appetite, or fear of illness or choking).

Eating disorders can cause damage to a person’s organs, bones, fertility and brain function. People with an eating disorder are up to five times more likely to die early than those without one.




Read more:
What’s the difference between an eating disorder and disordered eating?


How much higher is the risk for LGBTQIA+ people?

Research shows that LGBTQIA+ people have much higher rates of eating disorders than non-LGBTQIA+ people.

For example, in the United States an estimated 9% of the population will experience an eating disorder in their lifetime. But a 2018 survey of LGBTQ young people in the US found rates were significantly higher:

  • 54% reported an eating disorder diagnosis
  • another 21% thought they had an eating disorder, but hadn’t been diagnosed.

Within the LGBTQIA+ community, the risk also varies across different groups:

We don’t have data for asexual people, but we do know that asexual people have poorer body image than their non-asexual peers. So it is likely they also experience higher rates of eating disorders.

Why LGBTQIA+ people face higher risk

Being an LGBTQIA+ person is not a mental illness. There is no evidence of a biological reason why LGBTQIA+ people experience higher rates of eating disorders.

While many factors contribute, two of the most studied risk factors are minority stress and gender dysphoria.

1. Minority stress

Minority stress refers to how discrimination and stigma negatively impact the health of LGBTQIA+ people. This means it is not who they are, but how LGBTQIA+ people are treated that drives their higher risk.

Discrimination can lead LGBTQIA+ people to feel shame about their identities and bodies. Some people try to cope through disordered eating behaviours, which can develop into an eating disorder.

For intersex people, medically unnecessary surgeries in childhood to “normalise” their bodies can cause trauma and shame that can also increase eating disorder risk.

2. Gender dysphoria

Many trans people experience something called gender dysphoria. This is the distress, discomfort or disconnect that can happen when a person’s gender identity doesn’t match their physical body or how others see them. For many trans people, eating disorders can be an attempt to reduce gender dysphoria.

In trans teens, eating disorders often develop as a way to stop puberty when they can’t access puberty blocking medications. For example, restricting food may be a way to try to reduce the appearance of breast tissue or to stop having periods.

What kind of treatment would work?

After a diagnosis, typical eating disorder treatment involves a multidisciplinary team including a doctor, mental health professional and dietitian. Treatment can be provided in the community or in a hospital if someone’s physical health needs close monitoring.

But eating disorder treatment was not designed with LGBTQIA+ people in mind and can sometimes cause harm. LGBTQIA+ people report more negative experiences of treatment compared to the general population.

For example, mirror exposure exercises are a common therapy, where someone with an eating disorder is asked to look in a mirror for prolonged periods to lessen their body image distress. But for some trans people this can worsen their gender dysphoria.

This doesn’t mean treatment can’t help LGBTQIA+ people. It means treatment has to be adapted to ensure it meets their needs.

In practice, this might look like:


If this article raised any concerns for you or someone you know, contact the Butterfly Foundation on 1800 33 4673. You can also contact QLife at 1800 184 527.

The Conversation

Kai Schweizer receives funding from the Australian Government Research Training Program and the Australian Eating Disorder Research and Translation Centre SEED Grants Scheme.

ref. Why eating disorders are more common among LGBTQIA+ people and what can help – https://theconversation.com/why-eating-disorders-are-more-common-among-lgbtqia-people-and-what-can-help-270268

NASA’s Pandora telescope will study stars in detail to learn about the exoplanets orbiting them

Source: The Conversation – USA – By Daniel Apai, Associate Dean for Research and Professor of Astronomy and Planetary Sciences, University of Arizona

A new NASA mission will study exoplanets around distant stars. European Space Agency, CC BY-SA

On Jan. 11, 2026, I watched anxiously at the tightly controlled Vandenberg Space Force Base in California as an awe-inspiring SpaceX Falcon 9 rocket carried NASA’s new exoplanet telescope, Pandora, into orbit.

Exoplanets are worlds that orbit other stars. They are very difficult to observe because – seen from Earth – they appear as extremely faint dots right next to their host stars, which are millions to billions of times brighter and drown out the light reflected by the planets. The Pandora telescope will join and complement NASA’s James Webb Space Telescope in studying these faraway planets and the stars they orbit.

I am an astronomy professor at the University of Arizona who specializes in studies of planets around other stars and astrobiology. I am a co-investigator of Pandora and leading its exoplanet science working group. We built Pandora to shatter a barrier – to understand and remove a source of noise in the data – that limits our ability to study small exoplanets in detail and search for life on them.

Observing exoplanets

Astronomers have a trick to study exoplanet atmospheres. By observing the planets as they orbit in front of their host stars, we can study starlight that filters through their atmospheres.

These planetary transit observations are similar to holding a glass of red wine up to a candle: The light filtering through will show fine details that reveal the quality of the wine. By analyzing starlight filtered through the planets’ atmospheres, astronomers can find evidence for water vapor, hydrogen, clouds and even search for evidence of life. Researchers improved transit observations in 2002, opening an exciting window to new worlds.

When a planet passes in front of its star, astronomers can measure the dip in brightness, and see how the light filtering through the planet’s atmosphere changes.

For a while, it seemed to work perfectly. But, starting from 2007, astronomers noted that starspots – cooler, active regions on the stars – may disturb the transit measurements.

In 2018 and 2019, then-Ph.D. student Benjamin V. Rackham, astrophysicist Mark Giampapa and I published a series of studies showing how darker starspots and brighter, magnetically active stellar regions can seriously mislead exoplanets measurements. We dubbed this problem “the transit light source effect.”

Most stars are spotted, active and change continuously. Ben, Mark and I showed that these changes alter the signals from exoplanets. To make things worse, some stars also have water vapor in their upper layers – often more prominent in starspots than outside of them. That and other gases can confuse astronomers, who may think that they found water vapor in the planet.

In our papers – published three years before the 2021 launch of the James Webb Space Telescope – we predicted that the Webb cannot reach its full potential. We sounded the alarm bell. Astronomers realized that we were trying to judge our wine in light of flickering, unstable candles.

The birth of Pandora

For me, Pandora began with an intriguing email from NASA in 2018. Two prominent scientists from NASA’s Goddard Space Flight Center, Elisa Quintana and Tom Barclay, asked to chat. They had an unusual plan: They wanted to build a space telescope very quickly to help tackle stellar contamination – in time to assist Webb. This was an exciting idea, but also very challenging. Space telescopes are very complex, and not something that you would normally want to put together in a rush.

The Pandora spacecraft with an exoplanet and two stars in the background
Artist’s concept of NASA’s Pandora Space Telescope.
NASA’s Goddard Space Flight Center/Conceptual Image Lab, CC BY

Pandora breaks with NASA’s conventional model. We proposed and built Pandora faster and at a significantly lower cost than is typical for NASA missions. Our approach meant keeping the mission simple and accepting somewhat higher risks.

What makes Pandora special?

Pandora is smaller and cannot collect as much light as its bigger brother Webb. But Pandora will do what Webb cannot: It will be able to patiently observe stars to understand how their complex atmospheres change.

By staring at a star for 24 hours with visible and infrared cameras, it will measure subtle changes in the star’s brightness and colors. When active regions in the star rotate in and out of view, and starspots form, evolve and dissipate, Pandora will record them. While Webb very rarely returns to the same planet in the same instrument configuration and almost never monitors their host stars, Pandora will revisit its target stars 10 times over a year, spending over 200 hours on each of them.

NASA’s Pandora mission will revolutionize the study of exoplanet atmospheres.

With that information, our Pandora team will be able to figure out how the changes in the stars affect the observed planetary transits. Like Webb, Pandora will observe the planetary transit events, too. By combining data from Pandora and Webb, our team will be able to understand what exoplanet atmospheres are made of in more detail than ever before.

After the successful launch, Pandora is now circling Earth about every 90 minutes. Pandora’s systems and functions are now being tested thoroughly by Blue Canyon Technologies, Pandora’s primary builder.

About a week after launch, control of the spacecraft will transition to the University of Arizona’s Multi-Mission Operation Center in Tucson, Arizona. Then the work of our science teams begins in earnest and we will begin capturing starlight filtered through the atmospheres of other worlds – and see them with a new, steady eye.

The Conversation

Daniel Apai is a professor of astronomy, planetary sciences and optical science at the University of Arizona. He receives funding from NASA.

ref. NASA’s Pandora telescope will study stars in detail to learn about the exoplanets orbiting them – https://theconversation.com/nasas-pandora-telescope-will-study-stars-in-detail-to-learn-about-the-exoplanets-orbiting-them-272155

Quand les IA cadrent l’information et façonnent notre vision du monde

Source: The Conversation – in French – By Adrian Kuenzler, Scholar-in-Residence, University of Denver; University of Hong Kong

Selon une étude OpinionWay pour le think tank La villa numeris, publiée le 15 octobre 2025, les Français sont 8 % à préférer l’IA aux médias pour s’informer. Matúš Gocman/Unsplash, CC BY

Les grands modèles de langage façonnent notre perception de l’information, au-delà de l’exactitude ou inexactitude des faits présentés. Dans cette optique, comprendre et corriger les biais de l’intelligence artificielle est crucial pour préserver une information fiable et équilibrée.


La décision de Meta de mettre fin à son programme de fact-checking aux États-Unis a suscité une vague de critiques dans les milieux de la technologie et des médias (NDT : En France, le programme est maintenu). En jeu, les conséquences d’une pareille décision en termes de confiance et de fiabilité du paysage informationnel numérique, en particulier lorsque des plates-formes guidées par le seul profit sont en grande partie laissées à elles-mêmes pour se réguler.

Ce que ce débat a largement négligé, toutefois, c’est qu’aujourd’hui les grands modèles de langage d’intelligence artificielle (IA) sont de plus en plus utilisés pour rédiger des résumés d’actualité, des titres et des contenus qui captent votre attention bien avant que les mécanismes traditionnels de modération des contenus puissent intervenir.

Le problème ne se limite pas à des cas évidents de désinformation ou de contenus préjudiciables qui passeraient entre les mailles du filet en l’absence de modération. Ce qui se joue dans l’ombre, c’est comment des informations factuellement justes peuvent être sélectionnées, présentées et valorisées de façon à orienter la perception du public.

En générant les informations que les chatbots et assistants virtuels présentent à leurs utilisateurs, les grands modèles de langage (LLM) influencent progressivement la manière dont les individus se forgent une opinion. Ces modèles sont désormais également intégrés aux sites d’information, aux plates-formes de réseaux sociaux et aux services de recherche, devenant ainsi la principale porte d’accès à l’information.

Des études montrent que ces grands modèles de langage font bien plus que simplement transmettre de l’information. Leurs réponses peuvent mettre subtilement en avant certains points de vue tout en en minimisant d’autres, souvent à l’insu des utilisateurs.

Biais de communication

Mon collègue, l’informaticien Stefan Schmid, et moi-même, chercheur en droit et politiques des technologies, montrons dans un article à paraître dans la revue Communications of the ACM que les grands modèles de langage présentent un biais de communication. Nous constatons qu’ils peuvent avoir tendance à mettre en avant certaines perspectives tout en en omettant ou en atténuant d’autres. Un tel biais est susceptible d’influencer la manière dont les utilisateurs pensent ou ressentent les choses, indépendamment du fait que l’information présentée soit vraie ou fausse.

Les recherches empiriques menées ces dernières années ont permis de constituer des jeux de données de référence qui mettent en relation les productions des modèles avec les positions des partis avant et pendant les élections. Elles révèlent des variations dans la manière dont les grands modèles de langage actuels traitent ces contenus publics. Le simple choix de la persona (l’identité fictive implicitement assignée au modèle) ou du contexte dans la requête suffit à faire glisser subtilement les modèles actuels vers certaines positions, sans que la justesse factuelle des informations soit remise en cause.

Ces glissements révèlent l’émergence d’une forme de pilotage fondée sur la persona : la tendance d’un modèle à aligner son ton et ses priorités sur ce qu’il perçoit comme les attentes de l’utilisateur. Ainsi, lorsqu’un utilisateur se présente comme militant écologiste et un autre comme chef d’entreprise, un modèle peut répondre à une même question sur une nouvelle loi climatique en mettant l’accent sur des préoccupations différentes, tout en restant factuellement exact dans les deux cas. Les critiques pourront par exemple porter, pour l’un, sur le fait que la loi n’aille pas assez loin dans la promotion des bénéfices environnementaux, et pour l’autre, sur les contraintes réglementaires et les coûts de mise en conformité qu’elle impose.

Un tel alignement peut facilement être interprété comme une forme de flatterie. Ce phénomène est appelé « sycophancy » (NDT : Si en français, le sycophante est un délateur, en anglais il désigne un flatteur fourbe), les modèles disant en pratique aux utilisateurs ce qu’ils ont envie d’entendre. Mais si la « sycophancy » est un symptôme de l’interaction entre l’utilisateur et le modèle, le biais de communication est plus profond encore. Il reflète des déséquilibres dans la conception et le développement de ces systèmes, dans les jeux de données dont ils sont issus et dans les incitations qui orientent leur perfectionnement. Lorsqu’une poignée de développeurs dominent le marché des grands modèles de langage et que leurs systèmes présentent systématiquement certains points de vue sous un jour plus favorable que d’autres, de légères différences de comportement peuvent se transformer, à grande échelle, en distorsions significatives de la communication publique.

Les biais partent des données avec lesquelles ces modèles sont entraînés.

Ce que la régulation peut – et ne peut pas – faire

Les sociétés contemporaines s’appuient de plus en plus sur les grands modèles de langage comme interface principale entre les individus et l’information. Partout dans le monde, les gouvernements ont lancé des politiques pour répondre aux préoccupations liées aux biais de l’IA. L’Union européenne, par exemple, avec l’AI Act et le règlement européen sur les services numériques, cherche à imposer davantage de transparence et de responsabilité. Mais aucun de ces textes n’est conçu pour traiter la question plus subtile du biais de communication dans les réponses produites par l’IA.

Les partisans de la régulation de l’IA invoquent souvent l’objectif d’une IA neutre, mais une neutralité véritable est le plus souvent hors d’atteinte. Les systèmes d’IA reflètent les biais inscrits dans leurs données, leur entraînement et leur conception, et les tentatives pour réguler ces biais aboutissent fréquemment à remplacer une forme de biais par une autre.

Et le biais de communication ne se limite pas à l’exactitude : il concerne la production et le cadrage des contenus. Imaginons que l’on interroge un système d’IA sur un texte législatif controversé. La réponse du modèle est façonnée non seulement par les faits, mais aussi par la manière dont ces faits sont présentés, par les sources mises en avant, ainsi que par le ton et le point de vue adoptés.

Cela signifie que la racine du problème des biais ne réside pas seulement dans la correction de données d’entraînement biaisées ou de sorties déséquilibrées, mais aussi dans les structures de marché qui orientent la conception des technologies. Lorsque seuls quelques grands modèles de langage (LLM) contrôlent l’accès à l’information, le risque de biais de communication s’accroît. Une atténuation efficace des biais suppose donc de préserver la concurrence, de renforcer la responsabilité portée par les utilisateurs et tout en restant ouvert aux différentes conceptions et offres de LLM du côté du régulateur.

La plupart des réglementations actuelles visent soit à interdire des contenus préjudiciables après le déploiement des technologies, soit à contraindre les entreprises à réaliser des audits avant leur mise sur le marché. Notre analyse montre que si les contrôles en amont et la supervision a posteriori peuvent permettre d’identifier les erreurs les plus manifestes, ils sont souvent moins efficaces pour traiter les biais de communication subtils qui émergent au fil des interactions avec les utilisateurs.

Aller au-delà de la régulation de l’IA

Il est tentant de croire que la régulation peut éliminer l’ensemble des biais des systèmes d’IA. Dans certains cas, ces politiques peuvent être utiles, mais elles échouent le plus souvent à traiter un problème plus profond : les incitations qui déterminent les technologies chargées de communiquer l’information au public.

Nos travaux montrent qu’une solution plus durable réside dans le renforcement de la concurrence, de la transparence et d’une participation effective des utilisateurs, afin de permettre aux citoyens de jouer un rôle actif dans la manière dont les entreprises conçoivent, testent et déploient les grands modèles de langage.

Ces orientations sont essentielles car, in fine, l’IA n’influencera pas seulement les informations que nous recherchons et l’actualité que nous consommons au quotidien : elle jouera aussi un rôle déterminant dans la façon dont nous imaginons la société de demain.

The Conversation

Adrian Kuenzler ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quand les IA cadrent l’information et façonnent notre vision du monde – https://theconversation.com/quand-les-ia-cadrent-linformation-et-faconnent-notre-vision-du-monde-272768

Groenland : rester avec les Inuit polaires

Source: The Conversation – in French – By Ludovic Slimak, Archéologue, penseur et chercheur au CNRS, Université de Toulouse

En juin 1951, l’explorateur Jean Malaurie voit surgir de la toundra une immense base militaire américaine, bâtie dans le secret le plus total. Ce choc marque pour lui le début d’un basculement irréversible pour les sociétés inuit. Aujourd’hui, alors que le Groenland redevient un enjeu stratégique mondial, l’histoire semble se répéter. Rester avec les Inuit polaires, c’est refuser de parler de territoires en oubliant ceux qui les habitent.


Le 16 juin 1951, l’explorateur français Jean Malaurie progresse en traîneaux à chiens sur la côte nord-ouest du Groenland. Il est parti seul, sur un coup de tête, avec un maigre pécule du CNRS, officiellement pour travailler sur les paysages périglaciaires. En réalité, cette rencontre avec des peuples dont la relation au monde était d’une autre nature allait forger un destin singulier.

Ce jour-là, après de longs mois d’isolement parmi les Inuit, au moment critique du dégel, Malaurie avance avec quelques chasseurs. Il est épuisé, sale, amaigri. L’un des Inuit lui touche l’épaule : « Takou, regarde » Un épais nuage jaune monte au ciel. À la longue-vue, Malaurie croit d’abord à un mirage : « une cité de hangars et de tentes, de tôles et d’aluminium, éblouissante au soleil dans la fumée et la poussière […] Il y a trois mois, la vallée était calme et vide d’hommes. J’avais planté ma tente, un jour clair de l’été dernier, dans une toundra fleurie et virginale. »

Le souffle de cette ville nouvelle, écrira-t-il, « ne nous lâchera plus ». Les excavatrices tentaculaires raclent la terre, les camions vomissent les gravats à la mer, les avions virevoltent. Malaurie est projeté de l’âge de pierre à l’âge de l’atome. Il vient de découvrir la base secrète américaine de Thulé, nom de code Operation Blue Jay. L’un des projets de construction militaire les plus massifs et les plus rapides de l’histoire des États-Unis.

La base américaine de Thulé au début des années 1950.
U.S. Army, The Big Picture — Operation Blue Jay (1953), CC BY

Sous ce nom anodin se cache une logistique pharaonique. Les États-Unis redoutent une attaque nucléaire soviétique par la route polaire. En un seul été, quelque 120 navires et 12 000 hommes sont mobilisés dans une baie qui n’avait connu jusque-là que le glissement silencieux des kayaks. Le Groenland ne comptait alors qu’environ 23 000 habitants. En 104 jours, sur un sol gelé en permanence, surgit une cité technologique capable d’accueillir les bombardiers géants B-36, porteurs d’ogives nucléaires. À plus de 1 200 kilomètres au nord du cercle polaire, dans un secret presque total, les États-Unis font surgir l’une des plus grandes bases militaires jamais construites hors de leur territoire continental. Un accord de défense est signé avec le Danemark au printemps 1951, mais l’Operation Blue Jay est déjà engagée : la décision américaine a été prise dès 1950.

L’annexion de l’univers Inuit

Malaurie comprend aussitôt que la démesure de l’opération signe, de fait, une annexion de l’univers Inuit. Un monde fondé sur la vitesse, la machine, l’accumulation vient de pénétrer brutalement, aveuglément, un espace réglé par la tradition, le cycle, la chasse et l’attente.

Le geai bleu est un oiseau bruyant, agressif, extrêmement territorial. La base de Thulé se situe à mi-chemin entre Washington et Moscou par la route polaire. À l’heure des missiles hypersoniques intercontinentaux, hier soviétiques, aujourd’hui russes, c’est cette même géographie qui fonde encore l’argument du « besoin impérieux » invoqué par Donald Trump dans son désir d’annexion du Groenland.

La base de Thulé a une position stratégique entre les USA et la Russie.
U.S. Army, The Big Picture — Operation Blue Jay (1953), CC BY

Le résultat immédiat le plus tragique de l’Opération Blue Jay ne fut pas militaire, mais humain. En 1953, pour sécuriser le périmètre de la base et de ses radars, les autorités décidèrent de déplacer l’ensemble de la population inughuit locale vers Qaanaaq, à une centaine de kilomètres plus au nord. Le déplacement fut rapide, contraint, sans consultation, brisant le lien organique entre ce peuple et ses territoires de chasse ancestraux. Un “peuple racine” déraciné pour faire place à une piste d’aviation.

C’est sur ce moment de bascule foudroyante que Malaurie situe l’effondrement des sociétés traditionnelles inuit, où la chasse n’est pas une technique de survie mais un principe organisateur du monde social. L’univers inuit est une économie du sens, faite de relations, de gestes et de transmissions, qui donnent à chacun reconnaissance, rôle et place. Cette cohérence intime, qui fait la force de ces sociétés, les rend aussi extrêmement vulnérables lorsqu’un système extérieur en détruit soudainement les fondements territoriaux et symboliques.

Conséquences de l’effondrement des structures traditionnelles

Aujourd’hui, la société groenlandaise est largement sédentarisée et urbanisée. Plus du tiers des 56 500 habitants vit à Nuuk, la capitale, et la quasi-totalité de la population réside désormais dans des villes et localités côtières sédentarisées. L’habitat reflète cette transition brutale. Dans les grandes villes, une part importante de la population occupe des immeubles collectifs en béton, construits pour beaucoup dans les années 1960 et 1970, souvent vétustes et suroccupées. L’économie repose largement sur une pêche industrielle tournée vers l’exportation. La chasse et la pêche de subsistance persistent. Fusils modernes, GPS, motoneiges, connexions satellitaires accompagnent désormais les gestes anciens. La chasse demeure un repère identitaire, mais elle ne structure plus ni l’économie ni la transmission.

Les conséquences humaines de cette rupture sont massives. Le Groenland présente aujourd’hui l’un des taux de suicide les plus élevés au monde, en particulier chez les jeunes hommes inuit. Les indicateurs sociaux contemporains du Groenland – taux de suicide, alcoolisme, violences intrafamiliales – sont largement documentés. De nombreux travaux les relient à la rapidité des transformations sociales, à la sédentarisation et à la rupture des transmissions traditionnelles.

Manœuvres militaires américaines à Thulé.
U.S. Army, The Big Picture — Operation Blue Jay (1953), CC BY

Revenons à Thulé. L’immense projet secret engagé au début des années 1950 n’avait rien de provisoire. Radars, pistes, tours radio, hôpital : Thulé devient une ville stratégique totale. Pour Malaurie, l’homme du harpon est condamné. Non par une faute morale, mais par une collision de systèmes. Il met en garde contre une européanisation qui ne serait qu’une civilisation de tôle émaillée, matériellement confortable, humainement appauvrie. Le danger n’est pas dans l’irruption de la modernité, mais dans l’avènement, sans transition, d’une modernité sans intériorité, opérant sur des terres habitées comme si elles étaient vierges, répétant, à cinq siècles d’écart, l’histoire coloniale des Amériques.

Espaces et contaminations radioactives

Le 21 janvier 1968, cette logique atteint un point de non-retour. Un bombardier B-52G de l’US Air Force, engagé dans une mission permanente d’alerte nucléaire du dispositif Chrome Dome, s’écrase sur la banquise à une dizaine de kilomètres de Thulé. Il transporte quatre bombes thermonucléaires. Les explosifs conventionnels des bombes nucléaires, destinés à amorcer la réaction, détonnent à l’impact. Il n’y a pas d’explosion nucléaire, mais la déflagration disperse sur une vaste zone du plutonium, de l’uranium, de l’americium et du tritium.

Dans les jours qui suivent, Washington et Copenhague lancent Project Crested Ice, une vaste opération de récupération et de décontamination avant la fonte printanière. Environ 1 500 travailleurs danois sont mobilisés pour racler la glace et collecter la neige contaminée. Plusieurs décennies plus tard, nombre d’entre eux engageront des procédures judiciaires, affirmant avoir travaillé sans information ni protection adéquates. Ces contentieux se prolongeront jusqu’en 2018-2019, débouchant sur des indemnisations politiques limitées, sans reconnaissance juridique de responsabilité. Aucune enquête épidémiologique exhaustive ne sera jamais menée auprès des populations inuit locales.

Aujourd’hui rebaptisée Pituffik Space Base, l’ancienne base de Thulé est l’un des nœuds stratégiques majeurs du dispositif militaire américain. Intégrée à la US Space Force, elle joue un rôle central dans l’alerte antimissile et la surveillance spatiale en Arctique, sous un régime de sécurité maximale. Elle n’est pas un vestige de la guerre froide, mais un pivot actif de la géopolitique contemporaine.

Dans Les Derniers Rois de Thulé, Malaurie montre que les peuples racine n’ont jamais de place possible au cœur des considérations stratégiques occidentales. Face aux grandes manœuvres du monde, l’existence des Inuit y devient aussi périphérique que celle des phoques ou des papillons.

Les déclarations de Donald Trump ne font pas surgir un monde nouveau. Elles visent à généraliser au Groenland un système en place depuis soixante-quinze ans. Mais la position d’un homme ne saurait nous exonérer de nos responsabilités collectives. Entendre aujourd’hui que le Groenland « appartient » au Danemark et dépend de l’OTAN, sans même évoquer les Inuit, revient à répéter un vieux geste colonial : concevoir les territoires en y effaçant ceux qui l’habitent.

Les Inuit demeurent invisibles et inaudibles. Nos sociétés continuent de se représenter comme des adultes face à des populations indigènes infantilisées. Leur savoir, leurs valeurs, leurs manières sont relégués au rang de variables secondaires. La différence n’entre pas dans les catégories à partir desquelles nos sociétés savent agir.

À la suite de Jean Malaurie, mes recherches abordent l’humain par ses marges. Qu’il s’agisse des sociétés de chasseurs-cueilleurs ou de ce qu’il reste de Néandertal, lorsqu’on le déshabille de nos projections, l’Autre demeure toujours l’angle mort de notre regard. Nous ne savons pas voir comment s’effondrent des mondes entiers lorsque la différence cesse d’être pensable.

Malaurie concluait son premier chapitre sur Thulé par ces mots :

« Rien n’aura été prévu pour imaginer l’avenir avec hauteur. »

Il faut redouter par-dessus tout non la disparition brutale d’un peuple, mais sa relégation silencieuse, et radicale, dans un monde qui parle de lui sans jamais le regarder ni l’entendre.

The Conversation

Ludovic Slimak ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Groenland : rester avec les Inuit polaires – https://theconversation.com/groenland-rester-avec-les-inuit-polaires-273057

L’avenir de l’impression 3D passera par les matériaux

Source: The Conversation – in French – By Benoît Vieille, Professeur en mécanique des matériaux aéronautiques, INSA Rouen Normandie

Qu’il s’agisse de pièces de fusée, d’automobile, de pont ou même d’aliments, la fabrication additive (FA) redéfinit complètement le champ des possibles dans de très nombreux domaines d’activités. Elle offre des perspectives prometteuses en matière de matériaux, mais elle pose également des défis techniques, économiques et environnementaux qui nécessitent une maturation et une adaptation des procédés en lien avec les matériaux utilisés.


Plus connu sous la dénomination « impression 3D », ce procédé met en œuvre des polymères (plastiques) ou des alliages métalliques pour fabriquer des objets du quotidien. Les imprimantes 3D polymères sont accessibles au grand public pour quelques centaines d’euros. Elles permettent notamment de fabriquer des pièces prototypes (d’où le nom prototypage rapide), des coques de téléphone, des pièces de rechange, des prothèses, des bijoux, des jouets, des objets de décorations ou des maquettes. En ce qui concerne les métaux, les machines d’impression sont beaucoup plus chères (quelques centaines de milliers d’euros). On trouve des applications telles que des implants médicaux, des pièces aérospatiales/automobiles, de l’outillage industriel, des bijoux de luxe. On peut également trouver ce principe de fabrication dans le domaine du BTP avec des « imprimantes » qui mettent en œuvre du béton pour fabriquer des maisons, des bâtiments ou tout type de structure en génie civil.

Mais, comme toute nouveauté, le procédé suscite autant d’espoir qu’il ne réserve de surprises (bonnes ou mauvaises) à celles et ceux qui souhaitent utiliser ce nouveau moyen de fabrication.

D’un point de vue technique, l’impression 3D consiste, couche après couche, à durcir (polymériser) une résine liquide ou à venir déposer de la matière (plastique ou métallique) de manière précise et contrôlée (en ajustant les paramètres tels que la température, la vitesse d’impression, le taux de remplissage, l’orientation de l’objet) pour répondre à certaines contraintes de géométrie, poids, optimisation des propriétés mécaniques ou physiques.

La microstructure d’une pièce imprimée en 3D (polymère ou métal) désigne l’organisation interne de sa matière à une échelle microscopique, influencée par le procédé d’impression. La complexité de la géométrie, les dimensions, le prix vont conditionner le choix de la technologie d’impression et des matériaux associés.

Une révolution dans de nombreux domaines industriels

Qu’elle soit alternative ou complémentaire des techniques conventionnelles par enlèvement de matière ou par déformation, la FA révolutionne de nombreux domaines industriels. De la réalisation de pièces monolithiques (en une seule étape de fabrication, sans assemblage) à forte valeur ajoutée à la fonctionnalisation (conférer à la pièce certaines propriétés locales en changeant les paramètres d’impression au besoin), en passant par le prototypage rapide (valider la conception d’une pièce prototype de manière itérative), les possibilités sont multiples. On peut citer notamment des prothèses de hanche en titane adaptées à l’anatomie de chaque patient, des injecteurs de fusée à géométrie complexe et fabriquées en une seule pièce, des moules optimisés avec canaux de refroidissement sur mesure, des bijoux en métaux précieux avec des designs impossibles à obtenir avec des moyens d’usinage conventionnels.

La chaîne de valeurs de la FA – qui définit l’ensemble des étapes de réalisation d’une pièce de l’approvisionnement en matière première, à la conception, aux conditions de mise en œuvre, à la fabrication, au coût énergétique, à la reprise d’usinage, aux opérations de parachèvement, à la qualification de la santé matière, à la caractérisation des propriétés physiques, au recyclage – est cependant plus complexe et potentiellement plus onéreuse. La technicité, oui, mais pas à n’importe quel prix ! Outre les moyens de fabrication spécifiques sur lesquels elle repose, elle nécessite des règles de conception fondamentalement différentes car elle impose de nouvelles contraintes techniques. De la Conception Assistée par Ordinateur, au choix matériau, au programme machine et à l’industrialisation, il faut ainsi redéfinir complètement la manière de penser du cahier des charges à la maintenance des produits issus de la FA.

Des enjeux majeurs pour les matériaux

Un des points fondamentaux du développement de ces nouveaux procédés réside dans la compréhension du lien entre les paramètres de fabrication des pièces (temps d’impression, puissance du laser, vitesse de déplacement de la tête d’impression, dimensions, environnement de travail – sous atmosphère contrôlée ou non), leur santé matière (présence de porosités ou de défauts parfois liés à un manque de fusion/gazéification locaux de la matière) et leurs propriétés physiques (conductivité thermique ou électrique, propriétés mécaniques, densité). Autrement dit, il est nécessaire de fiabiliser les procédés et optimiser les propriétés finales de la pièce en étant capable de contrôler des paramètres de fabrication, lesquels vont beaucoup dépendre des matériaux mis en œuvre. Ainsi, la FA présente des enjeux majeurs pour les matériaux, qu’ils soient techniques, économiques ou environnementaux.

Tout d’abord, les procédés de FA nécessitent de développer, en amont, des matériaux adaptés (filaments, poudres) aux spécificités des procédés (fusion laser, dépôt de matière fondue, alimentation en matière des têtes d’impression), lesquels vont imposer des contraintes en termes de prix, toxicité et recyclabilité. En effet, les poudres métalliques ou polymères spécifiques (de type thermoplastique) dédiées à la fabrication additive restent souvent plus coûteuses que les matériaux conventionnels, d’un facteur 10 environ.

Néanmoins, malgré le coût plus élevé des matériaux et des procédés, l’impression 3D réduit les déchets (pas de copeaux comme en usinage), permet de fabriquer des pièces dont la géométrie est optimisée (allègement des structures) et élimine le besoin de moules coûteux pour les petites séries, ce qui peut compenser l’écart de coût pour des pièces à forte valeur ajoutée. Ainsi, la réduction des coûts est un enjeu clé pour une adoption plus large. De plus, l’approvisionnement en matière première peut être limité, ce qui ralentit le développement des applications industrielles.

La FA permet également de faire de l’hybridation en associant différents types de matériaux lors de l’impression (en utilisant plusieurs têtes d’impression) afin d’obtenir des pièces composites dont les propriétés mécaniques, électriques ou thermiques sont spécifiques. Par exemple, dans l’industrie aérospatiale ou l’automobile, l’impression 3D de pièces comme des moules d’injection ou des échangeurs thermiques avec des canaux de refroidissement complexes intégrés – lesquels sont impossibles à réaliser par usinage classique – permettent d’optimiser la dissipation thermique, améliorant l’efficacité et la longévité de la pièce.

Les procédés de FA permettent également d’imprimer des structures arborescentes (bio-mimétisme) obtenues via des outils d’optimisation topologique qui est une méthode de conception avancée qui utilise des algorithmes pour déterminer la forme optimale d’une structure en fonction de contraintes spécifiques, telles que la résistance, le poids, ou la distribution des efforts. La spécificité de l’impression 3D réside aussi dans la possibilité de produire des structures complexes de type treillis ou architecturées pour fonctionnaliser le matériau (propriétés mécaniques sur mesure, réduction de la masse, diminution des coûts de fabrication, isolation thermique, acoustique, absorption des chocs ou des vibrations).

Fusion de matière

Quand les pièces sont imprimées, il existe – selon le procédé de fabrication – des opérations dites de parachèvement qui consistent à finaliser les pièces. Cela inclut l’usinage des supports de conformage (qui sont comme des échafaudages qui supportent la pièce lors de la fabrication couche par couche), la reprise d’usinage des surfaces (ou polissage) pour améliorer l’état de surface (quand cela est possible) en raison de la rugosité importante des pièces brutes. On peut également réaliser des traitements thermiques pour homogénéiser la microstructure (pièces métalliques) ou de compression à chaud pour limiter le taux de porosités (un des inconvénients majeurs de l’impression 3D). Ces opérations sont fondamentales, car la rugosité de surface et le taux de porosités sont les caractéristiques les plus critiques du point de vue du comportement mécanique. Par ailleurs, quand il s’agit de procédés à base de poudres, il est nécessaire de dépoudrer les pièces pour évacuer le surplus de matière, lequel peut nuire au fonctionnement en service de la pièce ainsi fabriquée.

Par nature, la majorité des procédés de FA impliquent la fusion de matière (plastique ou métallique), ce qui va se traduire par des échauffements localisés et des différences de température très importants au sein de la pièce. Ces gradients thermiques vont conditionner la microstructure, la présence de contraintes internes (en lien avec la microstructure), la santé (présence de défauts), l’anisotropie (les propriétés ne sont pas les mêmes dans toutes les directions) et l’hétérogénéité (les propriétés ne sont pas les mêmes en tout point) des pièces. La fiabilité des pièces imprimées va donc beaucoup dépendre de ces caractéristiques.

En amont, il est alors important d’étudier les interactions entre procédés-microstructure et propriétés mécaniques pour différents types de matériaux. C’est l’objet de nos travaux de recherche menés à l’INSA Rouen Normandie. Pour les polymères, l’impression 3D par dépôt de filament fondu (FFF) présente une porosité intrinsèque qui réduit la résistance à la rupture. En utilisant des procédés tels que le laser shock peening (LSP), un traitement mécanique in situ appliqué à certaines couches pendant l’impression, on peut alors faire de la fonctionnalisation en réduisant localement la porosité et en créant des barrières ralentissant la propagation des fissures, améliorant ainsi la ténacité des matériaux (la résistance à la fissuration du matériau). De manière similaire, pour les alliages métalliques obtenus par Fusion sur Lit de Poudre, en jouant sur les paramètres de fabrication (puissance et vitesse de déplacement du laser notamment), il est possible d’ajuster localement les propriétés du matériau pour moduler sa ténacité ou sa capacité à se déformer plastiquement.*

Aussi, il est nécessaire de caractériser précisément – en aval de la fabrication – les propriétés (thermiques, électriques, mécaniques) des pièces en accord avec les normes de certification propres aux différents domaines d’activité (médical, aéronautique, aérospatiale, automobile, agro-alimentaire).

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. L’avenir de l’impression 3D passera par les matériaux – https://theconversation.com/lavenir-de-limpression-3d-passera-par-les-materiaux-258652

Cinq pistes pour éviter les clichés sur l’apprentissage et aider les élèves à progresser

Source: The Conversation – in French – By Jerrid Kruse, Professor of Science Education, Drake University

C’est pour apprendre que les élèves se rendent chaque jour en classe. Mais savent-ils bien toujours ce que cela signifie réellement ? Les fausses croyances sur la manière dont on acquiert des connaissances sont nombreuses, et elles peuvent compliquer la tâche des enfants et des adolescents. Quelques pistes pour les aider à réajuster leurs méthodes de travail et augmenter leurs chances de réussite.


Au cours de mes années d’enseignement des sciences au collège, au lycée et à l’université, j’ai constaté que certains de mes élèves résistaient à l’exercice de ce que les pédagogues appellent la pensée de haut niveau, incluant l’analyse, la pensée créative et critique, et la résolution de problèmes.

Par exemple, lorsque je leur ai demandé de tirer des conclusions à partir de données ou de mettre au point un protocole pour tester une idée, certains élèves ont répondu : « Pourquoi ne nous dites-vous pas quoi faire ? » ou « N’est-ce pas le rôle de l’enseignant que de nous donner les bonnes réponses ? »

En d’autres termes, mes élèves avaient développé une forte idée préconçue selon laquelle le savoir provient de l’autorité. Après enquête, mes collègues et moi-même avons conclu que ces croyances sur l’apprentissage influençaient leur approche de nos cours, et donc ce qu’ils étaient capables d’apprendre.

Tous les élèves arrivent en classe avec des croyances diverses sur ce que signifie apprendre. Dans le domaine de l’éducation, la croyance la plus recherchée est peut-être ce que nous appelons avoir un état d’esprit de croissance. Les élèves ayant un état d’esprit de croissance croient qu’ils peuvent s’améliorer et continuer à apprendre. En revanche, les élèves ayant un état d’esprit fixe ont du mal à croire qu’ils peuvent approfondir leurs connaissances sur le sujet qu’ils étudient. Lorsque les élèves disent « Je suis nul en maths », ils font preuve d’un état d’esprit fixe.




À lire aussi :
À l’école, ce que les élèves pensent de leur intelligence influence leurs résultats


En tant qu’enseignants, nous essayons non seulement d’aider les élèves à comprendre le sujet traité, mais nous cherchons également à leur inculquer des croyances justes sur l’apprentissage afin que rien ne vienne entraver leur capacité à assimiler de nouvelles informations.

Outre l’état d’esprit de croissance, je soutiens que cinq autres croyances sont particulièrement importantes à promouvoir dans les salles de classe afin d’aider les élèves à mieux apprendre et à mieux se préparer au monde moderne.

Apprendre, c’est comprendre

Certains élèves et enseignants assimilent l’apprentissage à la mémorisation.

Si la mémorisation joue un rôle dans l’apprentissage, l’apprentissage approfondi repose quant à lui sur la compréhension. Les élèves ont tout intérêt à reconnaître que l’apprentissage consiste à expliquer et à relier des concepts entre eux pour leur donner un sens.

Se concentrer trop sur la mémorisation peut masquer des lacunes.

a young girl sitting at a desk buries her forehead in a textbook
Apprendre, c’est un processus difficile.
demaerre/iStock via Getty Images

Par exemple, je travaillais un jour avec un élève de maternelle qui m’a fièrement montré qu’il savait réciter les chiffres de 1 à 20. Je lui ai alors demandé de compter les crayons sur le bureau. L’élève n’a pas compris ma demande. Il n’avait pas fait le lien entre ces nouveaux mots et le concept des chiffres.

Pour aider les élèves à reconnaître l’importance de la compréhension dans l’apprentissage, les enseignants et les parents peuvent leur poser des questions telles que « Pourquoi est-il préférable de relier une nouvelle idée à une ancienne idée plutôt que d’essayer simplement de mémoriser la réponse ? » ou « Pourquoi une explication est-elle plus utile qu’une simple réponse ? »

Apprendre est un défi

La conviction des élèves selon laquelle l’apprentissage s’apparente à la mémorisation peut refléter une croyance connexe selon laquelle la connaissance est simple et l’apprentissage devrait être facile.

Au contraire, les éducateurs veulent que les élèves acceptent la complexité et les défis qu’elle comporte. En se confrontant aux nuances et à la complexité, les élèves fournissent l’effort mental nécessaire pour former et renforcer de nouvelles connexions dans leur pensée.

Lorsque les élèves pensent que les connaissances sont simples et que l’apprentissage devrait être facile, leur engagement dans la réflexion de haut niveau, nécessaire pour appréhender la complexité et les nuances, en pâtit.

Pour aider les élèves en difficulté à saisir une idée complexe, les enseignants et les parents peuvent leur poser des questions qui les aident à comprendre pourquoi l’apprentissage est complexe et nécessite des efforts.

Apprendre prend du temps

Lorsque les élèves pensent que l’apprentissage est simple et facile, les enseignants ne devraient pas s’étonner qu’ils pensent également que l’apprentissage doit être rapide.

Au contraire, les élèves doivent comprendre que l’apprentissage approfondi prend du temps. Si les élèves pensent que l’apprentissage est rapide, ils sont moins enclins à rechercher des défis, à explorer les nuances ou à réfléchir et à établir des liens entre les idées. Malheureusement, de nombreux programmes scolaires condensent tellement d’objectifs d’apprentissage en un laps de temps très court que la croyance en un apprentissage rapide est subtilement renforcée.

Si les enseignants peuvent faire preuve de créativité dans l’utilisation du matériel pédagogique et consacrer plus de temps à inciter les élèves à explorer la complexité et à établir des liens, le simple fait de passer plus de temps sur un concept peut ne pas suffire à changer les convictions des élèves en matière d’apprentissage.

a man stands facing away from the camera toward students at row desks
L’apprentissage ne se fait pas uniquement auprès des enseignants.
Drazen Zigic/iStock via Getty Images

Pour aider les élèves à changer leur façon de penser, je leur demande de discuter de questions telles que « Pourquoi pensez-vous que la compréhension de concepts complexes prend autant de temps ? » ou « Pourquoi une seule leçon ne suffirait-elle pas pour couvrir ce concept ? » Grâce à ces questions, mes collègues et moi avons constaté que les élèves commencent à reconnaître que l’apprentissage approfondi est lent et prend du temps.

L’apprentissage est un processus continu

Les étudiants doivent également comprendre que l’apprentissage n’a pas de fin.

Malheureusement, beaucoup d’étudiants considèrent l’apprentissage comme une destination plutôt que comme un processus continu. Or, comme la connaissance comporte un degré inhérent d’incertitude et qu’un apprentissage accru révèle souvent une complexité accrue, l’apprentissage doit être continu.

Pour aider les élèves à s’interroger sur cette conviction, les enseignants et les parents pourraient leur poser les questions suivantes : « Comment pensez-vous que vos connaissances ont évolué au fil du temps ? » et « Comment pensez-vous que votre apprentissage va évoluer à l’avenir ? »

L’apprentissage ne se fait pas uniquement auprès des enseignants

Je me souviens qu’un lycéen m’avait dit : « Les enseignants sont censés nous donner les réponses pour que nous sachions quoi écrire à l’examen. »

Cet élève avait apparemment compris les « règles du jeu » et n’était pas content lorsque son professeur essayait de l’inciter à réfléchir de manière plus approfondie. Il s’accrochait à un modèle d’apprentissage par transmission, reposant sur des figures d’autorité.

Au contraire, les élèves doivent comprendre que l’apprentissage provient de nombreuses sources, notamment de leurs expériences, de leurs pairs et de leur propre réflexion, autant que de figures d’autorité.

Même si les enseignants et les parents peuvent hésiter à remettre en cause leur propre autorité, ils rendent un mauvais service aux élèves lorsqu’ils ne les préparent pas à remettre en question les figures d’autorité et à aller au-delà.

Pour aider les élèves à changer leur façon de penser, les enseignants peuvent leur demander de réfléchir à la question suivante : « Pourquoi le fait d’apprendre à partir de sources multiples peut-il vous aider à mieux comprendre la complexité et les nuances d’un concept ? »

Changer nos croyances sur l’apprentissage

Souvent, les enseignants et les parents pensent que les occasions de faire appel à un raisonnement de haut niveau suffisent à aider leurs élèves à développer de meilleures croyances concernant l’apprentissage.

Mais de telles croyances nécessitent une attention explicite et doivent être prévues dans les cours. Pour ce faire, il convient de poser des questions ciblant des croyances spécifiques, telles que celles mentionnées dans la chacune des sections précédentes.

Les conversations que j’ai pu avoir par ce biais avec les élèves étaient très intéressantes. De plus, aider les enfants à développer des croyances plus solides sur l’apprentissage est peut-être la chose la plus importante que les enseignants puissent faire pour les préparer à l’avenir.

The Conversation

Jerrid Kruse a reçu des financements de la National Science Foundation, du NASA Iowa Space Grant Consortium et de la William G. Stowe Foundation.

ref. Cinq pistes pour éviter les clichés sur l’apprentissage et aider les élèves à progresser – https://theconversation.com/cinq-pistes-pour-eviter-les-cliches-sur-lapprentissage-et-aider-les-eleves-a-progresser-265441