New federal loan limits will worsen America’s nursing shortage and leave patients waiting longer for care

Source: The Conversation – USA (3) – By Kymberlee Montgomery, Senior Associate Dean of Nursing, Drexel University

There aren’t enough people training to become nurses to meet the rising demands for nurse practitioners and registered nurses. Iconic Prototype/iStock/Getty Images Plus

There is growing need for nurses in the United States – but not enough nurses currently working, or students training to become nurses, to promptly see all of the patients who need medical care.

Tens of thousands of nurses have left practice since the pandemic, and many more plan to leave within a few years, according to the 2024 National Nursing Workforce Survey, which reviews the number of registered nurses working in the U.S.

Meanwhile, the U.S. Bureau of Labor Statistics projects that there will be an average of 189,100 openings for registered nurses each year through 2032. In addition, there will be a need for approximately 128,400 new nurse practitioners by 2034 – making it the fastest-growing occupation in the country.

The tax and spending package signed into law in July 2025 will take effect on July 1, 2026. Among other things, it will likely make it even harder for people to take out loans and help pay for a graduate nursing degree.

We are nurses and professors who oversee large nursing programs at universities. We believe that new restrictions on how nursing students can take out federal loans to pay for their education are likely to prevent people from pursuing advanced nursing roles.

These new regulations will cause the shortage of practicing nurses to intensify – in turn, worsening the quality of care patients receive.

Clinics may offer fewer appointments, hospitals may be forced to reduce services, and nursing programs may have to accept fewer students. As a result, some patients will wait longer, travel farther, or not see nurses altogether.

Three young women wearing teal scrubs stand around a dummy of an older woman lying in a hospital bed.
Nursing students work in a simulation lab at the Florida A&M University Campus School of Nursing in Tallahassee in April 2023.
Glenn Beil/Florida A&M University via Getty Images

Paying for nursing education

Someone can become a registered nurse with an associate or bachelor’s degree. But a graduate-level degree is needed for other nursing roles – including nurse practitioners, nurse anesthetists and nurse midwives.

Nursing school costs vary greatly, depending on which degree students are seeking and whether they attend a public or private school. Roughly three-quarters of graduate nursing students rely on student loans and graduate with debt to pay for programs that can range from US$30,000 to $120,000 or more.

We have found that nursing students, unlike medical students, often work while enrolled in their programs, stretching their education over longer periods and accumulating additional costs.

The tax and spending law eliminates several federal grants and loan repayment programs for nurses and aspiring nurse educators – faculty members who teach nursing students in colleges and universities.

The law also sharply restricts how much money graduate nursing students can borrow through federal student loans.

Approximately 59% of 1,550 nurses surveyed in December 2025 said that they are now less likely to pursue a graduate degree with the new borrowing limit changes.

A fractured system

Nurse practitioners provide the majority of primary care in the U.S. – particularly in rural areas and communities with few physicians.

In addition, certified registered nurse anesthetists administer anesthesia for surgeries and procedures in many areas. Meanwhile, certified nurse-midwives deliver babies and provide prenatal and postpartum care, especially in areas where there are few obstetricians.

Long waits for new patient appointments are now common across the country, with national surveys showing that patients often wait weeks to months before they receive medical care.

About a decade ago, new patients could often book appointments within days to a few weeks; but today, there are fewer available medical appointments and medical professionals to treat them. This is particularly true for many medical practices serving women, older adults and rural communities.

One of us – Dr. Montgomery – is a women’s health nurse practitioner who routinely sees patients wait months for new appointments in the mid-Atlantic. These delays translate into postponed cancer screenings, delayed medication management and untreated chronic conditions.

Research consistently shows that nursing shortages are associated with worse patient outcomes, including higher mortality and delayed treatment.

Nursing left off the professional degree list

Under the new law, the Department of Education created a classification system that distinguishes professional from nonprofessional graduate degrees. Nursing is now considered a nonprofessional degree.

As a result, graduate nursing students will soon face lower borrowing limits than they currently do.

Previously, there was no need to label nursing as professional or not, because federal student loan borrowing was not capped in a way that required this distinction.

Now, students in professional graduate programs, such as medicine and law, may borrow up to $50,000 per year in federal loans and $200,000 in total.

Graduate nursing students, by contrast, will soon face a federal student loan cap of $20,500 per year and $100,000 total over the course of their education – a significant reduction from prior borrowing options.

The new law also eliminates the Direct PLUS Loan program. This separate, federal student loan program allows students to borrow up to the full cost of attendance of graduate nursing school after they reached annual loan limits on traditional federal loans.

More than 140 members of Congress from both political parties urged the Department of Education in December 2025 to reverse course and classify nursing as a professional degree.

The faculty bottleneck

Graduate loan limits will worsen another critical problem – the shortage of nursing faculty.

There are currently 1,693 full-time vacancies for nursing faculty positions, according to a survey in 2024 by the American Association of Colleges of Nursing. Of those open positions, 84% require or prefer a doctoral degree.

Universities cannot admit nursing students if there are not enough faculty to teach them.

Nursing programs in the U.S. turned away more than 80,000 qualified applicants to baccalaureate and graduate nursing programs in 2023, in part because they did not have enough faculty.

Better solutions exist

There are policy changes that could prevent this domino effect.

Policymakers could classify nursing as a professional degree for loan purposes, aligning borrowing limits with the documented costs of accredited programs.

Congress and individual states could expand scholarships and loan-repayment programs for nurses who teach or serve in rural and underserved communities.

Universities and governments could work together to share nurse training costs.

Graduate nursing education is not a luxury. It is a cornerstone of the country’s health care system.

Helping nurses afford an education is not just about nurses – it is about patients, communities and the future of medical care in the U.S.

The Conversation

Mary Ellen Smith Glasgow is an AACN Board Member. The views, analyses, and conclusions expressed in this article are those of the authors and do not necessarily reflect the official policy or positions of the American Association of Colleges of Nursing.

Kymberlee Montgomery does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. New federal loan limits will worsen America’s nursing shortage and leave patients waiting longer for care – https://theconversation.com/new-federal-loan-limits-will-worsen-americas-nursing-shortage-and-leave-patients-waiting-longer-for-care-271807

How tourism, a booming wellness culture and social media are transforming the age-old Japanese tea ceremony

Source: The Conversation – USA (3) – By Małgorzata (Gosia) K. Citko-DuPlantis, Assistant Professor in Japanese Literature and Culture, University of Tennessee

A traditional Japanese tea ceremony in Japan on Dec. 18, 1947. AP Photo

One of Japan’s most recognizable cultural practices – the Japanese tea ceremony, known as chanoyu, or chadō – is being reshaped by tourism, wellness culture and social media.

Matcha, the Japanese powdered green tea that is used during the ceremony, has entered the global marketplace. Influencers post highly curated tearoom photos, wellness brands market matcha as a “superfood,” and cafés worldwide present whisked green tea as a symbol of mindful living.

The Japanese tea ceremony is deeply rooted in the ideals of Zen Buddhism, but the current matcha hype has little to do with the tea ceremony. Green tea has become part of the on-the-go coffee culture. On social media, a centuries-old spiritual practice is compressed into a 15-second reel.

As a scholar of premodern Japanese literature and culture, I know that this commercialization is not without tension. The reflective values of the Japanese tea ceremony trace their origins to a monastic routine.

History of the Japanese tea

Tea arrived in Japan from China in the eighth century. Emperor Shōmu served powdered tea, an ancestor to what we today know as matcha, to Buddhist monks in 729 C.E.

Around the end of the 12th century, the practice of serving tea became more widespread after the Zen monk Eisai returned from China with matcha tea seeds from the plant that was to become the source of much of the tea grown in Japan today. He also brought with him the knowledge of how tea rituals were practiced in Chinese Buddhist temples.

Wild tea grew in Japan, but the tea grown from Eisai’s seeds became known as “honcha” or true tea. Matcha soon spread through Zen monasteries, where it was believed to generate greater enlightenment than long hours of meditation.

As Zen Buddhism gained influence among the warrior class in the 13th century, monks carried tea culture beyond temple walls. In 1483, Ashikaga Yoshimasa – Japan’s military ruler, or shogun, who was also a patron of the arts, constructed one of the earliest tearooms. The tearoom was inside his villa in Kyoto, later known as the Temple of the Silver Pavilion or Ginkakuji. There, the tea ceremony was both a contemplative act and an occasion to display Chinese calligraphy, paintings and ceramics.

What matters is the moment

The most transformative figure in the history of the Japanese tea ceremony was a 16th-century tea master, Sen no Rikyū. Rejecting ostentation, he favored locally made utensils, rough ceramics, and small, rustic spaces designed to quiet the senses.

This aesthetic and moral principle – known as “wabi” – valued imperfection, humility and mindful presence. Grounded in simplicity, wabi guided everything from the size of the room to the angle of a flower stem.

Serving as tea master to military leaders, or shoguns, who supported his activities, Rikyū transformed the tea ceremony to reflect ideals of wabi.

A poem by Rikyū captures his philosophy:

cha no yu to wa
tada yu o wakashi
cha o tatete
nomu bakari naru
koto to shiru beshi

To understand the tea ceremony
Is simply this:
Heat the water,
Whisk the tea,

And drink.

The poem’s clarity echoes a foundational sensibility of the tea ceremony: what matters is the moment itself.

Rikyū’s grandson Sōtan and his three sons carried on the traditions of tea ceremony. Their three schools – Ura Senke, Omote Senke and Mushanokōji Senke – differ in tea whisking styles, utensils they use and levels of formality, yet continue to preserve Rikyū’s principles to date. All three schools have headquarters in Kyoto.

The ritual of impermanence

The manner of preparing powdered green tea depends on the techniques and practices of the various schools. The following description is based on the Ura Senke way of preparation.

A full tea gathering, or “chaji,” may last several hours. Every choice – from utensils to food to flowers – reflects the season, time of day and purpose of the occasion, whether welcoming guests, marking a farewell or observing a celebration.

A Japanese tea ceremony and the power of simplicity.

The ceremony takes place in a tearoom or “chashitsu,” decorated only with a hanging scroll and a single flower – both selected to set the gathering’s spiritual tone.

Guests assemble in a waiting room and taste the hot water used for tea. They then proceed along a water-sprinkled garden path meant to wash away the “dust” of the outside world.

After greeting the host, they cleanse their hands and mouths and enter the tearoom through a small door, the “nijiriguchi.” The passage from the ordinary way of the world to the contemplative way of tea symbolizes humility.

Inside, they admire the scroll, kettle and hearth before taking their seats.

In the guests’ presence, the host builds the charcoal fire and serves a carefully prepared seasonal meal: rice, soup, seafood or vegetables, pickles, sake and a principal sweet.

When the meal ends, the host briefly re-enters alone to replace the scroll with flowers, sweep the room and arrange the utensils for “koicha,” the thick tea that forms the heart of the gathering. At that time the guests have been asked to leave the room. They re-enter once the bell or gong is run. The host reenters the room as well with chawan – the whisk – and all the utensils; the tea is served.

A jar of fresh water representing yin is paired with the fire’s yang. Yin (feminine) and yang (masculine) are two opposing yet complementary forces in Chinese philosophy that represent the duality and balance found in the universe. The tea jar or “chaire,” wrapped in silk, is set out on a stand chosen for the occasion. A gong or bell summons the guests to return.

The host enters with the tea bowl or “chawan,” a white linen cloth, a whisk and a bamboo scoop. Each utensil is cleaned, and the bowl is warmed, dried and filled with three scoops of powdered tea before hot water is added and kneaded with the whisk into a smooth, thick mixture. The single bowl is shared among all guests, then returned to the host. The tea jar and scoop are cleaned and presented for close viewing.

The charcoal fire is built again for “usucha,” or thin tea, which gently prepares guests to return to everyday life. Thin tea is prepared in a way similar to that of thick tea, except that less tea powder, and of a lower quality, is used. Dry sweets accompany this lighter, frothier tea, served in individual bowls. When the final cup is finished, guests express their gratitude, depart along the garden path and leave the host watching quietly from the tearoom door.

Underlying the entire ritual is the principle of “ichigo ichie” – “one time, one meeting.” No gathering can ever be repeated. Every season, every person, every breath is singular.

The tea ceremony, often translated in English as “the Way of Tea,” trains participants to feel that fleetingness, to hold the moment warmly and attentively before it dissolves.

The rise of global matcha culture

Today, the tea ceremony lives a double life. While traditional schools continue to teach Rikyū’s disciplined aesthetics, matcha has entered its global afterlife of commercialization and popular culture.

A wooden plate holding a blue ceramic bowl, a whisk, a cup and a spoon.
A traditional Japanese tea set for making matcha green tea.
AP Photo

The explosion of matcha consumption has led to a high demand. Prices for high-grade ceremonial matcha have risen dramatically, and producers struggle to meet demand. Japan now exports far more matcha than ever before.

Many people encounter matcha not through Zen teachings or formal tea ceremonies but through lifestyle trends and the contemporary fascination with “calming rituals.” On social media, matcha is promoted as a wellness routine and lifestyle aesthetic.

In this new landscape, the Japanese “Way of Tea” exists both as a revered cultural practice and as a global commodity – its spiritual heart intact but circulating in forms its earliest practitioners could scarcely have imagined.

The Conversation

Małgorzata (Gosia) K. Citko-DuPlantis does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. How tourism, a booming wellness culture and social media are transforming the age-old Japanese tea ceremony – https://theconversation.com/how-tourism-a-booming-wellness-culture-and-social-media-are-transforming-the-age-old-japanese-tea-ceremony-262310

Venezuela: el dilema entre legalidad internacional y ‘realpolitik’ que afrontan Europa y España

Source: The Conversation – (in Spanish) – By Armando Alvares Garcia Júnior, Profesor de Derecho Internacional y de Relaciones Internacionales, UNIR – Universidad Internacional de La Rioja

Kaja Kallas, alta representante para Asuntos Exteriores de la Unión Europea. Dan Morar/Shutterstock

La fulminante operación militar de Estados Unidos en Venezuela, que combinó bombardeos selectivos con la captura de Nicolás Maduro y su traslado a territorio estadounidense, constituye un test crítico para la credibilidad del orden internacional y para la autonomía estratégica de la Unión Europea y de España.

Para ambos, el desafío es doble: sostener la apuesta por una transición democrática encabezada por la sociedad venezolana –y no tutelada desde Mar-a-Lago–, y demostrar que su compromiso con el derecho internacional no es retórico ni selectivo. De su respuesta dependerá tanto su posición en América Latina como la confianza que otros actores del Sur Global depositen en Europa, y particularmente España, como socio “civil y normativo” y no puramente geopolítico.

Una intervención sin justificación clara en derecho internacional

Diversos especialistas en derecho internacional han subrayado que los ataques y la captura de Maduro carecen de una base jurídica sólida en la Carta de la ONU, el tratado internacional firmado en 1945 que regula la Organización de las Naciones Unidas y que es un documento jurídicamente vinculante para los países que la aceptan, entre ellos Estados Unidos. La operación no fue autorizada por el Consejo de Seguridad, no respondió a un ataque armado previo de Venezuela y se llevó a cabo sin consentimiento del Estado afectado, lo que entra en tensión con la prohibición del uso de la fuerza del artículo 2.4 de la Carta de Naciones Unidas.

El think tank (laboratorio de ideas) de asuntos internacionales Chatham House, a través de un análisis específico, sostiene que ni la lucha contra el narcotráfico ni la acusación de “narcoterrorismo” bastan, en los términos actuales del derecho internacional, para justificar una incursión de este tipo en territorio venezolano.

Varios expertos consultados por Defense News (cabecera de referencia sobre el ámbito militar y gubernamental) y por el German Marshall Fund (GMF, un centro para la innovación política y el liderazgo trasatlántico) señalan que esta operación erosiona la rules based order, que la UE reivindica como fundamento de su acción exterior.

Este concepto es utilizado con frecuencia por los líderes occidentales para describir el marco de reglas, normas e instituciones que sirven para guiar el comportamiento de los estados.

Trump, el cambio de régimen y la oposición desplazada

La operación militar culmina una larga fijación personal y política de Donald Trump con la caída de Maduro. Esta se manifestó en su primer mandato y se vio reforzada con el fracaso del reconocimiento del líder opositor venezolano Juan Guaidó como presidente en 2019.

Como ya argumentó el experto en política internacional Christopher Sabatini en Foreign Policy (25 de enero de 2024), la estrategia estadounidense ha oscilado de la narrativa antidrogas a un objetivo explícito de cambio de régimen, sin un plan claro para la transición democrática posterior.

Esta ausencia de rumbo se ha puesto de manifiesto de nuevo tras la reciente intervención militar. Pese a que la oposición unificada ganó las elecciones del 28 de julio de 2024, con Edmundo González como candidato sustituto de María Corina Machado, la administración Trump ha optado por negociar con figuras del propio chavismo, en particular con la vicepresidenta Delcy Rodríguez.

Esta decisión, analizada también por centros como el citado Chatham House, revela una preferencia por una salida pragmática apoyada en élites del régimen antes que por la legitimidad democrática de la oposición.

Lo que se juega la Unión Europea

La UE se ha posicionado en numerosas ocasiones a favor de una transición democrática en Venezuela, pero siempre subrayando la necesidad de una solución pacífica y conforme al derecho internacional. La Alta Representante de la UE, Kaja Kallas, y la presidenta de la Comisión, Ursula von der Leyen, han reiterado que, aunque Bruselas no reconocía la legitimidad de Maduro tras las elecciones “ni libres ni justas” de 2024, nunca respaldó una intervención militar extranjera.

Este episodio coloca a la UE ante una disyuntiva incómoda: si tolera o legitima de facto la actuación de Washington, debilita su propio discurso jurídico frente a otros escenarios (Ucrania, Gaza, Sahel) donde exige respeto estricto a la soberanía estatal y a la Carta de la ONU.

La operación en Venezuela funciona como un test de estrés de la capacidad europea para defender un orden basado en normas frente a la lógica de esferas de influencia y golpes preventivos.

División interna y autonomía estratégica

La reacción europea ha sido fragmentada. Mientras las instituciones comunitarias y la mayoría de Estados miembros insisten en la moderación y el respeto del derecho internacional, algunos gobiernos y sectores políticos han mostrado comprensión hacia la captura de un líder al que no consideraban legítimo. Un informe periodístico señala que hasta 26 Estados miembros, con la única excepción de Hungría, criticaron las formas de la operación estadounidense, revelando fisuras en la política exterior común.

Esta división pone en entredicho la capacidad de la UE para ejercer la tan cacareada “autonomía estratégica”. Un principio que se inscribe en la Estrategia Global sobre Política Exterior y de Seguridad.

Tal como destacan varios expertos consultados por think tanks europeos, al aceptar una intervención que vulnera principios fundacionales de la UE, esta envía la señal de que Europa sigue subordinada a la agenda de Washington cuando se trata del hemisferio occidental.

Lo que se juega España.

España ha reaccionado con una combinación de condena jurídica y prudencia diplomática. El Gobierno ha llamado a la desescalada, ha reclamado respeto al derecho internacional y ha reiterado que no reconoció las elecciones que mantuvieron a Maduro en el poder, ni reconoce tampoco una solución impuesta militarmente desde el exterior.

El presidente Pedro Sánchez ha insistido en que cualquier transición debe ser venezolana, pacífica y respaldada por organismos multilaterales.

Diplomacia, relación transatlántica y liderazgo en América Latina

Al mismo tiempo, España se ve obligada a gestionar la relación con su principal aliado de seguridad, Estados Unidos, en un contexto de fuerte asimetría de poder. Por un lado, aspira a desempeñar un papel de mediador entre Europa, Washington y América Latina, en consonancia con su Estrategia de Acción Exterior 2025-2028, del Ministerio de Asuntos Exteriores, Unión Europea y Cooperación. Pero la unilateralidad de la operación limita su margen de maniobra y la expone a presiones simultáneas de ambos lados.

Polarización interna y comunidad venezolana

La crisis también exacerba divisiones en la política doméstica española. Mientras el Gobierno central evita una ruptura frontal con Estados Unidos, partidos de la izquierda como Sumar o Podemos han calificado la operación de “violación muy grave de la Carta de la ONU” y “piratería imperialista”. Sus dirigentes reclaman una condena firme y el rechazo a cualquier invasión. Desde la oposición conservadora, en cambio, se ha enfatizado que la caída de Maduro era deseable, pero se utiliza el episodio para cuestionar la supuesta “ambigüedad” del Ejecutivo español hacia el chavismo.

España es, además, uno de los principales destinos de la diáspora venezolana en Europa, con cientos de miles de residentes y numerosos casos de doble nacionalidad. Estudios sobre migraciones latinoamericanas y datos recogidos por organismos europeos muestran que cualquier agravamiento del conflicto y de la inestabilidad puede traducirse en nuevas oleadas migratorias, lo que convierte la crisis venezolana en un asunto de política interior en materia de integración, vivienda y mercado laboral.

Energía, recursos y transición ecológica

La captura de Maduro y el debilitamiento del núcleo dirigente chavista reabren la cuestión del control de los recursos energéticos venezolanos. Esto se produce en un momento de elevada volatilidad de los mercados debido a la guerra en Ucrania y a la transición verde. Declaraciones de Trump sobre qué empresas estadounidenses “se harán cargo del petróleo venezolano” alimentan la percepción de que la operación responde también, aunque no solo, a un cálculo económico.

Para España y la UE, que buscan diversificar proveedores de hidrocarburos y, a la vez, reducir la dependencia de combustibles fósiles, esta situación plantea un dilema.

La primera opción implica aprovechar una eventual reapertura del sector petrolero venezolano en clave de seguridad energética. Otra consiste en condicionar cualquier acercamiento económico a garantías de transición democrática y respeto de los derechos humanos. Una aproximación puramente oportunista dañaría la credibilidad climática y de derechos humanos de Europa en el Sur Global.

Venezuela y el futuro del orden internacional

Lo que ocurra en Venezuela excede las fronteras del país y del continente americano. Representa un indicador de hasta que punto el uso de la fuerza vuelve a imponerse sobre el derecho en la política global. Diversos análisis académicos y de think tanks (desde Chatham House hasta el GMF y el European Policy Centre) coinciden en que la operación estadounidense marca un precedente peligroso de lo que puede suponer una Doctrina Monroe 2.0 o, como ya se empieza a denominar, “Donroe” (cambiando la “M” por la “D” de Donald). Un escenario donde la hegemonía regional se ejerce por medios militares y judiciales unilaterales.

The Conversation

Armando Alvares Garcia Júnior no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Venezuela: el dilema entre legalidad internacional y ‘realpolitik’ que afrontan Europa y España – https://theconversation.com/venezuela-el-dilema-entre-legalidad-internacional-y-realpolitik-que-afrontan-europa-y-espana-272771

Vous choisissez une carrière ? Dans un marché du travail en constante évolution, écoutez votre voix intérieure

Source: The Conversation – in French – By Kobus Maree, Professor of Educational Psychology, University of Pretoria

Le monde du travail d’aujourd’hui, au 21ᵉ siècle, est beaucoup plus imprévisible que celui du 20ᵉ. Des métiers apparaissent puis disparaissent. Les postes évoluent constamment, et l’automatisation ou les bouleversements numériques sont désormais la norme. Beaucoup de jeunes exerceront un jour des métiers qui n’existent pas encore. Le changement est la nouvelle constante.

Dans ce monde, l’orientation professionnelle se concentre sur la gestion des transitions répétées et le développement de la résilience. Il s’agit de l’employabilité et de la conception d’une vie professionnelle épanouissante, et non de trouver un « emploi à vie ». Elle reconnaît que l’activité économique fait partie d’une réalité sociale plus globale.

Au cœur de cette démarche se trouve la recherche d’un sens à donner à sa vie.

En tant que conseiller d’orientation professionnelle et universitaire, j’ai traversé des décennies d’innovation, de recherche et de pratique en Afrique du Sud et au-delà. J’ai découvert que les travaux du psychologue américain Mark Savickas offrent un moyen utile de comprendre comment les gens construisent une carrière réussie et pleine de sens dans un monde en mutation.

Sa théorie de la construction de carrière propose de ne plus chercher à « assortir » une personne à un environnement “idéal”. Il faut plutôt voir chaque individu comme l’auteur de sa trajectoire. Chacun essaie de créer du sens, de comprendre ses thèmes de vie, et de s’adapter à un monde imprévisible.

En clair, choisir une carrière ne dépend pas seulement de nos compétences ou de nos centres d’intérêt. Cela dépend de la façon dont nous comprenons notre histoire, de nos valeurs, et de notre capacité à faire face aux changements.

Dans mes travaux, j’insiste sur le fait que l’orientation professionnelle doit s’appuyer sur les « histoires » des personnes (la façon dont elles se perçoivent) ainsi que sur leurs « scores » (les données objectives les concernant). C’est pourquoi j’ai développé des outils qui combinent des approches qualitatives et quantitatives pour explorer les intérêts d’une personne.

Je pense également que l’orientation professionnelle doit s’appuyer sur le contexte dans lequel vit chaque personne. Par exemple, en Afrique du Sud, les jeunes sont confrontés à de multiples transitions professionnelles et personnelles, à des opportunités limitées et à des contraintes systémiques, telles qu’un accès inégal et restreint à une éducation et une scolarité de qualité, un manque d’opportunités d’emploi et un soutien insuffisant en matière d’orientation professionnelle. Mon travail dans ce contexte sud-africain met l’accent sur l’autonomie (personnelle), l’adaptabilité (professionnelle), le sens et l’espoir.

Cela va au-delà de la question « quel emploi vous convient le mieux » pour aboutir à un processus plus riche, basé sur le récit de vie. Les personnes racontent leur parcours, repèrent les moments charnières, réfléchissent à leurs valeurs et imaginent les prochains chapitres de leur vie professionnelle. En bref, elles apprennent à s’écouter : leurs souvenirs, leurs rêves, leurs valeurs, leurs identités personnelles et professionnelles en construction. Elles apprennent aussi à construire une histoire qui compte vraiment pour eux-mêmes et pour les autres.

Je pense également que les conseillers d’orientation professionnelle devraient essayer d’aider les gens à gérer leurs déceptions, leur tristesse et leur douleur, et leur donner les moyens de guérir les autres et eux-mêmes.

Conseils pour les personnes en début de carrière

L’adaptabilité est un thème central dans la théorie actuelle de la carrière. Elle comporte quatre dimensions :

  • la préoccupation (à propos de l’avenir)

  • le contrôle (sur votre destin)

  • la curiosité (explorer les possibilités)

  • la confiance (en votre capacité à agir).

Lorsque vous développez ces capacités, vous êtes mieux armé pour gérer les transitions professionnelles, redéfinir votre trajectoire de façon pertinente et réactive, et atteindre un équilibre satisfaisant entre vie professionnelle et vie privée.

J’ai constaté que dans la pratique, il est utile de :

  • réfléchir aux « tournants » majeurs de votre carrière et de vos premiers souvenirs

  • intégrer la connaissance de soi à la compréhension des évolutions d’un secteur, des innovations technologiques et des dynamiques économiques.

  • s’appuyer sur des « récits » (informations subjectives sur vous-même) et des « scores » (données objectives)

  • développer un sens de la mission (ce que le travail signifie pour vous personnellement) et une vision (votre contribution à la société, et pas seulement votre titre professionnel).

Je vous invite à réfléchir profondément à votre histoire, à identifier les moments clés qui vous ont façonné, à clarifier vos valeurs et à décider de la contribution que vous souhaitez apporter. Ensuite, (re)concevez votre cheminement, étape par étape, une transition à la fois.

Si possible, une année sabbatique peut être un bon moment pour mener cette réflexion, acquérir de nouvelles compétences et développer des qualités telles que la capacité d’adaptation.

L’un des meilleurs conseils pour les jeunes diplômés des écoles était le suivant : « Procurez-vous un passeport et parcourez le monde. »

Comment un conseiller peut vous aider

L’un des principes fondamentaux de mon travail: l’orientation professionnelle doit profiter non seulement aux individus, mais aussi aux groupes. Il doit promouvoir les idéaux de justice sociale, de travail décent et une contribution significative de chacun à la société.

Pour moi, le rôle des praticiens n’est pas de conseiller les autres, mais de leur permettre d’écouter leur voix intérieure.

En d’autres termes, dans un monde incertain, le sens de la vie devient une boussole, une étoile polaire. Il donne une direction. En vous aidant à trouver les fils qui relient votre vie et votre parcours professionnel unique, un conseiller vous aide à prendre le contrôle de votre vie professionnelle dans des contextes changeants.

L’orientation professionnelle met également l’accent sur la promotion de la durabilité des sociétés et des environnements essentiels aux moyens de subsistance de chacun.

Aujourd’hui, l’orientation professionnelle est plus nécessaire que jamais. Ce n’est pas un luxe. Ce n’est pas une liste de réponses toutes faites. C’est un soutien pour devenir adaptable, réfléchi, résilient et porteur d’espoir.

The Conversation

Kobus Maree does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Vous choisissez une carrière ? Dans un marché du travail en constante évolution, écoutez votre voix intérieure – https://theconversation.com/vous-choisissez-une-carriere-dans-un-marche-du-travail-en-constante-evolution-ecoutez-votre-voix-interieure-271548

Que sont les xénobots, ces robots biologiques qui bouleversent les frontières entre vivant et machine ?

Source: The Conversation – in French – By Jean-François Bodart, Professeur des Universités, en Biologie Cellulaire et Biologie du Développement, Université de Lille

Un xénobot (en rouge) en forme de Pac-Man, conçu par IA, en train de se répliquer grâce à des cellules compressées en une sphère (en vert) pour reproduire sa forme. Douglas Blackiston, Sam Kriegman, CC BY-SA

Les xénobots attirent aujourd’hui l’attention. Cette nouvelle catégorie de « robots vivants », fabriqués à partir de cellules d’amphibien et conçus grâce à des algorithmes, est capable de se déplacer, de se réparer et même, dans certaines expériences, de se reproduire en assemblant de nouveaux agrégats cellulaires. Ces entités questionnent la frontière entre machine et organisme. Des études récentes détaillent mieux leur fonctionnement moléculaire et ravivent les débats éthiques sur le contrôle de ces formes de vie programmables.


Les xénobots sont des entités biologiques artificielles entièrement composées de cellules vivantes issues d’embryons de xénope (Xenopus laevis), un amphibien africain. Prélevées sur des embryons de stade précoce, ces cellules sont encore indifférenciées : elles ne se sont pas encore spécialisées pour devenir des cellules de peau ou du foie par exemple. Elles sont cependant déjà « programmées » naturellement pour devenir des cellules qui tapissent les surfaces internes et externes du corps (peau, parois des organes, vaisseaux) ou des cellules contractiles du muscle cardiaque. Les contractions de ces cellules cardiaques agissent comme de minuscules moteurs, générant une propulsion, qui permet aux xénobots de se déplacer dans un milieu aquatique.

Xénobot par microscopie
Un xénobot conçu par IA est fait de cellules de muscle cardiaque, ce qui lui permet de se déplacer.
Douglas Blackiston, Sam Kriegman, CC BY

Pour fabriquer un xénobot, on isole et on assemble manuellement des groupes de cellules, comme des « briques biologiques ». À l’issue de cette phase de microchirurgie et d’organisation tridimensionnelle, les xénobots sont des entités de moins d’un millimètre de morphologies variables selon la fonction recherchée. Ils ne disposent d’aucun système nerveux ni organe sensoriel. Leur comportement est uniquement dicté par leur forme et leur composition cellulaire, toutes deux déterminées lors de leur création via des techniques de bio-ingénierie.

Bien qu’ils soient constitués uniquement de cellules vivantes, on parle de robots biologiques ou biobots, car ils obéissent à des tâches prédéfinies par l’humain : déplacement, coopération en essaim, transport d’objets, voire contrôle et assemblage d’autres xénobots à partir de cellules libres présentes autour d’eux (on parle d’autoréplication). Le terme « robot » prend ici un sens élargi, fondé sur la capacité à accomplir une tâche, en l’occurrence programmée par la forme et non par un logiciel interne.

Des robots biologiques conçus avec de l’IA

Avant de fabriquer un xénobot en laboratoire, des programmes d’intelligence artificielle (IA) sont utilisés pour tester virtuellement et simuler des milliers de formes et d’agencements cellulaires. Des algorithmes calculent quelles combinaisons fonctionneraient le mieux pour atteindre l’objectif fixé par le cahier des charges : par exemple, maximiser la vitesse de déplacement, transporter une charge ou induire de l’autoréplication.

Le lien entre l’intelligence artificielle et les cellules n’existe que lors de l’étape théorique de la conception. L’IA sert exclusivement à prédire et à optimiser la forme la plus adéquate, qui sera ensuite réalisée par microchirurgie et assemblage par des humains. Elle ne fournit aucun processus cognitif embarqué dans le xénobot, qui n’est donc pas contrôlé par une IA et ne possède aucune autonomie décisionnelle, contrairement à d’autres types de robots en développement.

Représentation schématique puis photo de microscopie d’un xénobot
À gauche, le design du xénobot, tel que proposé par un programme d’intelligence artificielle. À droite, l’organisme réel, construit à partir de cellules de peau (en vert) et de muscle cardiaque (en rouge).
Douglas Blackiston, Sam Kriegman, CC BY

Les xénobots ont d’abord été conçus sous forme de sphères, de triangles ou de pyramides, des géométries simples choisies pour être faciles à construire, afin d’étudier de manière contrôlée la manière dont la forme et la disposition des cellules influencent le mouvement.

La forme en croissant, dite Pac-Man, a été identifiée par intelligence artificielle comme la plus performante pour s’autorépliquer. La réplication est cependant limitée à trois ou quatre générations en laboratoire et les xénobots se dégradent après environ dix jours, limitant leurs applications à plus long terme.

Quelles applications pour les xénobots ?

Toutes les applications envisagées demeurent pour l’instant expérimentales. Certaines fonctions (locomotion, agrégation de particules, autoréparation, réplication limitée) ont été démontrées in vitro, ce qui constitue des preuves de concept. En revanche, les usages proposés en médecine ou pour l’environnement restent pour l’instant des hypothèses extrapolées à partir de ces expériences et de modèles informatiques, sans validation chez l’animal.

Dans le domaine environnemental, grâce à leur petite taille, leur forte biodégradabilité et leur capacité à fonctionner en essaim, les xénobots pourraient être utilisés pour concentrer des microparticules ou des polluants en un même endroit, avant une étape de récupération ou de traitement adaptée, les xénobots eux-mêmes se dégradant ensuite sans laisser de trace biologique.

Des versions plus complexes de xénobots pourraient être utilisées comme marqueurs visuels de modifications dans un environnement. Un tel xénobot, exposé à un certain type de polluant, subirait un changement de structure et de couleur. Cette propriété permettrait en quelque sorte de lire ce que le xénobot a rencontré dans son environnement, à l’image d’un capteur lumineux. Cette application n’a cependant pas encore été démontrée expérimentalement.

Cinq constructions schématiques de xénobots accompagnés à chaque fois d’une photographie de l’organisme réel
Le programme d’intelligence artificielle est capable de proposer des centaines de designs possibles, chacun ayant des propriétés spécifiques pour des applications différentes.
Douglas Blackiston, Sam Kriegman, CC BY

Dans le domaine médical, les xénobots pourraient être utilisés, tout comme d’autres microrobots, pour transporter localement des molécules thérapeutiques autour de cellules cibles, en réduisant ainsi la toxicité sur les tissus sains. La possibilité que les xénobots puissent servir à la livraison de molécules, comme des anticancéreux, reste cependant une extrapolation à partir d’expériences in vitro préliminaires sur d’autres microrobots.

Enfin, la recherche fondamentale pourrait bénéficier de l’existence de ces objets. L’organisation cellulaire des xénobots, hors du contexte embryonnaire, offre un modèle pour explorer la plasticité cellulaire ou tissulaire, la coordination cellulaire collective et l’auto-organisation, domaines clés pour comprendre l’évolution d’entités vivantes.

Des propriétés inattendues

Au-delà des tâches programmées, des propriétés remarquables ont été identifiées expérimentalement. Par exemple, des xénobots exposés à des vibrations sonores modifient significativement leur comportement moteur, passant d’une rotation à un déplacement linéaire rapide, une réaction absente chez les embryons de xénope au même stade.

En regroupant des cellules selon des architectures originales, les xénobots obligeraient ces cellules à reprogrammer en partie leur activité génétique : des analyses des gènes activés par ces cellules montrent l’activation de voies de stress, de réparation tissulaire ou de remodelage, qui ne sont pas utilisées de la même façon dans l’embryon intact.

De plus, dans ces expériences, plusieurs xénobots sectionnés se réparent spontanément et retrouvent un mouvement coordonné, ce qui suggère une communication à courte distance entre cellules, probablement via des signaux bioélectriques et chimiques, alors qu’aucun nerf n’est présent. Ces comportements illustrent une forte plasticité cellulaire, dont l’ampleur varie selon la manière dont les tissus ont été assemblés et les conditions de culture employées.

Derrière les promesses, des enjeux éthiques majeurs

Les promesses d’applications médicales ou environnementales ne doivent pas occulter l’ambiguïté de statut de ces entités, ni organismes naturels ni machines traditionnelles. Les xénobots sont des assemblages cellulaires conçus par l’humain appuyé par des systèmes d’intelligence artificielle. Leur déploiement reste, aujourd’hui, de l’ordre de l’hypothèse.

Plusieurs risques sont discutés par les bioéthiciens. Écologique d’abord, en cas d’acquisition par les xénobots d’une capacité de survie ou de réplication inattendue dans l’environnement. Sanitaire ensuite, en cas d’utilisation chez l’humain sans maîtrise complète de leur comportement à long terme. Un risque de détournement enfin, par exemple pour la libération ciblée d’agents toxiques.




À lire aussi :
Xénobots, biobots : doit-on avoir peur des « robots vivants » ?


À cela s’ajoutent des enjeux plus symboliques : brouiller davantage la frontière entre vivant et non-vivant pourrait fragiliser certains cadres juridiques de protection du vivant, d’où les appels à un cadre réglementaire international spécifique à ces biorobots. Les promesses d’applications médicales ou dans le domaine de l’environnement ne doivent pas occulter l’ambiguïté de statut de ces entités, qui exigent une réflexion éthique et un cadre réglementaire international.

L’extension de l’utilisation de ces outils biologiques à des cellules humaines ne devra se réaliser que dans un cadre strictement contrôlé et sous supervision d’un comité éthique pluridisciplinaire. Plusieurs travaux dans ce domaine recommandent déjà des évaluations systématiques des risques (écologiques, sanitaires et de détournement), une transparence des protocoles et une implication du public dans les décisions de déploiement.

Il a été proposé de créer des instances spécifiques à cette technologie, chargées de vérifier la biodégradabilité, la limitation de la réplication, la traçabilité des essais et le respect de la dignité du vivant. Dans ce contexte, l’usage éventuel de xénobots ou d’organismes similaires dérivés de cellules humaines devrait s’inscrire dans un cadre réglementaire international inspiré de ces recommandations, avec des garde-fous comparables à ceux mis en place pour les organismes génétiquement modifiés (OGM) ou les thérapies géniques.

The Conversation

Jean-François Bodart ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Que sont les xénobots, ces robots biologiques qui bouleversent les frontières entre vivant et machine ? – https://theconversation.com/que-sont-les-xenobots-ces-robots-biologiques-qui-bouleversent-les-frontieres-entre-vivant-et-machine-272362

Éditer le génome pour soigner : où en sont les thérapies issues de CRISPR et ses dérivés ?

Source: The Conversation – in French – By Carole Arnold, Docteur en sciences biologiques, Université de Haute-Alsace (UHA)

Ce qui ressemblait hier encore à de la science-fiction est désormais une réalité clinique : l’édition du génome humain avec CRISPR-Cas9 commence à guérir des maladies jusque-là incurables. Mais où en est réellement cette révolution annoncée ? Entre premiers succès cliniques, limites techniques et questions éthiques persistantes, les thérapies issues de CRISPR dessinent un paysage où promesses et prudence sont désormais indissociables.


Nous assistons à une nette montée des espoirs pour des maladies rares, souvent « orphelines ». Par exemple, un nourrisson atteint d’un déficit métabolique rare (une maladie génétique dans laquelle une enzyme ou une voie métabolique essentielle ne fonctionne pas correctement) dû à une mutation sur le gène CPS1, a reçu en 2025 un traitement « sur mesure » utilisant la technique d’édition de base (base editing), avec des résultats biologiques encourageants. Aujourd’hui, l’édition génique n’est plus une hypothèse lointaine, mais donne des résultats concrets et change déjà la vie de certains patients. Pour comprendre ce qui est en train de se jouer, il faut revenir sur les progrès fulgurants de ces dernières années, des premiers essais pionniers aux versions de plus en plus sophistiquées de l’édition génomique.

Développée en 2012 grâce à l’association d’une endonucléase, Cas9, et de petits ARN guides (sgRNA), cette méthode d’édition ciblée du génome a bouleversé la biologie moderne, au point de valoir à ses inventrices le prix Nobel de chimie en 2020. Depuis son invention, le CRISPR-Cas9 classique est largement utilisé dans les laboratoires, dont le nôtre, pour créer des modèles cellulaires de maladies, fabriquer des cellules qui s’illuminent sous certaines conditions ou réagissent à des signaux précis, et explorer le rôle de gènes jusqu’ici mystérieux.

Un premier système extraordinaire mais imparfait

Côté clinique, l’utilisation de CRISPR-Cas9 a ouvert des possibilités thérapeutiques inédites : modifier précisément un gène, l’inactiver ou en corriger une version défectueuse, le tout avec une simplicité et une rapidité jusqu’alors inimaginables. Mais cette puissance s’accompagnait alors de limites importantes : une précision parfois imparfaite, avec des coupures hors-cible difficiles à anticiper (des modifications accidentelles de l’ADN réalisées à des endroits non prévus du génome), une efficacité variable selon les cellules, et l’impossibilité d’effectuer des modifications plus fines sans induire de cassure double brin (une rupture affectant les deux brins d’ADN à un site génomique spécifique) potentiellement délétère.

Ces limites tiennent en grande partie au recours obligatoire aux cassures double brin et à la réparation par homologie (mode de réparation de l’ADN dans lequel la cellule s’aide d’une séquence d’ADN modèle très similaire – ou fournie par le chercheur – pour réparer une cassure double brin), un mécanisme peu fiable et inégal selon les types cellulaires. Mais la véritable rupture est apparue à partir de 2016 avec l’invention des éditeurs de base (base editors), des versions ingénieusement modifiées de CRISPR capables de changer une seule lettre de l’ADN sans provoquer de cassure double brin. Pour la première fois, il devenait possible de réécrire le génome avec une précision quasi chirurgicale, ouvrant la voie à des corrections plus sûres et plus fines que celles permises par Cas9 classique. Cependant, les base editors restaient limités : ils permettaient d’effectuer certaines substitutions de bases, mais étaient incapables de réaliser des insertions ou des modifications plus complexes du génome.

Ces limitations des base editors ont été en partie levées avec l’arrivée de leurs successeurs, les prime editors, en 2019 : ces nouvelles machines moléculaires permettent non seulement de substituer des bases, mais aussi d’insérer ou de supprimer de courtes séquences (jusqu’à plusieurs kilobases), le tout sans provoquer de cassure double brin, offrant ainsi un contrôle beaucoup plus fin sur le génome. Cette technique a été utilisée avec succès pour créer en laboratoire des modèles cellulaires et animaux de maladies génétiques, et des plantes transgéniques. Cependant, en pratique, son efficacité restait trop faible pour des traitements humains, et le résultat dépendait du système de réparation de la cellule, souvent inactif ou aléatoire. Mais en six ans, la technique a gagné en précision et polyvalence, et les études chez l’animal ont confirmé à la fois son efficacité et la réduction des effets hors-cible. Résultat : en 2025, six ans après son invention, le prime editing fait enfin son entrée en clinique, un moment que beaucoup de médecins décrivent comme un véritable tournant pour la médecine.

Des traitements sur le marché

Dès 2019, de premiers essais cliniques avec le système CRISPR-Cas9 classique (le médicament Casgevy) avaient été réalisés sur des patients atteints de β-thalassémie et drépanocytose, deux maladies génétiques de l’hémoglobine, via la correction ex vivo et la réinjection des cellules modifiées au patient. Les premiers résultats étaient prometteurs : certains patients avaient vu leur production de globules rouges anormaux corrigée de manière durable, avec une amélioration significative de leurs symptômes, après une unique injection. Le traitement Casgevy a d’ailleurs été approuvé en Europe en 2024, pour un coût d’environ 2 millions d’euros par patient.

Plus récemment, en 2025 un bébé atteint d’une mutation du gène CPS1 a été guéri grâce à l’édition de base, la version moins invasive et plus sûre de CRISPR-Cas9, mais qui reste limitée aux substitutions ponctuelles et ne permet pas toutes les modifications (pas d’insertion de séquences longues). Mais aujourd’hui, le prime editing lève les deux grands verrous du CRISPR-Cas9 classique – la nécessité de casser l’ADN et la dépendance à des mécanismes de réparation inefficaces – ouvrant la voie à une édition plus sûre, plus précise et applicable à un spectre beaucoup plus large de maladies.

Il n’est plus limité à de simples conversions ponctuelles, mais permet pour la première fois de remplacer ou restaurer un gène complet, de façon précise et contrôlée. L’année 2025 marque le premier succès clinique d’une telle thérapie – une étape historique pour l’édition génomique. En effet, le 19 mai 2025 la société Prime Medicine fondée par David Liu, inventeur du prime editing, a annoncé la première administration humaine de sa thérapie, destinée à un jeune patient atteint de granulomatose chronique, une maladie immunitaire rare liée à une mutation de l’ADN. Les premiers résultats biologiques de ce « CRISPR ultrapuissant » se sont révélés très prometteurs, ouvrant une nouvelle ère pour l’édition génomique. Il faudra toutefois patienter encore quelques mois avant de mesurer réellement le succès du prime editing : les premiers essais cliniques restent très récents et le manque de recul ne permet pas encore d’en tirer des conclusions définitives, notamment en termes de sécurité – l’absence d’effets secondaires – et de stabilité à long terme.

Ces stratégies d’édition du génome s’inscrivent pleinement dans le mouvement de la médecine personnalisée, où chaque traitement est conçu sur mesure pour un patient donné, en fonction de sa mutation spécifique – un véritable médicament « pour lui seul ». Pour la suite, des sociétés annoncent déjà vouloir continuer l’aventure avec des stratégies consistant à administrer directement les traitements dans le corps, sans passer par la modification in vitro de cellules prélevées chez le patient – une procédure complexe et onéreuse.

D’un prototype de laboratoire, on est donc passés en un temps record à une technologie polyvalente, et on entre désormais dans l’ère de la médecine personnalisée même pour des pathologies très rares. Le champ d’application s’élargit : on ne se contente plus des pathologies sanguines – des essais et projets explorent des maladies métaboliques, des infections chroniques (ex. thérapies pour hépatite B) ou des maladies héréditaires rares. De nouvelles avancées viennent constamment enrichir le potentiel de CRISPR, élargissant sans cesse ses possibilités. Tous les types de maladies ne sont pas encore éligibles : les pathologies monogéniques (mutation simple, bien identifiée) sont les plus adaptées. Pour des maladies multifactorielles, complexes, ou dépendant de l’environnement, l’édition reste beaucoup moins directe. De plus, certaines cibles (cellules non accessibles, tissus spécifiques, traitement in vivo) restent techniquement très difficiles. C’est également un défi économique, tant les traitements de médecine personnalisée restent extrêmement coûteux.

The Conversation

Carole Arnold a reçu des financements de l’INSERM, la Région Grand-Est, le FEDER et l’ANR.

ref. Éditer le génome pour soigner : où en sont les thérapies issues de CRISPR et ses dérivés ? – https://theconversation.com/editer-le-genome-pour-soigner-ou-en-sont-les-therapies-issues-de-crispr-et-ses-derives-271034

D’où venons-nous ? Un voyage de 4 milliards d’années jusqu’à l’origine de nos cellules

Source: The Conversation – in French – By Purificación López García, Directrice de recherche CNRS, Université Paris-Saclay

Entrée à l’Académie des sciences en janvier 2025, Purificación López García s’intéresse à l’origine et aux grandes diversifications du vivant sur Terre. Elle étudie la diversité, l’écologie et l’évolution des microorganismes des trois domaines du vivant (archées, bactéries, eucaryotes). Avec David Moreira, elle a émis une hypothèse novatrice pour expliquer l’origine de la cellule eucaryote, celle dont sont composés les plantes, les animaux et les champignons, entre autres. Elle est directrice de recherche au CNRS depuis 2007 au sein de l’unité Écologie- Société-Évolution de l’Université Paris-Saclay et a été récompensée de la médaille d’argent du CNRS en 2017. Elle a raconté son parcours et ses découvertes à Benoît Tonson, chef de rubrique Science et Technologie.


The Conversation : Vous vous intéressez à l’origine du vivant. Vivant, que l’on classifie en trois grands domaines : les eucaryotes, des organismes dont les cellules ont un noyau, comme les humains ou les plantes par exemple ; les bactéries, qui ne possèdent pas de noyau, et un troisième, sans doute le moins connu, les archées. Pouvez-vous nous les présenter ?

Purificación López García : Ce domaine du vivant a été mis en évidence par Carl Woese à la fin des années 1970. Quand j’ai commencé mes études, à la fin des années 1980, cette découverte ne faisait pas consensus, il y avait encore beaucoup de résistance de la part de certains biologistes à accepter un troisième domaine du vivant. Ils pensaient qu’il s’agissait tout simplement de bactéries. En effet, comme les bactéries, les archées sont unicellulaires et n’ont pas de noyau. Il a fallu étudier leurs gènes et leurs génomes pour montrer que les archées et les bactéries étaient très différentes entre elles et même que les archées étaient plus proches des eucaryotes que des bactéries au niveau de leur biologie moléculaire.

Comment Carl Woese a-t-il pu classifier le vivant dans ces trois domaines ?

P. L. G. : On est donc à la fin des années 1970. C’est l’époque où commence à se développer la phylogénie moléculaire. L’idée fondatrice de cette discipline est qu’il est possible d’extraire des informations évolutives à partir des gènes et des protéines codées dans le génome de tous les êtres vivants. Certains gènes sont conservés chez tous les organismes parce qu’ils codent des ARN ou des protéines dont la fonction est essentielle à la cellule. Toutefois, la séquence en acides nucléiques (les lettres qui composent l’ADN : A, T, C et G ; U à la place de T dans l’ARN) et donc celle des acides aminés des protéines qu’ils codent (des combinaisons de 20 lettres) va varier. En comparant ces séquences, on peut déterminer si un organisme est plus ou moins proche d’un autre et classifier l’ensemble des organismes en fonction de leur degré de parenté évolutive.

Carl Woese est le premier à utiliser cette approche pour classifier l’ensemble du vivant : de la bactérie à l’éléphant, en passant par les champignons… Il va s’intéresser dans un premier temps non pas à l’ADN mais à l’ARN et, plus précisément, à l’ARN ribosomique. Le ribosome est la structure qui assure la traduction de l’ARN en protéines. On peut considérer que cette structure est la plus conservée dans tout le vivant : elle est présente dans toutes les cellules.

La classification du vivant en trois grands domaines selon Carl Woese.
CC BY

Avec ses comparaisons des séquences d’ARN ribosomiques, Woese montre deux choses : que l’on peut établir un arbre universel du vivant en utilisant des séquences moléculaire et qu’un groupe de séquences d’organismes considérés comme de bactéries « un peu bizarres », souvent associées à des milieux extrêmes, forment une clade (un groupe d’organismes) bien à part. En étudiant leur biologie moléculaire et, plus tard, leurs génomes, les archées s’avéreront en réalité beaucoup plus proches des eucaryotes, tout en ayant des caractéristiques propres, comme la composition unique des lipides de leurs membranes.

Aujourd’hui, avec les progrès des méthodes moléculaires, cette classification en trois grands domaines reste d’actualité et est acceptée par l’ensemble de la communauté scientifique. On se rend compte aussi que la plupart de la biodiversité sur Terre est microbienne.

Vous vous êtes intéressée à ces trois grands domaines au fur et à mesure de votre carrière…

P. L. G. : Depuis toute petite, j’ai toujours été intéressée par la biologie. En démarrant mes études universitaires, les questions liées à l’évolution du vivant m’ont tout de suite attirée. Au départ, je pensais étudier la biologie des animaux, puis j’ai découvert la botanique et enfin le monde microbien, qui m’a complètement fascinée. Toutes les formes de vie m’intéressaient, et c’est sûrement l’une des raisons pour lesquelles je me suis orientée vers la biologie marine pendant mon master. Je pouvais travailler sur un écosystème complet pour étudier à la fois les microorganismes du plancton, mais aussi les algues et les animaux marins.

Puis, pendant ma thèse, je me suis spécialisée dans le monde microbien et plus précisément dans les archées halophiles (celles qui vivent dans des milieux très concentrés en sels). Les archées m’ont tout de suite fascinée parce que, à l’époque, on les connaissait comme des organismes qui habitaient des environnements extrêmes, très chauds, très salés, très acides. Donc, c’était des organismes qui vivaient aux limites du vivant. Les étudier, cela permet de comprendre jusqu’où peut aller la vie, comment elle peut évoluer pour coloniser tous les milieux, même les plus inhospitaliers.

Cette quête de l’évolution que j’avais toujours à l’esprit a davantage été nourrie par des études sur les archées hyperthermophiles lors de mon postdoctorat, à une époque où une partie de la communauté scientifique pensait que la vie aurait pu apparaître à proximité de sources hydrothermales sous-marines. J’ai orienté mes recherches vers l’origine et l’évolution précoce de la vie : comment est-ce que la vie est apparue et s’est diversifiée ? Comment les trois domaines du vivant ont-ils évolué ?

Pour répondre à ces questions, vous avez monté votre propre laboratoire. Avec quelle vision ?

P. L. G. : Après un bref retour en Espagne, où j’ai commencé à étudier la diversité microbienne dans le plancton océanique profond, j’ai monté une petite équipe de recherche à l’Université Paris-Sud. Nous nous sommes vraiment donné la liberté d’explorer la diversité du vivant avec les outils moléculaires disponibles, mais en adoptant une approche globale, qui prend en compte les trois domaines du vivant. Traditionnellement, les chercheurs se spécialisent : certains travaillent sur les procaryotes – archées ou bactéries –, d’autres sur les eucaryotes. Les deux mondes se croisent rarement, même si cela commence à changer.

Cette séparation crée presque deux cultures scientifiques différentes, avec leurs concepts, leurs références et même leurs langages. Pourtant, dans les communautés naturelles, cette frontière n’existe pas : les organismes interagissent en permanence. Ils échangent, collaborent, entrent en symbiose mutualiste ou, au contraire, s’engagent dans des relations de parasitisme ou de compétition.

Nous avons décidé de travailler simultanément sur les procaryotes et les eucaryotes, en nous appuyant d’abord sur l’exploration de la diversité. Cette étape est essentielle, car elle constitue la base qui permet ensuite de poser des questions d’écologie et d’évolution.

L’écologie s’intéresse aux relations entre organismes dans un écosystème donné. Mais mes interrogations les plus profondes restent largement des questions d’évolution. Et l’écologie est indispensable pour comprendre ces processus évolutifs : elle détermine les forces sélectives et les interactions quotidiennes qui façonnent les trajectoires évolutives, en favorisant certaines tendances plutôt que d’autres. Pour moi, les deux dimensions – écologique et évolutive – sont intimement liées, surtout dans le monde microbien.

Sur quels terrains avez-vous travaillé ?

P. L. G. : Pour approfondir ces questions, j’ai commencé à travailler dans des environnements extrêmes, des lacs de cratère mexicains au lac Baïkal en Sibérie, du désert de l’Atacama et l’Altiplano dans les Andes à la dépression du Danakil en Éthiopie, et en m’intéressant en particulier aux tapis microbiens. À mes yeux, ces écosystèmes microbiens sont les véritables forêts du passé. Ce type de systèmes a dominé la planète pendant l’essentiel de son histoire.

Purificación López García dans le Salar de Quisquiro (Chili), tenant un tapis microbien.
Ana Gutiérrez-Preciado, Fourni par l’auteur

La vie sur Terre est apparue il y a environ 4 milliards d’années, alors que notre planète en a environ 4,6. Les eucaryotes, eux, n’apparaissent qu’il y a environ 2 milliards d’années. Les animaux et les plantes ne se sont diversifiés qu’il y a environ 500 millions d’années : autant dire avant-hier à l’échelle de la planète.

Pendant toute la période qui précède l’émergence des organismes multicellulaires complexes, le monde était entièrement microbien. Les tapis microbiens, constitués de communautés denses et structurées, plus ou moins épaisses, formaient alors des écosystèmes très sophistiqués. Ils étaient, en quelque sorte, les grandes forêts primitives de la Terre.

Étudier aujourd’hui la diversité, les interactions et le métabolisme au sein de ces communautés – qui sont devenues plus rares car elles sont désormais en concurrence avec les plantes et les animaux – permet de remonter le fil de l’histoire évolutive. Ces systèmes nous renseignent sur les forces de sélection qui ont façonné la vie dans le passé ainsi que sur les types d’interactions qui ont existé au cours des premières étapes de l’évolution.

Certaines de ces interactions ont d’ailleurs conduit à des événements évolutifs majeurs, comme l’origine des eucaryotes, issue d’une symbiose entre procaryotes.

Comment ce que l’on observe aujourd’hui peut-il nous fournir des informations sur le passé alors que tout le vivant ne cesse d’évoluer ?

P. L. G. : On peut utiliser les communautés microbiennes actuelles comme des analogues de communautés passées. Les organismes ont évidemment évolué – ils ne sont plus les mêmes –, mais nous savons deux choses essentielles. D’abord, les fonctions centrales du métabolisme sont bien plus conservées que les organismes qui les portent. En quelque sorte, il existe un noyau de fonctions fondamentales. Par exemple, il n’existe que très peu de manières de fixer le CO₂ présent dans l’atmosphère. La plus connue est le cycle de Calvin associé à la photosynthèse oxygénique de cyanobactéries des algues et des plantes. Ce processus permet d’utiliser le carbone du CO₂ pour produire des molécules organiques plus ou moins complexes indispensables à tout organisme.

On connaît six ou sept grandes voies métaboliques de fixation du carbone inorganique, qui sont en réalité des variantes les unes des autres. La fixation du CO₂, c’est un processus absolument central pour tout écosystème. Certains organismes, dont les organismes photosynthétiques, fixent le carbone. Ce sont les producteurs primaires.

Ensuite vient toute la diversification d’organismes et des voies qui permettent de dégrader et d’utiliser cette matière organique produite par les fixateurs de carbone. Et là encore, ce sont majoritairement les microorganismes qui assurent ces fonctions. Sur Terre, ce sont eux qui pilotent les grands cycles biogéochimiques. Pas tellement les plantes ou les animaux. Ces cycles existaient avant notre arrivée sur la planète, et nous, animaux comme plantes, ne savons finalement pas faire grand-chose à côté de la diversité métabolique microbienne.

Les procaryotes – archées et bactéries – possèdent une diversité métabolique bien plus vaste que celle des animaux ou des végétaux. Prenez la photosynthèse : elle est héritée d’un certain type de bactéries que l’on appelle cyanobactéries. Ce sont elles, et elles seules, chez qui la photosynthèse oxygénique est apparue et a évolué (d’autres bactéries savent faire d’autres types de photosynthèse dites anoxygéniques). Et cette innovation a été déterminante pour notre planète : avant l’apparition des cyanobactéries, l’atmosphère ne contenait pas d’oxygène. L’oxygène atmosphérique actuel n’est rien d’autre que le résultat de l’accumulation d’un déchet de cette photosynthèse.

Les plantes et les algues eucaryotes, elles, n’ont fait qu’hériter de cette capacité grâce à l’absorption d’une ancienne cyanobactérie capable de faire la photosynthèse (on parle d’endosymbiose). Cet épisode a profondément marqué l’évolution des eucaryotes, puisqu’il a donné naissance à toutes les lignées photosynthétiques – algues et plantes.

À l’instar de la fixation du carbone lors de la photosynthèse, ces voies métaboliques centrales sont beaucoup plus conservées que les organismes qui les portent. Ces organismes, eux, évoluent en permanence, parfois très rapidement, pour s’adapter aux variations de température, de pression, aux prédateurs, aux virus… Pourtant, malgré ces changements, les fonctions métaboliques centrales restent préservées.

Et ça, on peut le mesurer. Lorsque l’on analyse la diversité microbienne dans une grande variété d’écosystèmes, on observe une diversité taxonomique très forte, avec des différences d’un site à l’autre. Mais quand on regarde les fonctions de ces communautés, de grands blocs de conservation apparaissent. En appliquant cette logique, on peut donc remonter vers le passé et identifier des fonctions qui étaient déjà conservées au tout début de la vie – des fonctions véritablement ancestrales. C’est un peu ça, l’idée sous-jacente.

Finalement, jusqu’où peut-on remonter ?

P. L. G. : On peut remonter jusqu’à un organisme disons « idéal » que l’on appelle le Last Universal Common Ancestor, ou LUCA – le dernier ancêtre commun universel des organismes unicellulaires. Mais on sait que cet organisme était déjà très complexe, ce qui implique qu’il a forcément été précédé d’organismes beaucoup plus simples.

On infère l’existence et les caractéristiques de cet ancêtre par comparaison : par la phylogénie moléculaire, par l’étude des contenus en gènes et des propriétés associées aux trois grands domaines du vivant. En réalité, je raisonne surtout en termes de deux grands domaines, puisque l’on sait aujourd’hui que les eucaryotes dérivent d’une symbiose impliquant archées et bactéries. Le dernier ancêtre commun, dans ce cadre, correspondrait donc au point de bifurcation entre les archées et les bactéries.

À partir de là, on peut établir des phylogénies, construire des arbres, et comparer les éléments conservés entre ces deux grands domaines procaryotes. On peut ainsi inférer le « dénominateur commun », celui qui devait être présent chez cet ancêtre, qui était probablement déjà assez complexe. Les estimations actuelles évoquent un génome comprenant peut-être entre 2 000 et 4 000 gènes.

Cela nous ramène à environ 4 milliards d’années. Vers 4,4 milliards d’années, on commence à voir apparaître des océans d’eau liquide et les tout premiers continents. C’est à partir de cette période que l’on peut vraiment imaginer le développement de la vie. On ne sait pas quand exactement, mais disons qu’autour de 4-4,2 milliards d’années, c’est plausible. Et on sait que, à 3,5 milliards d’années, on a déjà des fossiles divers de tapis microbiens primitifs (des stromatolites fossiles).

Et concernant notre groupe, les eucaryotes, comment sommes-nous apparus ?

P. L. G. : Nous avons proposé une hypothèse originale en 1998 : celle de la syntrophie. Pour bien la comprendre, il faut revenir un peu sur l’histoire des sciences, notamment dans les années 1960, quand Lynn Margulis, microbiologiste américaine, avance la théorie endosymbiotique. Elle propose alors que les chloroplastes des plantes et des algues – les organites qui permettent de réaliser la photosynthèse dans les cellules de plantes – dérivent d’anciennes bactéries, en particulier de cyanobactéries, qu’on appelait à l’époque « algues vert-bleu ». Et elle avance aussi que les mitochondries, l’organite eucaryote où se déroule la respiration et qui nous fournit notre énergie, proviennent elles aussi d’anciennes bactéries endosymbiotes – un endosymbiote étant un organisme qui vit à l’intérieur des cellules d’un autre.

Ces idées, qui avaient été déjà énoncées au début du vingtième siècle et que Margulis a fait revivre, ont été très débattues. Mais à la fin des années 1970, avec les premiers arbres phylogénétiques, on a pu démontrer que mitochondries et chloroplastes dérivent effectivement d’anciennes bactéries endosymbiotes : les cyanobactéries pour les chloroplastes, et un groupe que l’on appelait autrefois les « bactéries pourpres » pour les mitochondries.

L’hypothèse dominante, à cette époque, pour expliquer l’origine des eucaryotes, repose sur un scénario dans lequel un dernier ancêtre commun se diversifie en trois grands groupes ou domaines : les bactéries, les archées et les eucaryotes. Les archées sont alors vues comme le groupe-frère des eucaryotes, avec une biologie moléculaire et des protéines conservées qui se ressemblent beaucoup. Dans ce modèle, la lignée proto-eucaryote qui conduira aux eucaryotes et qui développe toutes les caractéristiques des eucaryotes, dont le noyau, acquiert assez tardivement la mitochondrie via l’endosymbiose d’une bactérie, ce qui lancerait la diversification des eucaryotes.

Sauf que, dans les années 1990, on commence à se rendre compte que tous les eucaryotes possèdent ou ont possédé des mitochondries. Certains groupes semblaient en être dépourvus, mais on découvre qu’ils les ont eues, que ces mitochondries ont parfois été extrêmement réduites ou ont transféré leurs gènes au noyau. Cela signifie que l’ancêtre de tous les eucaryotes avait déjà une mitochondrie. On n’a donc aucune preuve qu’une lignée « proto-eucaryote » sans mitochondrie ait jamais existé.

C’est dans ce contexte que de nouveaux modèles fondés sur la symbiose émergent. On savait déjà que les archées et les eucaryotes partageaient des similarités importantes en termes de protéines impliquées dans des processus informationnels (réplication de l’ADN, transcription, traduction de l’ARN aux protéines). Nous avons proposé un modèle impliquant trois partenaires : une bactérie hôte (appartenant aux deltaprotéobactéries), qui englobe une archée prise comme endosymbionte, cette archée devenant le futur noyau. Les gènes eucaryotes associés au noyau seraient ainsi d’origine archéenne.

Puis une seconde endosymbiose aurait eu lieu, avec l’acquisition d’une autre bactérie (une alphaprotéobactérie) : l’ancêtre de la mitochondrie, installée au sein de la bactérie hôte.

Toutefois, à l’époque, ces modèles fondés sur la symbiose n’étaient pas considérés très sérieusement. La donne a changé avec la découverte, il y a une dizaine d’années, d’un groupe particulier d’archées, appelées Asgard, qui partagent beaucoup de gènes avec les eucaryotes, qui sont en plus très similaires. Les arbres phylogénétiques faits avec des protéines très conservées placent les eucaryotes au sein de ces archées. Cela veut dire que les eucaryotes ont une origine symbiogénétique : ils dérivent d’une fusion symbiotique impliquant au minimum une archée (de type Asgard) et une alpha-protéobactérie, l’ancêtre de la mitochondrie. Mais la contribution d’autres bactéries, notamment des deltaprotéobactéries, des bactéries sulfato-réductrices avec lesquelles les archées Asgard établissent des symbioses syntrophiques dans l’environnement, n’est pas exclue.

Aujourd’hui, l’eucaryogénèse est un sujet étudié activement. La découverte des archées Asgard a renforcé la vraisemblance de ce type de modèle symbiogénétique. Des chercheurs qui considéraient ces idées comme trop spéculatives – parce qu’on ne pourra jamais avoir de preuve directe d’un événement datant d’il y a 2 milliards d’années – s’y intéressent désormais. Tous ceux qui travaillent sur la biologie cellulaire des eucaryotes se posent la question, parce qu’on peut aujourd’hui remplacer certaines protéines ou homologues eucaryotes par leurs variantes Asgard… et ça fonctionne.

The Conversation

Purificación López García ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. D’où venons-nous ? Un voyage de 4 milliards d’années jusqu’à l’origine de nos cellules – https://theconversation.com/dou-venons-nous-un-voyage-de-4-milliards-dannees-jusqua-lorigine-de-nos-cellules-271900

Une proposition de loi veut supprimer l’obligation d’utiliser un cercueil et relancer le débat sur la liberté des funérailles

Source: The Conversation – in French – By Jordy Bony, Docteur et Professeur en droit à l’EM Lyon, EM Lyon Business School

Une proposition de loi déposée à la toute fin 2025 entend rouvrir un débat ancien mais de plus en plus actuel : celui du choix réel des modalités de disposition du corps après la mort, au-delà du seul face-à-face entre inhumation et crémation.


L’actualité du droit funéraire est très vivante ces dernières années et cela n’est pas prêt de s’arrêter. Pour preuve, une proposition de loi a été déposée le 23 décembre 2025, proposition visant à rendre effective la liberté des funérailles à travers le développement d’alternatives à l’inhumation et à la crémation et s’inscrivant dans la lignée d’une proposition précédente visant à développer l’humusation, un sujet qui reste dans l’actualité depuis 2023 malgré une certaine instabilité politique.

Quel est l’objet de cette nouvelle proposition de loi ?

La proposition de loi n° 2297 portée par le député Insoumis François Piquemal (4ème circonscription de la Haute-Garonne) vise « à rendre effective la liberté des funérailles ». Autrement dit, l’enjeu de ce texte n’est pas de promouvoir une alternative en particulier à l’inhumation et à la crémation mais d’offrir une plus grande marge de manœuvre aux citoyennes et citoyens français quant au choix de leurs funérailles. Pour rappel, il s’agit normalement d’une liberté déjà inscrite dans la loi de 1887 sur la liberté des funérailles mais qui est souvent interprétée comme une liberté “contrainte” puisque cantonnée au choix entre inhumation ou crémation avec obligation de recourir à un cercueil dans les deux cas.

Ainsi, le texte propose de renforcer cette liberté par une mesure forte : l’abrogation de l’obligation d’utiliser un cercueil au profit d’une liberté de choix de l’enveloppe mortuaire (article 2), suivie d’une invitation à la reconnaissance légale d’alternatives à l’inhumation et la crémation (la terramation, l’humusation et l’aquamation sont ainsi nommées dans l’article 3 de la proposition).

Là est la différence majeure entre cette proposition de loi et celle de 2023 citée en introduction : la liberté de choix de l’enveloppe mortuaire. Autant les alternatives à l’inhumation et à la crémation commencent à être connues, autant il s’agit là d’une mesure totalement inédite qui vient porter un coup à plus de 200 ans de tradition juridique, l’obligation légale d’utiliser un cercueil datant d’un arrêté du préfet de Paris de 1801 pour des raisons d’hygiène.

Enfin, là où cette nouvelle proposition de loi rejoint la précédente, c’est sur la technique légistique de l’expérimentation. Les deux propositions proposent de passer par la voie de l’expérimentation avec un délai plus crédible pour la nouvelle proposition (5 ans) contre 6 mois seulement dans celle de 2023.

Une proposition inspirée par l’actualité internationale du droit funéraire

Cette nouvelle proposition de loi n’est pas une initiative isolée. Cela commence à faire plusieurs années que nous entendons parler de reconnaissances légales d’alternatives à l’inhumation et à la crémation. C’est le cas notamment aux États-Unis, en Allemagne et peut-être bientôt en Suisse.

Ce mouvement de légalisation dans le monde témoigne d’une nouvelle sensibilité écologique et de l’aspiration de nos concitoyens à davantage de liberté dans l’organisation des funérailles.

La France n’est d’ailleurs pas le seul pays à réfléchir à l’abrogation de l’obligation légale d’utiliser un cercueil. En région bruxelloise (Belgique) il est ainsi permis depuis janvier 2019 de s’affranchir du cercueil au profit d’un linceul. On reconnait ici la théorie défendue par Alexandre Flückiger, légisticien, selon laquelle « le droit d’un État voisin est susceptible de déployer des effets d’ordre recommandationnel sur un territoire limitrophe. Le droit étranger déploie dans ce contexte un effet symbolique qui agirait sur les comportements au même titre qu’une recommandation très implicite. »

La situation en France

Enfin, en dehors de la proposition de loi, il est possible de trouver plusieurs indicateurs sur le sol français qui démontrent un vif intérêt pour une plus grande liberté des funérailles et pour l’abrogation de l’obligation légale du cercueil.

A défaut de pouvoir supprimer le cercueil, certains réfléchissent à le rendre plus vert. A Saint-Étienne la jeune entreprise Pivert Funéraire a ainsi créé un modèle pour crémation fabriqué à partir de déchet des industries sylvicoles et oléicoles.

D’autres organisent des colloques académiques sur le sujet. C’est l’exemple du colloque récent intitulé Cercueil(s) & droit(s) qui s’est tenu à l’université Toulouse capitole le 28 novembre 2025.

D’autres encore mènent des expériences effectives sur le déploiement d’alternatives à l’inhumation et la crémation. C’est l’exemple de l’expérimentation sur des brebis qui à lieu en Essonne à travers le projet ANR F-Compost.

En somme, les acteurs de la recherche et des pompes funèbres préparent le terrain pour que des projets comme celui porté par cette proposition de loi puisse voir le jour. Si une réserve pouvait être émise il y a quelques années sur l’intérêt du Parlement pour ces questions, il est permis de penser qu’à plus de 100 ans la loi sur la liberté des funérailles pourrait bientôt connaître une nouvelle vie…

The Conversation

Jordy Bony a travaillé avec le comité de recherche de l’association Humo Sapiens, pour une mort régénérative qui œuvre pour promouvoir et expérimenter la terramation en France.

ref. Une proposition de loi veut supprimer l’obligation d’utiliser un cercueil et relancer le débat sur la liberté des funérailles – https://theconversation.com/une-proposition-de-loi-veut-supprimer-lobligation-dutiliser-un-cercueil-et-relancer-le-debat-sur-la-liberte-des-funerailles-272831

LA fires showed how much neighborliness matters for wildfire safety

Source: The Conversation – USA (2) – By Elizabeth A. Logan, Associate Director of the Huntington-USC Institute on California and The West, USC Dornsife College of Letters, Arts and Sciences

Eaton fire survivors gather in Altadena, Calif., to talk about recovery six months after the LA fires. Sarah Reingewirtz/MediaNews Group/Los Angeles Daily News via Getty Images

On Jan. 7, 2025, people across the Los Angeles area watched in horror as powerful winds began spreading wildfires through neighborhood after neighborhood. Over three weeks, the fires destroyed more than 16,000 homes and businesses. At least 31 people died, and studies suggest the smoke and stress likely contributed to hundreds more deaths.

For many of us who lived through the fires, it was a traumatic experience that also brought neighborhoods closer together. Neighbors scrambled to help each other as burning embers started spot fires that threatened homes. They helped elderly and disabled residents evacuate.

A man turns a hose on a burning house while another runs.
Samuel Girma runs to get another hose as he and others try to stop the Eaton fire from spreading to more homes in Altadena, Calif. Girma was in the area on a construction job. The other man lives nearby.
Robert Gauthier/Los Angeles Times via Getty Images

As the LA region rebuilds a year later, many people are calling for improvements to zoning regulations, building codes, insurance and emergency communications systems. Conversations are underway about whether rebuilding in some locations makes sense at all.

But managing fire risk is about more than construction practices, regulations and rules. It is also about people and neighborliness – the ethos and practice of caring for those in your community, including making choices and taking steps on your own property to help keep the people around you safe.

Three men, one an older man, stand in the still-smoky ruins of what was once a home, with fire damage all around them.
Neighbors who lost their homes to a fire in Altadena, Calif., on Jan. 9, 2025, talk amid the ruins.
Zoë Meyers/AFP via Getty Images

As LA-area residents and historians who witnessed the fires’ destruction and have been following the recovery closely, we believe building a safer future for fire-risk communities includes increasing neighborliness and building shared knowledge of the past. Much of that starts in the schools.

Neighborliness matters in community fire safety

Being neighborly means recognizing the connectedness of life and addressing the common good, beyond just the individual and family network.

It includes community-wide fire mitigation strategies that can help prevent fires from spreading.

During the Southern California fires, houses, fences, sheds, roofs and dry vegetation served as the fuel for wind-blown fires racing through neighborhoods miles away from forested land. Being neighborly means taking steps to reduce risks on your own property that could put your neighbors at risk. Following fire officials’ recommendations can mean clearing defensible space around homes, replacing fire-prone plants and limiting or removing burnable material, such as wood fencing and sheds.

A woman closes her eyes as she hugs her cat.
Denise Johnson holds her cat Ramsey after the Eaton Fire. Her home was one of the few in her immediate neighborhood that survived, but recovery will take time for everyone.
AP Photo/Jae C. Hong

Neighborliness also recognizes the varying mental health impacts of significant wildfire events on the people who experience them. Being neighborly means listening to survivors and reaching out, particularly to neighbors who may be struggling or need help with recovery, and building community bonds.

Neighbors are often the first people who can help in an emergency before local, state and federal responders arrive. A fast neighborhood response, whether helping put out spot fires on a lawn or ensuring elderly residents or those without vehicles are able to evacuate, can save lives and property in natural disasters.

Fire awareness, neighborliness start in school

Community-based K-12 schools are the perfect places for learning and practicing neighborliness and providing transformative fire education.

Learning about the local history of wildfires, from the ecological impact of beneficial fire to fire disasters and how communities responded, can transform how children and their families think about fires and fire readiness.

However, in our view, fire history and safety is not currently taught nearly enough, even in fire-prone California.

A man pushes an older woman in a shopping cart along a pathway with apartments on one side and sand on the other, and thick smoke behind them.
Jerome Krausse pushes his mother-in-law in a shopping cart on a path along the beach as they evacuate amid fires in Pacific Palisades on Jan. 7, 2025.
AP Photo/Richard Vogel

California’s Department of Education Framework and Content Standards for K-12 education offer several opportunities to engage students with innovative lessons about wildfire causes, preparedness and resilience. For example, fourth grade history and social science standards include understanding “how physical environments (e.g., water, landforms, vegetation, climate) affect human activity.” Middle school science standards include mapping the history of natural hazards, though they only mention forest fires when discussing technology.

Schools could, and we believe should, include more fire history, ecological knowledge and understanding of the interconnectedness of neighborhoods and neighbors when it comes to fire safety in those and other classes.

Elementary schools in many states bring in firefighters to talk about fire safety, often through programs run by groups like the California Fire Prevention Organization. These efforts could spend more time looking beyond house fires to discuss how and where wildfires start, how they spread and how to make your own home and neighborhood much safer.

Models such as the U.S. Fire Administration’s collaboration with Sesame Workshop on the Sesame Street Fire Safety Program for preschool kids offer examples, blending catchy phrases with safety and science lessons.

The National Fire Protection Association’s Sparky the Fire Dog shares some simple steps that kids can do with their parents and friends to help keep their neighborhood safer from wildfire.

Including knowledge from Indigenous tribal elders, fire management professionals and other community members can provide more robust fire education and understanding of the roles people play in fire risk and risk reduction. Introducing students to future career pathways in fire safety and response can also help students see their roles in fire safety.

As LA recovers from the 2025 fires, fire-prone states can prepare for future fires by expanding education about fire and neighborliness, and helping students take that knowledge home to their families.

Remembering, because it will happen again

Neighborliness also demands a pivot from the reflexive amnesia regarding natural and unnatural disasters to knowing that it will happen here again.

There’s a dangerous, stubborn forgetfulness in the vaunted Land of Sunshine. It is all part of the myth that helped make Southern California such a juggernaut of growth from the late 19th century forward.

The region was, boosters and public officials insisted, special: a civilization growing in the benign embrace of the environment. Anything grew here, the endless Los Angeles Basin could absorb everyone, and if there wasn’t enough water to slake the thirst of metropolitan ambitions, engineers and taxpayers would see to it that water from far away – even very far away – would be brought here.

The Southland is beautiful, but a place can be both beautiful and precarious, particularly in the grip of climate change. These are lessons we believe should be taught in K-12 classrooms as an important step toward lowering disaster risk. Living with fire means remembering and understanding the past. That knowledge, and developing more neighborly behavior, can save your life and the lives of your neighbors.

The Conversation

Elizabeth A. Logan receives funding from the Sierra Nevada Conservancy and the WHH Foundation.

William Deverell receives funding from the Sierra Nevada Conservancy and the WHH Foundation.

ref. LA fires showed how much neighborliness matters for wildfire safety – https://theconversation.com/la-fires-showed-how-much-neighborliness-matters-for-wildfire-safety-272505

RFK Jr. guts the US childhood vaccine schedule despite its decades-long safety record

Source: The Conversation – USA (3) – By Jake Scott, Clinical Associate Professor of Infectious Diseases, Stanford University

Vaccines on the childhood schedule have been tested in controlled trials involving millions of participants and are constantly monitored for safety. GeorgiNutsov/iStock via Getty Images

The Trump administration’s overhauling of the decades-old childhood vaccination schedule, announced by federal health officials on Jan. 5, 2026, has raised alarm among public health experts and pediatricians.

The U.S. childhood immunization schedule, the grid of colored bars pediatricians share with parents, recommends a set of vaccines given from birth through adolescence to prevent a range of serious infections. The basic structure has been in place since 1995, when federal health officials and medical organizations first issued a unified national standard, though new vaccines have been added regularly as science advanced.

That schedule is now being dismantled.

In all, the sweeping change reduces the universally recommended childhood vaccines from 17 to 11. It moves vaccines against rotavirus, influenza, hepatitis A, hepatitis B and meningococcal disease from routine recommendations to “shared clinical decision-making,” a category that shifts responsibility for initiating vaccination from the health care system to individual families.

Health and Human Services Secretary Robert F. Kennedy Jr., who has cast doubt on vaccine safety for decades, justified these changes by citing a 33-page assessment comparing the U.S. schedule to Denmark’s.

But the two countries differ in important ways. Denmark has 6 million people, universal health care and a national registry that tracks every patient. In contrast, the U.S. has 330 million people, 27 million uninsured and a system where millions move between providers.

These changes follow the CDC’s decision in December 2025 to drop a long-held recommendation that all newborns be vaccinated against hepatitis B, despite no new evidence that questions the vaccine’s long-standing safety record.

The CDC announced an overhaul to the childhood vaccine schedule, bypassing the established process for making vaccine recommendations.

I’m an infectious disease physician who treats vaccine-preventable diseases and reviews the clinical trial evidence behind immunization recommendations. The vaccine schedule wasn’t designed in a single stroke. It was built gradually over decades, shaped by disease outbreaks, technological breakthroughs and hard-won lessons about reducing childhood illness and death.

The early years

For the first half of the 20th century, most states required that students be vaccinated against smallpox to enter the public school system. But there was no unified national schedule. The combination vaccine against diphtheria, tetanus and pertussis, known as the DTP vaccine, emerged in 1948, and the Salk polio vaccine arrived in 1955, but recommendations for when and how to give them varied by state, by physician and even by neighborhood.

The federal government stepped in after tragedy struck. In 1955, a manufacturing failure at Cutter Laboratories in Berkeley, California, produced batches of polio vaccine containing live virus, causing paralysis in dozens of children. The incident made clear that vaccination couldn’t remain a patchwork affair. It required federal oversight.

In 1964, the U.S. surgeon general established the Advisory Committee on Immunization Practices, or ACIP, to provide expert guidance and recommendations to the CDC on vaccine use. For the first time, a single body would evaluate the evidence and issue national recommendations.

A drawing of a boy on crutches watching children play
This editorial cartoon commenting on the polio vaccine won the Pulitzer Prize in 1956.
Tom Little via Wikimedia Commons

New viral vaccines

Through the 1960s, vaccines against measles (1963), mumps (1967) and rubella (1969) were licensed and eventually combined into what’s known as the MMR shot in 1971. Each addition followed a similar pattern: a disease that killed or disabled thousands of children annually, a vaccine that proved safe and effective in trials, and a recommendation that transformed a seemingly inevitable childhood illness into something preventable.

The rubella vaccine went beyond protecting the children who received it. Rubella, also called German measles, is mild in children but devastating to fetuses, causing deafness, heart defects and intellectual disabilities when pregnant women are infected.

A rubella epidemic in 1964 and 1965 drove this point home: 12.5 million infections and 20,000 cases of congenital rubella syndrome left thousands of children deaf or blind. Vaccinating children also helped protect pregnant women by curbing the spread of infection. By 2015, rubella had been eliminated from the Americas.

Hepatitis B and the safety net

In 1991, the CDC added hepatitis B vaccination at birth to the schedule. Before then, around 18,000 children every year contracted the virus before their 10th birthday.

Many parents wonder why newborns need this vaccine. The answer lies in biology and the limitations of screening.

An adult who contracts hepatitis B has a 95% chance of clearing the virus. An infant infected in the first months of life has a 90% chance of developing chronic infection, and 1 in 4 will eventually die from liver failure or cancer. Infants can acquire the virus from their mothers during birth, from infected household members or through casual contact in child care settings. The virus survives on surfaces for days and is highly contagious.

Early strategies that targeted only high-risk groups failed because screening missed too many infected mothers. Even today, roughly 12% to 18% of pregnant women in the U.S. are never screened for hepatitis B. Until ACIP dropped the recommendation in early December 2025, a first dose of this vaccine at birth served as a safety net, protecting all infants regardless of whether their mothers’ infection status was accurately known.

This safety net worked: Hepatitis B infections in American children fell by 99%.

A unified standard

For decades, different medical organizations issued their own, sometimes conflicting, recommendations. In 1995, ACIP, the American Academy of Pediatrics and the American Academy of Family Physicians jointly released the first unified childhood immunization schedule, the ancestor of today’s familiar grid. For the first time, parents and physicians had a single national standard.

The schedule continued to evolve. ACIP recommended vaccinations for chickenpox in 1996; rotavirus in 2006, replacing an earlier version withdrawn after safety monitoring detected a rare side effect; and HPV, also in 2006.

Each addition followed the same rigorous process: evidence review, risk-benefit analysis and a public vote by the advisory committee.

More vaccines, less burden

Vaccine skeptics, including Kennedy, often claim erroneously that children’s immune systems are overloaded because the number of vaccines they receive has increased. This argument is routinely marshaled to argue for a reduced childhood vaccination schedule.

One fact often surprises parents: Despite the increase in recommended vaccines, the number of immune-stimulating molecules in those vaccines, called antigens, has dropped dramatically since the 1980s, which means they are less demanding on a child’s immune system.

The whole-cell pertussis vaccine used in the 1980s alone contained roughly 3,000 antigens. Today’s entire schedule contains fewer than 160 antigens, thanks to advances in vaccine technology that allow precise targeting of only the components needed for protection.

What lies ahead

For decades, ACIP recommended changes to the childhood schedule only when new evidence or clear shifts in disease risk demanded it. The Jan. 5 announcement represents a fundamental break from that norm: Multiple vaccines moved out of routine recommendations simultaneously, justified not by new safety data but by comparison to a country with a fundamentally different health care system.

Kennedy accomplished this by filling positions involved in vaccine safety with political appointees. His hand-picked ACIP is stacked with members with a history of anti-vaccine views. The authors of the assessment justifying the change, senior officials at the Food and Drug Administration and at HHS, are both long-time critics of the existing vaccine schedule. The acting CDC director who signed the decision memo is an investor with no clinical or scientific background.

The practical effect will be felt in clinics across the country. Routine recommendations trigger automatic prompts in medical records and enable nurses to vaccinate under standing orders. “Shared clinical decision-making” requires a physician to be involved in every vaccination decision, creating bottlenecks that will inevitably reduce uptake, particularly for the more than 100 million Americans who lack regular access to primary care.

Major medical organizations, including the American Academy of Pediatrics and the American College of Obstetricians and Gynecologists, have said that they will continue recommending the full complement of childhood vaccines. Several states, including California, New York and Illinois, will follow established guidelines rather than the new federal recommendations, creating a patchwork where children’s protection depends on where they live.

Portions of this article originally appeared in a previous article published on Dec. 18, 2025.

The Conversation

Jake Scott does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. RFK Jr. guts the US childhood vaccine schedule despite its decades-long safety record – https://theconversation.com/rfk-jr-guts-the-us-childhood-vaccine-schedule-despite-its-decades-long-safety-record-272788