Conflict at the counter: When pharmacists’ and patients’ values collide

Source: The Conversation – USA (3) – By Elizabeth Chiarello, Associate Professor of Sociology, Washington University in St. Louis

Pharmacists see themselves as vital gatekeepers – but at times, some critics treat them as physicians’ sidekicks. Witthaya Prasongsin/Moment via Getty Images

Imagine walking into your pharmacy, handing over your prescription and having it denied. Now imagine that the reason is not insufficient insurance coverage or the wrong dose, but a pharmacist who personally objects to your medication. What right does a pharmacist have to make moral decisions for their patients?

Lawmakers have wrestled with this question for decades. It reemerged in August 2025 when two pharmacists sued Walgreens and the Minnesota Board of Pharmacy, saying they had been punished after refusing to dispense gender-affirming care medications that go against their religious beliefs.

According to the pharmacists, Walgreens refused their requests for a formal religious accommodation, citing state law. One pharmacist had her hours reduced; the other was let go. If Minnesota law does not allow such an accommodation, their lawsuit argues, it violates religious freedom rights.

As a sociologist of law and medicine, I’ve spent the past 20 years studying how pharmacists grapple with tensions between their personal beliefs and employers’ demands. Framing the problem as a tension between religious freedom and patients’ rights is only one approach. Debates about pharmacists’ discretion over what they dispense also raise bigger questions about professional rights – and responsibilities.

Duty to dispense?

The most famous controversy, perhaps, dealt with contraception. In the early 2000s, some pharmacists refused to dispense Plan B, also known as “emergency contraception” or the “morning-after pill.” Their refusal stemmed from a belief that it caused an abortion.

That is inaccurate, according to medical authorities. When Plan B first became available in 1999, the label said the medication might work by expelling an egg that had already been fertilized. In 2022, the Food and Drug Administration relabeled Plan B to say that it acts before fertilization. From a medical perspective, both mechanisms are contraception, not abortion.

A pair of tweezers holds a white pill, photographed in front of a box that says 'PlanB One Step.'
Plan B’s early labeling contributed to confusion over how it works.
Justin Sullivan/Getty Images

States responded to pharmacists’ refusals by adopting “responsibility laws.” Some states adopted “conscience clauses” that permitted pharmacists not to fill the prescription. Others opted for “duty to dispense” laws that required pharmacists or pharmacies to provide the medication, or “refuse and refer” laws obligating objecting pharmacists to hand the prescription off to a colleague.

This fight largely broke down across political lines. Groups that oppose abortion rights argued that pharmacists should have the right to opt out, while groups in favor of abortion rights argued that pharmacists should be required to dispense.

As this fight escalated, the conflict became about more than contraception or abortion. It revealed Americans’ views about what kinds of professionals pharmacists should be, and whether they are professionals at all – that is, members of occupational groups that have specialized knowledge and skills, and exclusive rights to do particular kinds of work.

In 2015, for example, the advocacy group NARAL Pro-Choice American – now called Reproductive Freedom for All – released an ad with a man and a woman in bed, their feet hanging out of the sheets. Stuck between them was someone else wearing heavy black shoes. “Who invited the pharmacist?” the ad asked.

Pro-choice organizations insisted that pharmacists had no right to question a doctor’s prescription. “A pharmacist’s job is to dispense medication, not moral judgment,” said the president of Planned Parenthood Chicago.

Some pharmacists felt that such messages did not just criticize “moral gatekeeping” but also undermined their claims to professional authority. Pharmacists undergo six years of training to earn a doctorate and are health care’s medication specialists. The idea that pharmacists were simply technicians, hired to fill whatever a prescription said, made them seem like physicians’ underlings.

Keeping patients safe

A short time later, when the opioid overdose crisis began to escalate, pharmacists again found themselves pulled in two directions. This time, the question was whether they should be both medical and legal gatekeepers.

When the U.S. first tried to crack down on unauthorized opioid use, many pharmacists felt ambivalent about tasks like identifying people who were misusing or selling medications. One pharmacist told me, “Although I’m in the business of patient safety, I’m not in the police business.”

Later, pharmacists began to see policing tasks as health care tasks. They reasoned that policing patients helped keep patients safe, and they embraced enforcement as a key component of their work.

Fast-forward to 2021. America was in the throes of the COVID-19 pandemic, and some doctors were prescribing hydroxychloroquine and ivermectin to treat sick patients, though the FDA had not approved the medications for that purpose. Many pharmacists refused to fill those prescriptions, citing lack of scientific evidence and potential harm.

A box with an image of a horse's silhouette, running in front of an orange-and-yellow sunset.
During the COVID-19 pandemic, some physicians wrote off-label prescriptions for ivermectin – a drug used to kill worms and other parasites, intended for use in horses.
AP Photo/Ted S. Warren

Legislators in Missouri, where I teach, responded by passing a bill that required pharmacists to dispense the two medications, no questions asked – though that rule was later struck down by a federal judge. Similar conflicts played out in Iowa and Ohio, among other states.

Again, the fight broke down along political lines, but in the opposite direction. Liberals tended to oppose the bills, portraying pharmacists as skilled professionals whose expertise is essential to prevent harm. Conservative supporters claimed that pharmacists should dispense whatever the doctor writes.

Professional power

Each of these controversies has focused on a specific legal, ethical or medical issue. By extension, though, they are also about what kinds of professional discretion pharmacists should be able to exercise.

When it comes to medication, doctors prescribe, nurses administer and pharmacists dispense. Before the 20th century, pharmacists diagnosed disease and also compounded drugs. That changed when physicians placed themselves at the top of the medical hierarchy.

When it comes to professional autonomy, states regulate health care, but they permit health care professions to regulate themselves: to educate, license and discipline their own workers through professional boards. In exchange, these boards must do so “in the public interest” – prioritizing public health, safety and welfare over professionals’ own interests.

Health care professionals, including pharmacists, must also follow ethical codes. The day they receive their iconic white coats, pharmacists vow to “consider the welfare of humanity and relief of suffering [their] primary concerns.” Pharmacists also commit to “respecting the autonomy and dignity of each patient,” which means that pharmacists partner with patients to make choices about their health.

Self-regulation has legally given pharmacists the right to act as “medical gatekeepers” – to use their professional expertise to keep patients safe. This role is critical, as patients whose lives have been saved by pharmacists catching errors can attest.

It has not, however, given them the right to be “moral gatekeepers” who put their personal beliefs above the patient’s. Pharmacists control medications because of professional commitments, not personal beliefs. The code of ethics describes the pharmacist-patient relationship as a “covenant” that creates moral obligations for the pharmacist – including helping “individuals achieve optimum benefit from their medications,” being “committed to their welfare” and maintaining their trust.

If pharmacists wish to regulate themselves, history makes clear they need to define what it means to act in the public interest and ensure that other pharmacists comply. If not, the state has proved more than willing to step in and do the job for them. They may not like the results.

The Conversation

Elizabeth Chiarello has received funding from the National Science Foundation.

ref. Conflict at the counter: When pharmacists’ and patients’ values collide – https://theconversation.com/conflict-at-the-counter-when-pharmacists-and-patients-values-collide-264844

What are solar storms and the solar wind? 3 astrophysicists explain how particles coming from the Sun interact with Earth

Source: The Conversation – USA – By Yeimy J. Rivera, Researcher in Astrophysics, Smithsonian Institution

The Sun occasionally ejects large amounts of energy and particles that can smash into Earth. NASA/GSFC/SDO via WikimediaCommons

Curious Kids is a series for children of all ages. If you have a question you’d like an expert to answer, send it to curiouskidsus@theconversation.com.


What is meant by solar storm and solar wind? – Nihal, age 11, Amalapuram, India


Every day on Earth, you experience weather. You feel the wind blowing and see clouds move across the sky. Sometimes there are storms where the wind gets really strong, it might rain, or there might be thunder and lightning.

Did you know that there’s weather in space too? It all starts with the Sun.

The Sun: The bright star in our solar system

The Sun is a very hot, very big ball of gas at the center of our solar system. Its surface can reach a blistering 10,800 degrees Fahrenheit (6,000 degrees Celsius). That’s nearly five times hotter than lava that spews from volcanoes on Earth, and just like lava, the Sun glows from the heat.

The Sun is made up of what solar physicists like us call plasma.

Normal gases, like the air you breathe on Earth, are made up of atoms bouncing around. Atoms consist of a positively charged bundle of particles called the nucleus and negatively charged particles called electrons. The nucleus and the electrons are tightly stuck together so that atoms are overall neutral – that is, they have no charge.

A gas becomes a plasma when the atoms it’s made of become so hot that their negatively charged electrons split apart from their positively charged nuclei. Now that the charged particles are separated from each other, the plasma can conduct electricity, and magnetic fields may pull the plasma or push it away.

Plasma is made up of charged particles.

Solar wind blows out of the Sun all the time

Sometimes, the Moon lines up with Sun, blocking it from view and turning the sky dark. This phenomenon is called a total solar eclipse. During an eclipse, you can see faint, wispy structures surrounding the Moon that extend across the sky. In that moment, what you are seeing is the Sun’s atmosphere: the corona.

The corona can reach millions of degrees, which is much hotter than the Sun’s surface. In fact, the corona is so hot that the particles shoot out of the Sun, escaping from the Sun’s gravity, engulfing the entire solar system. This stream of plasma is called the solar wind.

The solar wind’s invisible, continuous gust of plasma fills a bubble in space that extends far beyond the orbit of Pluto. It can reach up to 2 million miles per hour (3 million kilometers per hour) – at that speed, the solar wind would take less than a minute to circle the Earth. For comparison, the International Space Station takes 90 minutes to go around the Earth.

While it’s hard to see the solar wind directly in photos once it leaves the corona, we can measure the gas directly with instruments in space. Scientists have recently gotten up close and personal with it by sending missions such as the Parker Solar Probe closer to the Sun than ever before. The Parker Solar Probe flies directly into the solar wind and measures the gas directly just as it escapes the Sun – like a weather station.

The Parker Solar Probe also has a specialized camera that points sideways to see the Sun’s light as it scatters off the solar wind. Light scattering is the same process that makes the sky blue on Earth.

Big solar explosions

The solar wind surrounds and engulfs the Earth and other planets all the time, but most of the time it is safely guided around us by our planet’s magnetic field. However, occasionally the Sun also generates huge explosions that release big clouds of plasma into our solar system, some of which are directed toward Earth. These massive events are called coronal mass ejections.

NASA spacecraft track solar storms from their eruptions on the Sun until their impact on Earth.

Compared to the solar wind, which is always blowing, coronal mass ejections are short-lived but extreme. You can think of them as solar storms. Solar storms also involve one important force that doesn’t really play a role in the weather on Earth: magnetism.

The Sun is like a giant magnet. All magnets create what we call magnetic field lines, which are lines along which charged particles such as plasma have an easy time traveling. The Sun’s magnetic field lines can be very twisted, and the solar wind and coronal mass ejections deform and drag them outward from the Sun.

When these solar storms reach Earth, their coiled magnetic fields can sometimes interact with our planet’s own magnetic field and cause disturbances called space weather.

Space weather is caused by the Sun

The Earth has a magnetic field and a protective bubble: the magnetosphere. The magnetosphere shields us from the Sun’s solar wind and solar storms, acting like a force field to keep living things safe from the energetic particles released by the Sun.

Magnetic reconnection happens when the magnetic field from a coronal mass ejection interacts with Earth’s magnetic field.

Most of the time this protective bubble works so well that you can’t tell that there is anything special happening out in space. During particularly big storms, however, some solar wind plasma can make it down into the Earth’s atmosphere. As coronal mass ejections pass over Earth, their magnetic field can interact with Earth’s magnetic field. The Sun and Earth’s magnetic field lines untangle and rearrange, and for a short while these fields can link together and let the Sun’s plasma in.

When this happens, it can cause big magnetic storms all over the world. This interaction between ejections from the Sun and the Earth is what scientists refer to as space weather.

Green lines of light crossing the night sky, above a snow-covered landscape.
Space weather causes beautiful light shows near the North and South Poles on Earth.
AP Photo/Rene Rossignaud, File

Space weather is just like the weather on Earth, generated by its atmosphere. It is important for scientists to understand and predict this space weather, as it can lead to power blackouts, interrupt communication and even cause satellites to prematurely fall down to Earth.

Besides these dangers though, space weather can create beautiful light shows in the sky called Northern Lights, or aurora borealis, and Southern Lights, or aurora australis. You can observe these if you’re near the North or South Poles. If you ever get a chance to see them, remember what you’re seeing is space weather, the result of eruptions and solar wind from the Sun.


Hello, curious kids! Do you have a question you’d like an expert to answer? Ask an adult to send your question to CuriousKidsUS@theconversation.com. Please tell us your name, age and the city where you live.

And since curiosity has no age limit – adults, let us know what you’re wondering, too. We won’t be able to answer every question, but we will do our best.

The Conversation

Yeimy J. Rivera receives funding from NASA’s Parker Solar Probe project through the SAO/SWEAP subcontract 975569.

Tatiana Niembro receives funding from NASA’s Parker Solar Probe project through the SAO/SWEAP subcontract 975569 and the LWS grant number 80NSSC23K0897.

Samuel Badman receives funding from NASA’s Parker Solar Probe project through the SAO/SWEAP subcontract 975569.

ref. What are solar storms and the solar wind? 3 astrophysicists explain how particles coming from the Sun interact with Earth – https://theconversation.com/what-are-solar-storms-and-the-solar-wind-3-astrophysicists-explain-how-particles-coming-from-the-sun-interact-with-earth-264013

Pourquoi tant de labs d’innovation peinent-ils à trouver leur cap ?

Source: The Conversation – in French – By Ferney Osorio, Maître de Conférences en Génie Industriel et Management de l’Innovation, Université de Lorraine

Parés de bien des vertus, les fab labs, les living labs, les tiers-lieux et les labs d’innovation en général n’ont pas toujours été à la hauteur des promesses qui leur étaient associées. Dans ce domaine, le plus difficile est souvent de maintenir le projet de façon durable. Qu’est-ce qui fait la différence entre un lab qui réussit à créer à moyen terme et un autre qui échoue ?


Ils fleurissent partout : dans les universités, administrations, hôpitaux et entreprises. Équipés d’imprimantes 3D, couverts de post-its multicolores et porteurs d’une promesse séduisante : réinventer le monde grâce à l’innovation collaborative. Qu’on les appelle fab labs, makerspaces, tiers-lieux productifs ou encore living labs, tous partagent ce même élan d’ouverture. On recense aujourd’hui près de 1 900 fab labs dans le monde (fablabs.io), plus de 480 living labs labellisés dans 45 pays (ENoLL) et, rien qu’en France, plus de 4 100 tiers-lieux répartis sur tout le territoire (selon France Tiers-Lieux).

Pourtant, derrière l’enthousiasme initial, beaucoup de ces espaces finissent par tourner en rond. L’énergie s’essouffle, les résultats tardent à venir, le sens même du projet se brouille. Nos recherches récentes montrent que la raison de cet essoufflement réside souvent dans une dimension essentielle mais négligée : l’intention stratégique partagée.




À lire aussi :
Les tiers lieux : la fin d’une mode ou le début d’une nouvelle ère  ?


Comment garder le cap

Qu’entend-on exactement par intention stratégique ? C’est la capacité d’un collectif à définir clairement et durablement son objectif central : ce que le lab cherche réellement à transformer, pour qui, et avant tout pourquoi. Cette intention est loin d’être un slogan figé sur un mur. Elle est plutôt comme une boussole, qui guide les équipes dans leurs choix quotidiens, leurs ajustements face aux imprévus, et leur permet de rester fidèles à leur mission initiale.

Bien sûr, toutes les organisations ont besoin d’une telle boussole. Mais pour les labs d’innovation, l’enjeu est encore plus vital. Ces espaces hybrides – à la croisée du public et du privé, du social et du technologique – naissent souvent comme des expérimentations fragiles. Ils évoluent dans des environnements instables, avec des financements incertains et des parties prenantes aux intérêts parfois divergents. Sans intention stratégique claire et partagée, ils risquent de se transformer très vite en coquilles vides, malgré tout le battage autour de l’innovation.

ENSGSI 2023.

Or, nous avons observé dans plusieurs cas, en France mais aussi à l’international, que cette intention stratégique, si cruciale, est rarement définie clairement et encore moins revisitée régulièrement. Ces constats proviennent à la fois de ma recherche doctorale et de l’accompagnement d’initiatives de labs dans le cadre de projets européens et latino-américains (par exemple, Climate Labs ou, plus récemment, FabLabs4Innovation). Le résultat est souvent le même : un flou qui finit par provoquer frustration et perte de repères chez les membres du lab.

Intégrer ou protéger

Nos recherches ont permis de dégager deux grandes approches pour construire et maintenir cette intention stratégique dans un lab d’innovation : la posture « amalgam » – intégrer des intentions multiples dans un cadre commun – et la posture « shield » – protéger l’intention initiale contre les pressions extérieures. Ces termes, issus de nos travaux récents, permettent d’illustrer deux manières contrastées de maintenir une intention stratégique partagée.

  • La posture « amalgam » consiste à intégrer plusieurs ambitions dans un projet collectif cohérent. Un excellent exemple est celui du fabLab Héphaïstos, à l’hôpital du Kremlin-Bicêtre (Val-de-Marne). Ce lab hospitalier a réussi à harmoniser trois grandes intentions : améliorer le soin aux patients, faciliter le travail des soignants et optimiser les processus internes. La clé de ce succès ? Une démarche collective régulière pour clarifier, revisiter et articuler ces intentions multiples dans un cadre commun.

  • La posture « shield », elle, consiste à protéger activement l’intention stratégique initiale contre les pressions extérieures. C’est l’approche adoptée par le Lab101 (ancien ViveLab Bogotá), en Colombie, qui, malgré des contextes politiques fluctuants, a réussi à garder un objectif clair : renforcer les capacités numériques et d’innovation des citoyens. Cette « protection de son éthos » leur a permis de maintenir le sens de leurs actions sur le long terme malgré les turbulences. Mais ces deux postures ne suffisent pas toujours. Le vrai défi est de savoir quand et comment les activer.

Trouver des points communs

Fondamentalement, l’intention stratégique prend ses racines dans des motivations individuelles et personnelles. Chaque individu porte ses propres attentes et visions. Mais dès lors qu’on décide de travailler ensemble, il est essentiel de trouver des points communs qui donnent naissance à une intention collective et organisationnelle. Comment savoir quand intégrer différentes visions, quand accepter une certaine fragmentation, ou quand préserver jalousement l’intention initiale ? Pour répondre à ces questions, nous avons conçu un cadre dynamique, permettant aux équipes d’ajuster et de faire évoluer leur intention stratégique au quotidien. Ce cadre repose sur quatre modes clés :

  • « Purpose » (Créer du sens) : Au démarrage du lab, il est crucial d’expliciter clairement et collectivement ce qu’on veut transformer, pour qui et pourquoi. Cette étape permet à tous les acteurs impliqués de comprendre exactement pourquoi le lab existe, et comment chacun peut y contribuer.

  • « Switching perspective » (Changer de perspective) : Quand le contexte change brusquement (changements politiques, nouveaux directeurs, nouvelles priorités), les équipes doivent être capables de réajuster leur angle d’approche sans perdre leur identité. Le cas du SDU-MCI Innovation Lab au Danemark illustre bien cette tension. Ce lab universitaire a connu des visions successives portées par différents responsables, chacune porteuse de nouvelles orientations. La difficulté résidait alors dans la capacité individuelle à maintenir une intention stratégique partagée, face à cette succession de perspectives parfois difficiles à intégrer. Résultat : confusion et perte d’énergie collective malgré des ressources considérables.

Forte capacité d’adaptation

  • « Emphasizing context » (Mettre l’accent sur le contexte) : Les labs doivent régulièrement adapter leurs priorités en fonction des réalités locales, des besoins des usagers ou des signaux faibles du terrain. Le Lab101 à Bogotá est exemplaire sur ce point. Grâce à une forte capacité d’adaptation à son contexte local, ce lab a pu amplifier le périmètre de ses actions et répondre de manière efficace aux évolutions du territoire et aux attentes des citoyens, tout en gardant son intention initiale.

  • « Building consistency » (Construire la cohérence) : Il s’agit ici de créer des ponts réguliers entre les actions concrètes menées au quotidien et l’intention stratégique définie au départ. Le Lorraine Fab Living Lab (LF2L) illustre parfaitement ce mode. Grâce à des discussions régulières au sein de son équipe, le LF2L a réussi à préserver la cohérence entre ses projets quotidiens et sa vision stratégique initiale, même face aux changements des priorités de son écosystème.

Matrice des intentions stratégiques (Osorio et coll., 2025).
CC BY-NC-SA

Cette matrice simple (créer du sens, changer de perspective, insister sur le contexte, construire la cohérence) s’est révélée particulièrement utile pour permettre aux équipes d’innovation de ne pas se perdre en chemin, surtout dans des contextes changeants ou sous pression.

Des espaces vides de sens ?

Au-delà des résultats concrets immédiats, ce qui fait véritablement la force d’un lab d’innovation, c’est sa capacité à expliciter et à maintenir une intention partagée, claire et régulièrement actualisée. Sans cette intention stratégique, les labs risquent de devenir des espaces séduisants mais vides de sens, incapables d’engendrer une réelle transformation.

Finalement, le défi posé par ces labs d’innovation est avant tout un défi humain : il s’agit de construire et de maintenir une direction collective dans des environnements souvent complexes et mouvants. Ainsi, peut-être devrions-nous apprendre à mesurer l’innovation non seulement à travers les prototypes ou les succès immédiats, mais avant tout par la clarté et la solidité des intentions partagées par ceux qui l’incarnent au quotidien.

Redonner du sens à l’innovation collective est sans doute le meilleur moyen d’éviter que ces labs prometteurs ne perdent leur cap. Car une chose est sûre : pour innover profondément, il ne suffit pas d’avoir des ressources matérielles. Il faut savoir où l’on va, avec qui, et surtout pourquoi.

The Conversation

Ferney Osorio a reçu des financements de l’ANR et de MINCIENCIAS (Colombie). Il est également cofondateur du ViveLab Bogotá (aujourd’hui Lab101).

ref. Pourquoi tant de labs d’innovation peinent-ils à trouver leur cap ? – https://theconversation.com/pourquoi-tant-de-labs-dinnovation-peinent-ils-a-trouver-leur-cap-264595

Réparer, recycler, prédire : l’IA au cœur du design organisationnel des distributeurs « phygitaux »

Source: The Conversation – in French – By Hassiba Sadoune, Doctorante en science de gestion , Université de Caen Normandie

L’impact de l’intelligence artificielle sera plus profond qu’on ne l’anticipe parfois. En combinant points de vente physiques et canaux digitaux, la manière de concevoir le cycle de vie des produits va subir des évolutions. Dans la distribution, cela annonce un net changement de la façon de travailler.


L’intelligence artificielle (IA) constitue aujourd’hui un levier à fort potentiel de transformation pour les modèles économiques et organisationnels, notamment dans le secteur de la distribution. Comme le soulignent Belkadi et al., elle redéfinit les dynamiques organisationnelles et optimise la performance à travers la gestion intelligente des stocks, la personnalisation, et l’automatisation des processus.

D’après une étude publiée par IBM en 2025, les investissements en IA devraient progresser significativement dans les années à venir : +52 % à l’échelle mondiale et +62 % en France. Et si l’intelligence artificielle ne servait pas uniquement à automatiser ou à vendre plus ? Et si, dans l’ombre des algorithmes, se jouait une transition vers un commerce plus responsable ?

Une évolution du design organisationnel

Ce glissement des usages de l’IA, du pilotage de la performance à l’optimisation des flux, constitue l’objet d’une recherche doctorale en cours à l’Université de Caen au sein du Nimec, consacrée à l’évolution du design organisationnel dans les enseignes dites « phygitales » – ces entreprises qui combinent points de vente physiques et canaux digitaux.

Le design organisationnel, tel que défini par Jay Galbraith, représente un processus d’alignement de cinq dimensions clés d’une organisation : la stratégie, la structure, les processus, les récompenses et les individus, en vue d’atteindre efficacement les objectifs organisationnels. Cette approche englobe la conception des mécanismes de coordination, des flux décisionnels, des systèmes d’information, ainsi que des dynamiques comportementales qui permettent à l’organisation de fonctionner de manière cohérente, et adaptée à son environnement.




À lire aussi :
IA dans la vente : plus efficace, mais moins humaine ?


L’étude s’appuie sur une méthodologie qualitative d’étude de cas, mobilisant un corpus empirique composé d’entretiens semi-directifs et de podcasts professionnels de cadres du secteur de la distribution omnicanale. L’analyse adossée à une version actualisée du modèle de design organisationnel de Galbraith interroge la manière dont l’intelligence artificielle contribue à recomposer les organisations à l’intersection de l’agilité, de la sobriété et de l’innovation responsable.

Réparer : nouveaux usages pour nouvelles finalités

« Ce qu’on fait en SAV devient central : le reconditionné, les garanties prolongées… c’est là que la marge se rejoue »,

confie un cadre d’une enseigne de distribution de produits culturels et technologiques, lors d’un entretien récent consacré au service après-vente et à la durabilité. Cette observation, loin d’être anecdotique, signale un changement de paradigme économique fondamental. La création de valeur ne s’opère plus uniquement lors de l’acte d’achat, mais s’étend sur l’ensemble du cycle de vie du produit.

Concrètement, l’IA permet de prédire les pannes avant qu’elles ne surviennent, d’anticiper les besoins en pièces détachées, d’identifier les produits qu’il vaut mieux réparer plutôt que remplacer. Cette approche prédictive transforme radicalement la logique commerciale : plutôt que de maximiser les ventes, l’objectif devient d’optimiser la durée de vie et l’utilité des produits vendus.

Loin de l’image d’une IA « dopée à la performance », émergent ainsi les contours d’une intelligence artificielle d’entretien, de soin, de maîtrise des ressources. Cette évolution interroge nos représentations du progrès technologique et ouvre la voie à de nouveaux modèles économiques centrés sur la durabilité.

Recycler : des rôles redessinés

Ces transformations technologiques induisent des recompositions organisationnelles profondes. Comme l’explique un directeur digital :

« Avec la data, on peut mieux préparer les interventions et en éviter certaines. »

Cette optimisation des flux opérationnels s’accompagne d’un vaste chantier de formation humaine, comme le souligne un directeur de la transformation :

« Former 100 % de nos collaborateurs, au siège comme en magasin, à l’utilisation de l’IA. Nous imaginons même mettre en place des certifications IA pour nos vendeurs. »

Cette évolution dessine les contours d’organisations plus modulaires et moins hiérarchiques. Les techniciens SAV anticipent les réparations plutôt que de subir les pannes, les conseillers s’appuient sur l’IA générative pour automatiser les tâches répétitives, les vendeurs développent de nouvelles compétences digitales. L’organisation devient un dispositif vivant, caractérisé par des flux, des ajustements constants et des apprentissages partagés – configuration que Worley et Lawler (2010) qualifient d’agilité organisationnelle.

Le recyclage, traditionnellement relégué en fin de chaîne, devient ainsi un processus intégré dès la conception du parcours client. L’IA permet d’identifier instantanément le potentiel de valorisation de chaque produit retourné, transformant les espaces de stockage et développant de nouvelles expertises en évaluation produit.

Prédire : doser plutôt qu’automatiser

Ce repositionnement de l’IA dans les organisations exige une forme de lucidité technologique. L’IA reste une technologie énergivore, avec des effets ambivalents sur la durabilité. Comme l’explique un directeur de la transformation d’une enseigne de distribution spécialisée :

« La question n’est pas seulement d’intégrer l’IA pour des gains de performance, mais de l’inscrire comme un pilier de durabilité dans l’expérience client. »

L’enjeu n’est donc pas d’implémenter l’intelligence artificielle partout, mais de l’utiliser avec discernement : là où elle réduit réellement les gaspillages, améliore la qualité de service, optimise la maîtrise logistique et valorise les expertises terrain.

Un manager illustre cette approche par une métaphore éclairante :

« Le thermomètre indique la température. Ce n’est pas en disant “Je veux monter la température” qu’on va la faire monter. Il faut allumer le chauffage ».

Autrement dit : c’est l’organisation de l’action, pas la donnée, qui fait la différence.

Cette capacité prédictive restructure les processus décisionnels en permettant aux équipes de terrain d’accéder à des informations stratégiques en temps réel, aux managers d’ajuster les stocks selon des projections fiables, et aux directions de disposer d’une vision prospective pour orienter leurs investissements.

Arte 2024.

Vers une intelligence artificielle de la sobriété

Cette recherche doctorale montre que l’IA ne transforme pas l’organisation seule. Elle le fait à condition d’être portée par une structure agile, capable de décentraliser les décisions, de former, d’ajuster, de relier les objectifs à des pratiques concrètes – soit une véritable organisation lucide.

Les analyses empiriques convergent vers une conclusion stimulante : réparer, recycler et prédire ne constituent pas seulement trois fonctions opérationnelles, mais trois piliers d’une circularité servicielle émergente. Cette innovation organisationnelle, documentée dans les trois configurations étudiées, révèle que l’IA transforme la relation client en vecteur de durabilité : l’anticipation des pannes devient un service premium, le reconditionnement génère de la satisfaction client, l’accompagnement dans la durée de vie produit crée de la fidélisation.

Cette synthèse dépasse l’opposition traditionnelle entre rentabilité et responsabilité pour inventer un modèle où l’excellence « servicielle » devient le levier de l’économie circulaire.

Les distributeurs phygitaux, en tant qu’interfaces entre production et consommation, deviennent des laboratoires d’expérimentation où s’inventent de nouveaux équilibres entre efficacité opérationnelle et impact environnemental. De ces pratiques émerge l’idée d’une « IA de la sobriété » : non plus orientée vers l’accélération des flux, mais vers l’optimisation des ressources et la réduction des gaspillages.

Reste une question essentielle : sommes-nous prêts à penser l’IA comme un levier de sobriété, à revoir le design de nos organisations pour qu’elles servent moins à faire plus… qu’à faire mieux ? Tout porte à croire que la réponse dépend moins de la technologie elle-même que de notre capacité collective à transformer les modèles organisationnels qui l’accompagnent. La mutation est engagée : encore faut-il l’accompagner pour qu’elle contribue réellement à un commerce plus durable et plus responsable.

The Conversation

Hassiba Sadoune ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Réparer, recycler, prédire : l’IA au cœur du design organisationnel des distributeurs « phygitaux » – https://theconversation.com/reparer-recycler-predire-lia-au-coeur-du-design-organisationnel-des-distributeurs-phygitaux-259747

Les Family Offices en avant vers les marchés non cotés

Source: The Conversation – in French – By Mohamed Ouiakoub, Maître de conférences en Sciences de gesiton à l’Université de Lorraine, Université de Lorraine

Plus de 40 % des Family Offices disent consacrer 20 % ou plus de leur portefeuille au capital-risque, c’est-à-dire à des investissements dans des sociétés non cotées, comme Auchan ou les Galeries Lafayette. Mapo_Japan/Shutterstock

Les Family Offices, ces structures qui gèrent le patrimoine d’une famille fortunée, investissent de plus en plus dans les marchés privés (non cotés), perçus comme plus rémunérateurs à long terme que les marchés cotés comme le CAC 40. Pourquoi ? Avec quelles limites ?


En Europe, les grandes fortunes familiales s’appuient sur un « Family Office ». Leur patrimoine dépasse généralement les 100 millions d’euros, et atteint en moyenne 1,3 milliard selon l’étude mondiale UBS.

Ces familles se tournent massivement vers le capital-investissement ou private equity, qui consiste à prendre des participations au capital de sociétés non cotées, comme le distributeur Leclerc, le producteur laitier Lactalis ou Galeries Lafayette.

Comme nous l’analysons dans notre article à paraître dans la revue Vie et sciences de l’entreprise, « l’investissement à impact dans les Family Offices : entre héritage et quête de sens », les Family Offices cherchent à accroître leur présence dans le capital-investissement, mais leurs moyens humains et organisationnels restent limités.

Notre étude menée montre que certaines familles affectent plus de 20 % de leur patrimoine à ce type d’investissement. Pourtant, près de 70 % de ces structures comptent moins de dix collaborateurs et moins de la moitié disposent d’un comité d’investissement structuré.

Alors, comment ces grandes fortunes familiales structurent-elles cette nouvelle stratégie ?

Les différentes formes de Family Offices

Un Family Office est une structure privée consacrée à la gestion globale du patrimoine d’une famille fortunée. Il peut assurer des fonctions financières – investissements, fiscalité, transmission, etc. –, mais aussi juridiques, philanthropiques ou éducatives. Ces structures sont nées pour accompagner la pérennité du capital familial sur plusieurs générations, en intégrant des objectifs à la fois financiers, humains et émotionnels.

Ces enjeux sont au cœur de la littérature récente sur la création de valeur durable dans les entreprises familiales, en particulier lorsque les Family Offices participent activement aux décisions stratégiques du groupe familial. Il en existe plusieurs formes.

  • Les single family offices, entièrement consacrés à une seule famille.

  • Les multi-family offices, qui gèrent les patrimoines de plusieurs familles, parfois sans lien entre elles. D’autres structures, dites professionnalisées, sont intégrées à des institutions financières.

  • Les Family offices « intégrés » dans l’entreprise familiale.

  • Les Virtual Family Offices, lorsque la structure externalise la majorité de ses services.

Moins de dix personnes en moyenne

Les Family Offices renforcent progressivement leur exposition au capital-investissement, ou private equity, c’est-à-dire l’achat de parts dans des entreprises non cotées. Plus de 40 % des Family Offices interrogés y consacrent plus de 20 % de leur portefeuille, un niveau élevé pour des structures non institutionnelles. Ce choix traduit une confiance croissante dans les marchés privés, perçus comme plus rémunérateurs à long terme que les marchés boursiers traditionnels.

Cette ambition d’allocation se heurte toutefois à des moyens internes limités. La plupart des Family Offices emploient moins de dix personnes et moins de la moitié disposent d’un comité d’investissement structuré. Autrement dit, ils gèrent des portefeuilles complexes avec peu de personnel, souvent sans processus formalisé, ce qui fragilise leur capacité d’analyse, de sélection et de suivi des investissements.

Le principal frein cité par les répondants reste, d’ailleurs, le manque de ressources internes.

Relations humaines

Les investissements réalisés par les Family Offices passent avant tout par leur réseau direct. La majorité des opportunités provient de contacts personnels, loin devant les intermédiaires ou les événements professionnels. Cette approche repose sur la confiance et l’intuition. Mais en se limitant à leur cercle relationnel, ces familles risquent de passer à côté de projets plus innovants ou d’entreprises en dehors de leur environnement habituel.

Dans la répartition de leurs investissements, les familles privilégient les entreprises à fort potentiel de croissance, où elles peuvent mettre à profit leur expérience entrepreneuriale. Lorsqu’il s’agit d’opérations plus techniques, comme les rachats d’entreprises financés par l’endettement bancaire (appelés « Leveraged Buy-Out », ou LBO), elles préfèrent déléguer à des fonds spécialisés. Ces fonds disposent d’équipes nombreuses et aguerries capables de structurer des montages financiers complexes, ce que les petites équipes des Family Offices ne peuvent pas toujours assurer.

Cette complémentarité entre investissement direct et indirect traduit une certaine prudence stratégique. Les familles recherchent avant tout un fort alignement avec les porteurs de projet. Elles tiennent aussi à pouvoir jouer un rôle actif auprès des entreprises dans lesquelles elles investissent, en partageant leur réseau, leur expertise sectorielle ou leur expérience d’entrepreneurs, et pas seulement en apportant du capital.

Valeur durable des entreprises familiales

L’intégration de critères ESG dans les analyses reste minoritaire. Moins de 40 % des Family Offices déclarent prendre en compte les enjeux environnementaux, sociaux ou de gouvernance dans leurs décisions d’investissement selon les résultats de l’étude menée. Ce chiffre montre que la finance durable progresse lentement dans ce segment, malgré une forte montée en puissance dans les pays nordiques ou en Allemagne. Ces questions sont au cœur des réflexions actuelles sur la valeur durable en entreprise familiale.

La qualité des informations disponibles et le manque de marge de négociation avec les fonds constituent des sources de frustration. Concrètement, les Family Offices se plaignent d’un accès limité à des données fiables sur les performances passées des fonds ou sur la solidité des entreprises ciblées. Ils déplorent une faible transparence sur les frais facturés : commissions de gestion annuelles, frais de performance (ou carried interest) ou encore frais annexes liés aux transactions.

Fortes attentes

Malgré ces contraintes, les Family Offices restent confiants dans la trajectoire du capital risque ou private equity. Près de deux tiers se disent optimistes pour les douze mois à venir. Une majorité vise un rendement interne supérieur à 15 % d’après les résultats de l’étude réalisée.




À lire aussi :
Les start-ups « deep tech » : une réponse aux enjeux du XXIᵉ siècle ?


Cette confiance repose en grande partie sur la qualité perçue des projets technologiques, notamment dans la santé et le deep tech. Ces secteurs sont les plus plébiscités, loin devant l’agritech, l’éducation ou la défense.

Les investisseurs familiaux cherchent à soutenir des innovations porteuses de sens, en lien avec leurs valeurs et leurs expériences entrepreneuriales.

Structurer sans dénaturer

La professionnalisation des Family Office ne doit pas faire perdre ce qui fait leur force : proximité avec les entrepreneurs, liberté stratégique et vision de long terme. Ce sont des atouts précieux dans un écosystème financier souvent standardisé.

Leur gouvernance, leurs choix d’organisation et leur rapport à la durabilité sont au cœur d’une réflexion croissante sur l’investissement à impact dans les grandes fortunes familiales. En naviguant entre héritage, contrôle familial et quête de sens dans la gestion de leurs actifs, les Family Offices sont aujourd’hui à un tournant.


Cet article a été co-écrit avec Rajaa Mekouar, fondatrice et managing partner de Calista Direct Investors.

The Conversation

Mohamed Ouiakoub ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les Family Offices en avant vers les marchés non cotés – https://theconversation.com/les-family-offices-en-avant-vers-les-marches-non-cotes-261408

Les coûts d’emprunt de l’Afrique sont trop élevés : l’occasion manquée par le G20 de réformer les agences de notation

Source: The Conversation – in French – By Misheck Mutize, Post Doctoral Researcher, Graduate School of Business (GSB), University of Cape Town

Au début de l’année 2025, l’un des engagements pris par la présidence sud-africaine du G20 dans son document Priorités politiques était de promouvoir des notations de crédit souveraines plus équitables et plus transparentes. Elle voulait aussi remédier au coût élevé du capital, souvent justifié par une perception illusoire de risque élevé dans les économies en développement.

L’Afrique du Sud avait proposé de créer une commission chargée d’examiner le coût du capital. L’objectif était d’identifier les problèmes qui empêchent les pays à faible et moyen revenu d’accéder à des flux de capitaux suffisants, abordables et prévisibles pour financer leur développement.

Pour beaucoup en Afrique, il s’agissait de bien plus qu’un simple document administratif. Cela représentait la première véritable occasion pour les pays du Sud de remettre en cause le pouvoir bien établi des agences de notation internationales par l’intermédiaire du G20.

Les avis de Moody’s, S&P Global Ratings et Fitch Ratings sont en effet au cœur du problème du coût élevé de l’emprunt en Afrique.

Mais les possibilités de progrès dans ce domaine s’amenuisent. Le gouvernement sud-africain et le monde des affaires du pays n’ont pas profité de l’occasion offerte par la présidence du G20, de décembre 2024 à novembre 2025, pour faire pression en faveur de réformes susceptibles de réduire les coûts d’emprunt de l’Afrique et de renforcer sa souveraineté financière.

Qu’est-ce qui explique le poids des notations de crédit ?

Les agences de notation de crédit ne sont pas des observateurs neutres des marchés financiers. Leurs jugements influencent directement le sentiment des investisseurs, l’accès au financement et les taux d’intérêt que les pays paient lorsqu’ils émettent des obligations.

Pour les pays en développement, en particulier en Afrique, les notations vont déterminer l’allocation par le gouvernement de ses maigres ressources : soit au service de la dette, soit aux besoins en terme de développement tels que les écoles et les hôpitaux.

Le souci, ce n’est pas seulement les notations en elles-mêmes, mais aussi le fait qu’elles sont souvent imprécises et basées sur des jugements subjectifs.

Les pays dotés d’économies en développement dénoncent fréquemment les problèmes liés à ces notations.

D’abord, les États africains subissent plus souvent que d’autres des dégradations de note qui ne reposent pas sur des fondamentaux économiques solides.

Deuxièmement, les analystes qui évaluent les risques travaillent le plus souvent hors du continent et appliquent des critères subjectifs, souvent pessimistes.

Troisièmement, les économies en développement sont pénalisées en raison de l’impact supposé des chocs externes tels que les pandémies mondiales ou les catastrophes climatiques.

Enfin, on relève des variations importantes dans la manière dont les facteurs de risque sont évalués en Afrique par rapport à des pays similaires en Asie ou en Amérique latine, qui ont des profils de risque proches.

Une occasion manquée de leadership

Le G20 reste le principal forum mondial où se réunissent les principales économies avancées et les économies en développement les plus influentes. En tant que pays qui en assure la présidence, l’Afrique du Sud a le pouvoir de définir l’ordre du jour, de constituer des groupes de travail et de rédiger des communiqués qui influencent les débats au niveau mondial.

Mais à ce jour, la commission proposée sur le coût du capital n’a pas été mise en place. On peut dès lors affirmer sans se tromper que la présidence sud-africaine du G20 n’a pas utilisé cette plateforme pour régler la question du coût du capital. Ses engagements en matière de réforme de la notation de crédit se sont limités à réitérer les éléments de langage. Elle n’a pas fait de propositions structurées dédiées à cette question.

Cette inaction étonne d’autant plus que l’Afrique du Sud connaît bien les effets des décisions de notation. Au cours des huit dernières années, une série de déclassements par les agences de notation internationales a conféré le statut dit « junk » à la dette du pays. Ces décisions ont entraîné une augmentation des coûts d’emprunt et ébranlé la confiance des investisseurs. Pretoria dispose donc à la fois de l’expérience et de la légitimité nécessaires pour mener un débat sur la réforme des notations souveraines.

Par ailleurs, le secteur financier et des entreprises sud-africain (banques, assureurs et investisseurs institutionnels) est resté largement en retrait dans cette séquence.

Des plateformes telles que le Cost of Capital Summit, organisées par le groupe de travail Business (B20), la Standard Bank, Africa Practice et le Mécanisme africain d’évaluation par les pairs, ont été utiles. Mais le monde des affaires sud-africain n’a pas su tirer parti de la présidence de son pays au G20 pour faire pression en faveur de réformes qui profiteraient non seulement aux entreprises nationales, mais aussi aux partenaires africains.

La baisse des coûts d’emprunt souverains dans les pays hôtes, par exemple, réduirait directement les risques macroéconomiques pour les entreprises sud-africaines opérant sur le continent et élargirait leurs possibilités d’investissement.

Ce qui aurait pu être fait

Trois mesures concrètes pourraient remettre la question de la réforme des notations de crédit à l’ordre du jour:

Le coût de l’inaction

Selon la CNUCED, les pays en développement paient des taux d’intérêt jusqu’à trois points de pourcentage plus élevés que leurs homologues ayant des fondamentaux similaires, ce qui représente des milliards de dollars de coûts supplémentaires chaque année.

Cette « taxe cachée » sur le développement a des conséquences humaines directes: moins de ressources pour les infrastructures, l’adaptation au changement climatique, les systèmes de santé et l’éducation. Pour l’Afrique, où les besoins de financement sont immenses, des notations de crédit plus précises pourraient libérer un espace budgétaire vital.

L’Afrique du Sud ne peut se permettre de laisser sa présidence du G20 se réduire à un symbole. La promesse de notations de crédit souveraines « plus justes et plus transparentes » doit se traduire en action, par le biais de groupes de travail, de communiqués et d’alliances qui font avancer la réforme.

Pretoria a également besoin que son secteur privé se mobilise. Il ne s’agit pas seulement d’un impératif moral, mais aussi d’un impératif économique.

Une prime de risque plus faible et un accès plus équitable au capital élargiront les opportunités à travers le continent, y compris pour les investisseurs sud-africains. Le monde entier a les yeux rivés sur l’Afrique du Sud. Si le pays ne saisit pas cette chance, il renforcera l’idée que le discours sur la réforme de l’architecture financière mondiale ne se résume qu’à des paroles en l’air. Si l’Afrique du Sud agit, elle pourra laisser un héritage qui dépasse ses propres difficultés internes : l’ébauche d’un système de notation plus juste et plus responsable pour le Sud global.

The Conversation

Misheck Mutize does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Les coûts d’emprunt de l’Afrique sont trop élevés : l’occasion manquée par le G20 de réformer les agences de notation – https://theconversation.com/les-couts-demprunt-de-lafrique-sont-trop-eleves-loccasion-manquee-par-le-g20-de-reformer-les-agences-de-notation-266595

Démission de Sébastien Lecornu : Échec du présidentialisme, retour au parlementarisme ?

Source: The Conversation – France in French (3) – By Nicolas Rousselier, professeur d’histoire politique, Sciences Po

Alors que le Premier ministre Sébastien Lecornu vient de remettre sa démission, quelques heures à peine après la présentation de la première partie de son gouvernement, le régime français est plus que jamais en crise. La domination de l’exécutif sur le législatif, en place depuis le début de la Ve République, semble désormais dépassée. Un rééquilibrage entre ces deux pouvoirs, historiquement concurrents, est-il en cours ? Nous republions pour l’occasion cet article de Nicolas Rousselier écrit à l’occasion de la chute du gouvernement Bayrou.


Jamais les feux de l’actualité ne furent braqués à ce point sur le Parlement. L’épisode Bayrou en donne une illustration frappante : la chute de son gouvernement a placé l’exécutif en position de faiblesse et de renoncement face aux difficultés annoncées du débat budgétaire. À l’inverse, les députés, en refusant de voter la confiance, ont placé l’Assemblée nationale en position de force vis-à-vis du gouvernement. Celui-ci, pour la première fois (sous cette forme) depuis le début de la Ve République, était contraint à la démission. Le pouvoir exécutif, qui n’avait cessé de se renforcer et de se transformer depuis plus de soixante ans, trahissait ainsi une faiblesse inattendue.

Deux questions sont donc soulevées, l’une sur le caractère momentané ou profond de ce « trou d’air » que rencontre l’exécutif, l’autre sur la possible relance du parlementarisme.

Dès le Moyen Âge, le Parlement contre le prince

L’épisode s’inscrit dans la longue histoire du bras de fer qui a opposé l’exécutif et le législatif depuis plusieurs siècles. Philosophiquement et politiquement, l’opposition a placé la figure du prince – pour faire référence aux travaux de Harvey Mansfield – face à la forme prise par le Parlement depuis les XIIIe et XIVe siècles. L’histoire est ainsi beaucoup plus ancienne que celle de la démocratie moderne. La monarchie française avait été notamment marquée et affaiblie par des affrontements opposant le roi et le Parlement de Paris au cours du XVIIIe siècle. Pour le XIXe et le XXe siècle, l’ensemble de la modernité démocratique peut se définir comme un vaste aller-retour avec une première phase où la démocratie se définit comme la nécessité de contrôler et de circonscrire le plus possible le pouvoir exécutif, puis une seconde phase où la démocratie a progressivement accueilli un exécutif puissant, moderne et dominateur, tout en prenant le risque d’affaiblir le rôle des assemblées.

Cette lutte ancestrale a pris une allure particulièrement dramatique et prononcée dans le cas français. L’histoire politique française a ceci de particulier qu’elle a poussé beaucoup plus loin que les autres aussi bien la force du parlementarisme, dans un premier temps (IIIe puis IVe République), que la domination presque sans partage de l’exécutif, dans un deuxième temps (Ve République). Nous vivons dans ce deuxième temps depuis plus de soixante ans, une durée suffisante pour qu’un habitus se soit ancré dans les comportements des acteurs politiques comme dans les attentes des électeurs.

Historiquement, la domination de l’exécutif sur le législatif a donné à l’élection présidentielle une force d’attraction exceptionnelle puisque le corps électoral est invité à choisir un candidat qui, une fois élu, disposera de très larges pouvoirs pour mener à bien les réformes et les politiques annoncées lors de sa campagne électorale. Dans les faits, cette force du président était complétée par la victoire de son parti aux élections législatives (souvent avec des petits partis alliés et complémentaires). La cohabitation n’a pas modifié la domination de l’exécutif : la force du gouverner s’est alors concentrée sur le premier ministre qui disposait toujours d’un contrôle efficace du Parlement.

Par contraste avec cette « période heureuse » de la Ve République, la situation actuelle est donc très simple : ne disposant pas d’un fait majoritaire à l’Assemblée, l’exécutif se retrouve paralysé dans son pouvoir d’agir. Chaque premier ministre qui passe (Attal, Borne, Barnier, Bayrou, maintenant Lecornu) se retrouve encore un peu plus éloigné de toute légitimité électorale. Aussi la facilité avec laquelle le dispositif de la Ve République s’est démantelé sous nos yeux apparaît spectaculaire. Certes, en toute logique, l’ancien dispositif pourrait se reconstituer aussi vite qu’il a été brisé. Rien n’interdit de penser qu’une nouvelle élection présidentielle suivie de nouvelles élections législatives ne pourrait pas redonner au chef de l’État une assurance majoritaire. Rien n’interdit de penser, non plus, que de simples élections législatives intervenant après une dissolution pourraient conduire à un fait majoritaire au profit d’un seul parti ou d’un parti dominant qui rallierait à lui de petits partis satellitaires.

Tout ceci est possible et occupe visiblement l’esprit et l’espoir des acteurs politiques. Se replacer ainsi dans l’hypothèse du confort majoritaire sous-estime toutefois le caractère beaucoup plus profond des changements intervenus dans la période récente. La force de gouverner sous la Ve République reposait en effet sur un écosystème complexe dont il faut rappeler les deux principaux éléments.

Une domination de l’exécutif fondée sur l’expertise et sur le règne des partis

Tout d’abord, la domination de l’exécutif s’est jouée sur le terrain de l’expertise. Des organes de planification, de prospective et d’aides à la décision ont fleuri autour du gouvernement classique, surtout après 1945. Par comparaison, les assemblées parlementaires ont bénéficié d’une modernisation beaucoup plus limitée en termes de moyens. Elles ont développé la capacité d’évaluation des politiques publiques, mais ne disposent pas d’un organe public indépendant (ou suffisant) pour l’expertise du budget tel qu’il existe auprès du Congrès américain avec le Congressional Budget Office (CBO).

D’autre part, la force de l’exécutif a été historiquement dépendante du rôle de partis politiques modernes. Depuis les années 1960 et 1970, des partis politiques comme le Parti socialiste ou les différents partis gaullistes ont eu les moyens de jouer leur rôle de producteurs doctrinaux et de fidélisation de leur électorat. Ils étaient des « machines » capables d’exercer « une pression collective su la pensée de chacun » pour reprendre Simone Weil. Dans les assemblées, ils ont pu construire d’une main de fer la pratique de discipline de vote, des consignes de groupes et de contrôle des déclarations à la presse. Le parti majoritaire, parfois associé à de petits partis satellites ou alliés, était à même d’assurer au gouvernement une majorité connue d’avance, prête à faire voter en temps voulu le budget de l’exécutif ou les projets de loi sans modification importante. Les partis privilégiaient la cohésion collective et la verticalité de l’obéissance plutôt que le rôle d’espace de discussion. La répétition des élections présidentielles comme la fréquence du dispositif majoritaire avaient ancré les partis dans le rôle d’entrepreneurs de programmes. L’ambition de leurs plates-formes électorales était en proportion de la « force de gouverner » attendue : ce fut longtemps un atout indéniable pour que l’offre politique rencontre de fortes aspirations sociales.

Ces deux piliers de la force de l’exécutif sont aujourd’hui remis en cause. L’État planificateur de tradition jacobine s’est fortement transformé depuis les années 1990 avec la multiplication des agences et les réformes successives de décentralisation. L’âge d’or des grands serviteurs de l’État, qui offraient à l’exécutif une aide homogène à la décision, est passé. Aujourd’hui, un gouvernement est confronté à la diversité et parfois la contradiction des avis que lui fournissent les organes experts. L’expertise n’est donc plus enfermée dans le seul silo de la haute administration classique. Elle est devenue un secteur concurrentiel où des entrepreneurs d’expertise multiplient les avis et les alertes au risque d’ajouter à la confusion plutôt que d’aider à la prise de décision. La question concerne aussi bien les think tanks que des forums internationaux, tels que le Groupe d’experts intergouvernemental sur l’évolution du climat (Giec).

La « forme-parti » pour reprendre l’expression du politiste italien, Paol  Pombeni, a, elle aussi, profondément changé. L’appareil central a diminué en termes de moyens. Il n’est plus en mesure d’exercer le même contrôle sur les troupes et sur la mise en cohérence de l’ensemble. Au sein d’un même groupe parlementaire, certains membres jouent leur communication personnelle. L’affiliation par le haut étant en crise, il n’est pas étonnant de retrouver la même crise par le bas : les partis n’assurent plus de stabilité dans le lien entre leur offre politique et la demande sociale – leurs résultats d’un type d’élection à un autre sont devenus erratiques. Il est, par exemple, devenu impossible de savoir ce que représente réellement, à la fois politiquement et socialement, le Parti socialiste si l’on confronte le résultat de la dernière présidentielle (1,7 %) avec le score obtenu aux élections européennes (13 %). Comme le montrent les travaux de Rémi Lefebvre, les partis politiques ne réussissent plus à être des entrepreneurs stables d’identités qui fidélisent des sections de la société : une majorité politique est devenue introuvable parce qu’une majorité sociale est elle-même devenue impossible.

Au total, c’est toute la chaîne qui faisait la force de l’exécutif qui est démantelée, maillon par maillon. Un président n’est plus assuré de nommer un premier ministre qui sera à même de faire voter son programme électoral grâce à une majorité solide dans les assemblées.

Le parlementarisme a fonctionné sous la IIIᵉ et la IVᵉ République

Dans une telle situation, le Parlement retrouve une position centrale. Le retour à un vrai travail budgétaire ne serait d’ailleurs qu’un retour aux sources historiques des assemblées. Le « gouvernement parlementaire » avait su fonctionner de manière satisfaisante pendant la majeure partie de la IIIe République, y compris dans sa contribution essentielle à la victoire pendant la Première Guerre mondiale. Il a encore joué sa part dans la reconstruction du pays et l’établissement du modèle social sous la IVe République, de la Sécurité sociale jusqu’au salaire minimum. On commet donc une erreur quand on déclare la France « ingouvernable ». L’expression n’a de sens que si l’on réduit la notion de gouverner à la combinaison d’un exécutif dominant associé au fait majoritaire partisan.

L’art de la décision tel qu’il était pratiqué dans le « gouvernement parlementaire » conserve sa force d’inspiration : il a d’ailleurs été pratiqué dans la période récente pour certains parcours législatifs comme sur le droit à mourir. Il est donc loin d’avoir disparu. Des modifications du règlement de l’Assemblée nationale qui s’attaqueraient notamment à l’obstruction du débat par l’abus des amendements, pourraient accompagner le « reset » du parlementarisme. Transférer une part de l’expertise de l’exécutif vers le législatif aiderait aussi au redressement de la qualité du travail des commissions.




À lire aussi :
Loi Duplomb, A69 : Comment le gouvernement Bayrou a contourné l’Assemblée nationale pour faire passer ses projets. La démocratie malmenée ?


Certes, rien ne dit que cela soit suffisant. Mais la situation actuelle démontre que la « combinaison magique » d’un président fort associé à un fait majoritaire et à un esprit partisan exacerbé a produit des résultats financiers, économiques et sociaux négatifs.

La Ve République avait d’abord apporté la stabilité du pouvoir, la force d’entraînement vers la modernisation du pays et le progrès social. Ce n’est plus le cas. La disparition du fait majoritaire, combinée au dévoilement du caractère abyssal de la dette, nous plonge dans la désillusion des vertus attribuées à la Ve République. Pour la première fois depuis la création de la Vᵉ République en 1958, il n’y a donc pas d’autre choix que de refaire Parlement.

The Conversation

Nicolas Rousselier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Démission de Sébastien Lecornu : Échec du présidentialisme, retour au parlementarisme ? – https://theconversation.com/demission-de-sebastien-lecornu-echec-du-presidentialisme-retour-au-parlementarisme-264996

Comment débutent les cancers du sein ? Conversation avec la biochimiste Alexandra Van Keymeulen

Source: The Conversation – France in French (2) – By Alexandra Van Keymeulen, Maître de recherche FNRS au Laboratoire des Cellules Souches et du Cancer, Université Libre de Bruxelles (ULB)

Alexandra Van Keymeulen est biochimiste et spécialiste du cancer du sein. Avec son équipe, elle explore les étapes extrêmement précoces dans le développement des tumeurs, bien avant que celles-ci ne soient détectables. Elle a reçu Elsa Couderc, cheffe de rubrique Science et Technologie, pour expliquer simplement ce qu’est un cancer, et les avancées de la recherche depuis qu’elle a débuté dans le domaine.


The Conversation France : Aujourd’hui, vous êtes une spécialiste reconnue sur l’origine du cancer du sein, mais vous n’avez pas commencé vos recherches par là.

Alexandra Van Keymeulen : J’ai fait ma thèse, en Belgique, sur la thyroïde. J’étudiais les mécanismes qui font que les cellules thyroïdiennes prennent la décision de se diviser. Comme les cellules ne sont pas immortelles, qu’elles vivent moins longtemps que nous, il y a sans arrêt des cellules qui meurent et, donc, des cellules qui se divisent pour donner naissance à de nouvelles cellules. Dans une thyroïde saine, les cellules prennent en permanence la décision de se diviser ou non pour donner naissance à la prochaine génération de cellules.

Je travaillais sur les thyroïdes saines, mais dans un groupe où d’autres personnes étudiaient le cancer de la thyroïde. En effet, les mécanismes de division cellulaire sont dérégulés dans le cas d’un cancer : les cellules se divisent de manière anarchique, sans contrôle. Elles forment une masse, un peu comme un mini-organe. Elles ne répondent plus aux signaux environnants qui leur indiquent de stopper leur croissance. La division cellulaire incontrôlée est la première étape pour former une tumeur.

Mais une tumeur bénigne n’est pas appelée « cancer ». Un cancer a aussi des caractéristiques invasives, c’est-à-dire que ces cellules migrent et envahissent les autres tissus.

Et justement, après ma thèse, je suis partie cinq années à San Francisco en postdoctorat. Là, j’ai travaillé sur la migration cellulaire. Je ne travaillais toujours pas sur des cellules cancéreuses, mais sur les mécanismes intrinsèques, au sein des cellules, qui font qu’elles se déplacent d’un organe à l’autre ; typiquement, ce sont les cellules du système immunitaire qui se déplacent pour aller au site de l’infection.

Ce sont ces mécanismes-là qui sont piratés par les cellules cancéreuses pour former des métastases. Les cellules cancéreuses migrent moins vite que des cellules du système immunitaire, mais elles arrivent à se déplacer.

Après avoir étudié la division cellulaire et la migration des cellules saines, vous êtes rentrée en Belgique pour étudier les cancers du sein ?

A. V. K. : Oui, je suis rentrée en même temps que Cédric Blanpain et j’ai rejoint l’équipe qu’il était en train de monter. Il est spécialiste du cancer de la peau. Très vite, j’ai décidé de travailler sur le sein, qui n’est pas si différent que ça de la peau, car ces deux organes sont composés de cellules épithéliales. Ils ont des caractéristiques communes et donc on peut utiliser les mêmes souris pour les projets qui ont trait au cancer de la peau ou au cancer du sein.

À ce stade, c’était nouveau pour vous comme organe d’étude ?

A. V. K. : Tout était nouveau ! Travailler sur le sein était nouveau, mais je n’avais jamais travaillé non plus avec des souris.

Et quelles étaient les grandes questions de la recherche sur le cancer du sein à l’époque ? Qu’est-ce que vous cherchiez à savoir, dans ce tout nouveau labo, en 2006 ?

A. V. K. : La grande question, c’était de savoir quelles cellules sont à l’origine des cancers du sein. Il y avait déjà à l’époque deux hypothèses. En vingt ans, on a répondu à certaines choses, mais ces deux hypothèses sont toujours là aujourd’hui. Pourquoi y a-t-il différents types de cancer du sein ? Est-ce parce que les patients ont eu différentes mutations génétiques ou parce que les mutations sont survenues dans différents types de cellules de la glande mammaire ? On pourrait avoir aussi une combinaison de ces deux explications.

En ce qui concerne les mutations, on avait déjà repéré que certaines mutations génétiques sont liées à certains types de cancers du sein chez l’humain : on dit que la mutation a un impact sur l’issue tumorale.

Pour explorer l’autre hypothèse – quelles sont les cellules à l’origine d’un cancer, il a d’abord fallu comprendre comment se renouvellent les cellules dans la glande mammaire. Est-ce que tous les types de cellules de la glande mammaire sont maintenus par un seul type de cellule souche, ou bien est-ce qu’à chaque type de cellule correspond une cellule souche ? On appelle ça la « hiérarchie cellulaire ».

Qu’est-ce qu’une cellule souche ?

  • Une cellule souche adulte est une cellule capable, à la fois, de générer des cellules spécialisées d’un organe et de se régénérer dans l’organe pour une spécialisation ultérieure.

Comment étudiez-vous d’où viennent les cellules de la glande mammaire et comment elles se renouvellent tout au cours de la vie, pendant une grossesse, l’allaitement, etc. ?

A. V. K. : On a fait du « traçage de lignée » (lineage tracing, en anglais), qui est notre grande spécialité au laboratoire. Cette technique consiste à introduire un marqueur fluorescent dans une cellule. Comme ce marqueur fluorescent est dû à une mutation génétique, le marquage est irréversible : une fois que la cellule est fluorescente, elle va le rester toute sa vie. Et surtout, si elle se divise, toute sa progéniture va être fluorescente aussi… ce qui va nous permettre de suivre le devenir d’une cellule ! Si on a ciblé une cellule qui ne se divise plus, elle va être éliminée après quelques semaines et on n’aura plus de fluorescence. Par contre, si on a ciblé une cellule souche, on va voir qu’elle va donner naissance à de nouvelles cellules qui vont également être fluorescentes.

Avec cette technique, on a pu étudier comment les glandes mammaires sont maintenues au cours du temps et démontrer, en 2011, que ce sont différents types de cellules souches qui renouvellent la glande mammaire.

C’était vraiment un changement de paradigme, car on croyait à l’époque qu’en haut de la hiérarchie cellulaire de la glande mammaire, il y avait des cellules souches « multipotentes » (c’est-à-dire, capables de se différencier en plusieurs types de cellules). On sait aujourd’hui qu’il y a trois types de cellules souches dans la glande mammaire, qui se différencient chacune en un seul type de cellule.

Quels sont ces trois types de cellules dans le sein ?

A. V. K. : Les glandes mammaires contiennent un réseau de tuyaux reliés au mamelon, et qui vont produire le lait à l’intérieur du tube pour l’expulser.

Un premier type de cellules est celui des « cellules basales », aussi appelées myoépithéliales, qui ont des propriétés contractiles et vont se contracter au moment de l’allaitement pour expulser le lait.

Puis, à l’intérieur des tubes, se trouve la couche luminale, qui est composée de deux types de cellules : celles qui sont positives aux récepteurs aux œstrogènes et celles qui sont négatives aux récepteurs aux œstrogènes. Les positives vont sentir la présence des hormones et relayer les signaux hormonaux aux autres cellules, pour dire « Maintenant, on se divise tous ensemble ». Les négatives sécrètent du lait pendant l’allaitement.

Donc aux trois types de cellules dans le sein correspondent trois types de cellules souches « unipotentes ». Mais en ce qui concerne la formation de tumeurs cancéreuses : comment étudiez-vous une tumeur avant même qu’elle existe ? Vous avez une machine à remonter le temps ?

A. V. K. : Eh non ! Il faut prédisposer les souris aux tumeurs. Pour cela, on utilise des souris transgéniques, avec une mutation génétique dont on sait qu’elle est favorable à un cancer du sein. On insère la mutation soit dans les cellules luminales, soit dans les cellules basales. Et on a montré que le type de cancer développé n’est pas le même lorsque la mutation est introduite dans les cellules luminales ou basales.

Comment ça se passe en pratique ? Vous induisez une mutation génétique, mais vous ne pouvez pas être sûre que chaque souris va développer un cancer. Est-ce qu’il faut tuer la souris avant qu’elle développe un cancer, ou on peut faire des prélèvements ?

A. V. K. : Effectivement, toutes les souris prédisposées ne développent pas de cancers. Pour savoir comment ça évolue, nous palpons les souris – comme les palpations qui accompagnent les mammographies dans les examens pour les femmes. Il existe aussi des PET-scanners pour souris, mais mon laboratoire n’est pas équipé.

Si on palpe une tumeur, alors on tue la souris afin de prélever la tumeur et d’étudier le type de cancer qui a été provoqué par la mutation que nous avions induite. C’est comme cela que nous avons démontré, en 2015, qu’une même mutation n’a pas le même effet si elle est introduite sur une cellule basale ou sur une cellule luminale.

Ensuite on a développé un outil pour cibler les cellules luminales, qui sont divisées en deux types, comme on l’a vu : celles qui sont positives aux récepteurs aux œstrogènes et celles qui sont négatives aux récepteurs aux œstrogènes. C’est ce que nous avons publié en 2017. On s’est posé la même question que précédemment : est-ce qu’une même mutation génétique provoque des types de cancers différents ?

Ce sont des recherches qui sont encore en cours, mais, à nouveau, nos résultats semblent montrer que l’issue tumorale dépend de la cellule dans laquelle survient la première mutation.

Vous avez étudié plusieurs mutations connues pour favoriser les cancers du sein ?

A. V. K. : On connaît aujourd’hui des dizaines de mutations génétiques responsables de cancers du sein. Les étudier toutes va prendre du temps, d’autant que cette librairie de mutations est peut-être non exhaustive. Pour l’instant, nous avons étudié une seule mutation, qui est l’une des plus courantes dans le cancer du sein chez la femme.




À lire aussi :
Cancer du sein : une nouvelle étude révèle un risque génétique chez les femmes africaines


Est-ce que vous interagissez avec les médecins, avec les patientes ?

A. V. K. : Avec les médecins, oui, bien sûr. On se retrouve aux conférences, et certains de mes collègues sont médecins à l’hôpital universitaire de l’Université libre de Bruxelles, juste à côté de notre laboratoire. Quand j’ai des résultats, je vais en discuter avec un spécialiste du cancer du sein chez l’humain pour essayer de trouver la pertinence pour des cancers chez l’humain.

Je fais aussi partie des experts scientifiques bénévoles pour la Fondation contre le cancer belge – ça fait partie des missions d’un chercheur à l’université que de prendre ce genre de rôle.

Les patientes, je les rencontre plutôt pour de la vulgarisation, avec la Fondation contre le cancer, qui organise tous les ans des visites de laboratoire. Il y a aussi le Télévie, un organisme inspiré du Téléthon, en Belgique francophone et au Luxembourg, où on côtoie des patients et des bénévoles lors d’événements. Ces organismes sont aussi des financeurs de nos recherches.

La prévention est un thème qui me tient à cœur, puisqu’un cancer du sein sur quatre pourrait être évité en éliminant le tabac, l’alcool, le surpoids et en faisant régulièrement de l’activité physique. En particulier, le fait que même une consommation légère d’alcool augmente le risque de cancer du sein est encore très méconnu du grand public, mais démontré scientifiquement.




À lire aussi :
Pourquoi l’alcool augmente le risque de cancer, et ce, dès le premier verre


On entend beaucoup parler de certains cancers du sein qui sont liés à des prédispositions génétiques…

A. V. K. : En fait, il n’y a que 10 % des cancers du sein qui viennent de prédispositions génétiques, c’est-à-dire des mutations présentes depuis la naissance, comme c’est le cas d’Angelina Jolie.

La grande majorité des cancers provient de mutations génétiques qui ont lieu au cours de la vie, par exemple à cause de cassures de l’ADN qui sont liées à la consommation de tabac et d’alcool, et qui ont été mal ou pas réparées par l’organisme.

Or, plus un cancer est pris tôt, plus les chances de guérison sont grandes et plus le traitement sera léger. D’où l’intérêt de notre travail sur les étapes extrêmement précoces dans le développement d’une tumeur… mais aussi l’importance pour le patient de consulter dès l’apparition de symptômes.

Justement, vous disiez tout à l’heure que les grandes questions sur l’origine des cancers du sein, qui prévalaient au début de votre carrière, étaient toujours d’actualité aujourd’hui ?

A. V. K. : Tout à fait. Quand on introduit une mutation dans les souris, on doit attendre plusieurs mois – parfois six mois ou un an – avant d’observer l’apparition d’une tumeur. Mais on ne sait pas encore ce qui se passe dans la glande mammaire pendant ce temps-là.

C’est pour cela que je disais tout à l’heure que la question que nous nous posions il y a vingt ans demeure dans une certaine mesure : on cherche toujours ce qu’il se passe dans les cellules qui sont à l’origine du cancer.

En fait, on observe que la mutation change complètement le comportement de ces cellules. La structure extérieure macroscopique de la glande mammaire reste la même, mais, à l’intérieur, les cellules sont tout à fait reprogrammées. Elles deviennent beaucoup plus plastiques, multipotentes – c’est-à-dire qu’elles peuvent donner lieu aux autres types cellulaires.

L’idée serait d’avoir une « fenêtre de tir » thérapeutique entre la mutation et le développement d’une tumeur ?

A. V. K. : Tout à fait : si on comprend ce qui se passe pendant cette période-là, on pourrait imaginer des outils de diagnostic. Par exemple, pour les femmes qui sont prédisposées génétiquement, comme Angelina Jolie, plutôt que d’enlever les seins et les ovaires, on aimerait pouvoir les surveiller de près et, dès que l’on verrait apparaître certaines de ces étapes précoces, intervenir avec un traitement préventif pour inhiber le développement d’une tumeur cancéreuse.

À l’heure actuelle, ça reste hypothétique : nous sommes un laboratoire de recherche fondamentale. Aujourd’hui, on essaye de comprendre ce qui se passe entre l’introduction de la mutation et le début de la tumeur. Auparavant, on devait se contenter d’étudier les tumeurs elles-mêmes, car nous n’avions pas les outils pour étudier cette fenêtre de six mois – je précise que cette durée est évaluée chez les souris, pas chez les humains.

Pour mener à un cancer, il faut une mutation génétique dans une seule cellule, ou bien la même mutation dans plein de cellules différentes, une accumulation progressive ?

A. V. K. : Il faut plusieurs mutations dans une seule cellule – s’il ne fallait qu’une mutation dans une cellule, tout le monde aurait des cancers partout ! C’est une accumulation de probablement sept ou huit mutations bien spécifiques.

Mais quand une cellule est mutée, souvent ce qu’on observe, c’est que ces mutations donnent un avantage à ces cellules par rapport aux cellules avoisinantes. Des études récentes montrent par exemple des « taches » dans la peau des paupières, invisibles à l’œil nu. Ce sont des zones de la peau où toutes les cellules ont les mêmes mutations. Elles proviennent d’une seule et même cellule, qui s’est divisée, au détriment des cellules avoisinantes : en se divisant, les descendantes de la cellule mutée poussent les autres et propagent les mutations. C’est aussi vrai pour d’autres organes, notamment la glande mammaire.

Aujourd’hui, sur les étapes précoces des cancers du sein, nous cherchons donc à savoir comment les cellules à l’origine du cancer sont reprogrammées génétiquement et comment cela leur confère un avantage par rapport aux cellules saines. On explore ainsi petit à petit les grandes étapes qui mènent à une tumeur.

The Conversation

Alexandra Van Keymeulen est consultant scientifique de Cancer State Therapeutics.
Ses recherches bénéficient du soutien financier du FNRS, Télévie, Fondation contre le Cancer et du Fonds Gaston Ithier.

ref. Comment débutent les cancers du sein ? Conversation avec la biochimiste Alexandra Van Keymeulen – https://theconversation.com/comment-debutent-les-cancers-du-sein-conversation-avec-la-biochimiste-alexandra-van-keymeulen-265813

Maria Montessori, una pionera de las metodologías activas

Source: The Conversation – (in Spanish) – By Fernando Díez Ruiz, Professor, Faculty of Education and Sport, Universidad de Deusto

preescolares alemanes en una escuela Montessori en 1930 en Berlín. Wikimedia Commons, CC BY

En una época donde la obediencia y la repetición eran los pilares fundamentales del sistema educativo, una mujer italiana propuso una revolución silenciosa: dar libertad a los niños para aprender por sí mismos. María Montessori (1870-1952), médica, pedagoga y filósofa, rompió con la enseñanza basada en la memorización y la disciplina rígida, introduciendo un método centrado en la autonomía, la exploración activa y el respeto a los ritmos individuales de cada niño. Con ello, transformó el aula en un espacio donde los niños se convierten en protagonistas de su propio aprendizaje y dejó un legado que hoy siguen decenas de miles de escuelas en todo el mundo.

Su historia comenzó en Roma, donde se convirtió en una de las primeras mujeres graduadas en Medicina de Italia. Sin embargo, pronto abandonaría la medicina por las aulas. Fue en su trabajo con niños con discapacidad intelectual donde descubrió algo revelador: al proporcionarles un entorno adecuado, materiales manipulativos y libertad para actuar, muchos alcanzaban niveles de desarrollo comparables a los de sus compañeros considerados “normales”.

Montessori publicó estas experiencias en L’educazione dei bambini deficienti (1900) y más tarde las sistematizó en su obra más influyente, Ideas Generales sobre mi método. Manual práctico (1909). En ella defendió que su propuesta era un método científico, basado en la observación sistemática, la experimentación con materiales y la verificación empírica de los progresos de los niños.

La casa de los niños

Este hallazgo fue sólo el principio. En 1907 Montessori abrió la Casa dei Bambini (casa de los niños) en un barrio obrero de Roma. Era un espacio sencillo y ordenado, con muebles a la medida de los niños y materiales didácticos accesibles en estanterías bajas. No contaba con juguetes tradicionales, sino con recursos diseñados para favorecer la autonomía y la concentración. Este entorno preparado, novedoso en su tiempo, permitió que los niños, de entre 3 y 6 años, manipularan los distintos objetos por sí solos.

Lo que ocurrió sorprendió a todos: los niños, en vez de jugar desordenadamente o aburrirse, se concentraban, trabajaban en silencio y mostraban un respeto natural por los demás y por el entorno.

Nace un método: libertad, orden y respeto

Se puede resumir el principio fundamental del método Montessori en una frase: “Ayúdame a hacerlo por mí mismo”. En lugar de imponer conocimientos desde fuera, Montessori defendía que el aprendizaje debía surgir desde el propio niño. El adulto, lejos de ser un transmisor de contenidos, debía de convertirse en un guía y observador. Una de sus frases más celebres es: “No hagas por un niño nada que él sea capaz de hacer por sí mismo”.

Los pilares de su propuesta son: libertad con responsabilidad, aprendizaje autodirigido, ambientes preparados, materiales sensoriales específicos y un profundo respeto por el ritmo individual de cada niño. En el ámbito práctico, esto se traduce en:

  • Educación infantil (3-6 años): los niños trabajan con materiales sensoriales que desarrollan la coordinación, la motricidad fina, la percepción y el lenguaje.

  • Educación primaria (6-12 años): se trabajan en el aula proyectos de investigación y el trabajo en grupo, fomentando la autonomía y la colaboración.

  • Educación secundaria (12-18 años): el enfoque se centra en conectar el aprendizaje con la vida real. Se promueven experiencias de trabajo comunitario, proyectos de emprendimiento y contacto directo con el entorno social y natural.

Validado por la neurociencia

Lo que parecía una excentricidad en su tiempo, hoy está validado por décadas de neurociencia y psicología del desarrollo: la autonomía fomenta la motivación intrínseca, y el aprendizaje significativo ocurre cuando se conecta con la experiencia. De hecho, muchas metodologías activas que hoy se promueven (aprendizaje basado en proyectos-ABP, aprendizaje-servicio, etc.) beben en parte de esta filosofía montessoriana, al poner al alumno en el centro y vincular lo aprendido con la práctica.

En la actualidad, un instituto Montessori se diferencia de un centro público tradicional sobre todo en la organización del aula (ambientes preparados, materiales concretos, grupos multinivel), en el rol del profesor como guía más que transmisor, y en la mayor libertad del alumno para elegir su camino de aprendizaje. Pero la brecha se ha reducido: muchas innnovaciones pedagógicas que antes parecían exclusivas de Montessori hoy forman parte de la educación pública a través de programas de innovación y metodologías activas.




Leer más:
¿Es eficaz la enseñanza Montessori? Lo que nos dice la investigación científica


Un método no exento de críticas

No obstante su propuesta no ha estado exenta de críticas. Algunos han acusado al método de ser excesivamente individualista o poco estructurado.

Pero estudios recientes demuestran lo contrario. Una investigación publicada en Science reveló que los niños educados en Montessori superan a sus pares en habilidades sociales, cognitivas y de lectura. Más aún, en un mundo donde la creatividad, la empatía y la capacidad de aprendizaje autónomo son esenciales, el modelo Montessori se muestra cada día más pertinente.

Mas allá del aula: una influencia global

Hoy existen más de 20 000 escuelas Montessori en más de 100 países, desde Estados Unidos hasta India. Incluso algunas empresas tecnológicas han adoptado principios del método en sus oficinas, inspiradas por el hecho de que figuras como Larry Page o Sergey Brin (cofundadores de Google) o Jeff Bezos (Amazon) fueron educados con esta filosofía. Incluso se especula sobre si el método Montessori es el orígen del éxito de esas dos compañías.

Como la escuela Montessori fomenta la autonomía, curiosidad y aprendizaje autodirigido, habilidades que contribuyen a la innovación y emprendimiento,
figuras influyentes del mundo tecnológico apoyan y promueven este modelo.




Leer más:
Cuidado, se enseña: más allá de la lección magistral


El legado de Montessori

María Montessori no solo nos dejó un método pedagógico. Nos legó una mirada distinta hacia la infancia: una que no subestima, no encorseta, no impone, sino que confía. Para ella, el niño no era un adulto en miniatura ni un recipiente para llenar, sino un ser en desarrollo, dotado de potencial y dignidad.

En una sociedad que aún lucha por transformar sus sistemas educativos, el pensamiento de Montessori se revela más actual que nunca. Como escribió en uno de sus textos más célebres: “La primera tarea de la educación es agitar la vida, pero dejarla libre para que se desarrolle”. Un reto que sigue en pie.

En un mundo saturado de estímulos y urgencias, su método es una invitación a la atención plena, la curiosidad genuina y el respeto profundo por el proceso de crecimiento. Quizá por eso, en lugar de ser una pedagogía del pasado, Montessori es cada vez más una pedagogía del futuro.

The Conversation

Fernando Díez Ruiz no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Maria Montessori, una pionera de las metodologías activas – https://theconversation.com/maria-montessori-una-pionera-de-las-metodologias-activas-264400

Dos años después del fatídico 7 de octubre: el mundo inicia condenas contra Israel

Source: The Conversation – (in Spanish) – By Aritz Obregón Fernández, Investigador y profesor de Derecho internacional, Universidad del País Vasco / Euskal Herriko Unibertsitatea

Dos años después del ataque de Hamás del 7 de octubre de 2023, Israel ha matado a más de 65 419 palestinos en la Franja de Gaza, cifra que ascendería a 93 000 (77 000-109 000), según algunos estudios.

Durante el último año, las acciones israelíes se han recrudecido, destacando la utilización del hambre como arma de guerra hasta el punto de provocar intencionalmente una hambruna. Este comportamiento ha merecido la condena de 149 Estados de la Asamblea General, incluidos aliados de Israel como Alemania.

A este crimen se le suman otras violaciones graves del derecho internacional como crímenes de guerra y contra la humanidad, la profundización de la ocupación ilegal mediante la expansión de los asentamientos ilegales o la –ampliamente rechazada– posible anexión ilegal de Cisjordania y el consenso entre los especialistas de que Israel está cometiendo genocidio, al menos, en la Franja de Gaza.

Voces qye alertan sobre el genocidio

La relatora Especial de Naciones Unidas sobre los Territorios Palestinos Ocupados, Francesca Albanese, fue de las primeras voces que alertaron sobre el genocidio. Durante 2024, organizaciones no gubernamentales como Amnistía Internacional y Human Rights Watch, estudiosos del genocidio –incluidos judíos y ciudadanos israelíes– y juristas especialistas en este crimen fueron sumándose progresivamente a esta tesis.

Pero a lo largo del presente año se ha ido generando un consenso generalizado sobre este aspecto que ha culminado en el estudio que la Comisión Internacional Independiente de Investigación sobre el Territorio Palestino Ocupado ha presentado en septiembre.

Este grupo, compuesto por tres especialistas de primer nivel, ha recomendado a los Estados establecer todas las medidas a su alcance para impedir el genocidio en Gaza –obligación que no es aplazable hasta que la Corte Internacional de Justicia se pronuncie en ese sentido, cosa que puede demorarse varios años–, cesar la transferencia de armas, y facilitar la persecución penal de los responsables.

Asimismo, ha emplazado al fiscal de la Corte Penal Internacional a estudiar el enjuiciamiento por genocidio al primer ministro israelí, Benjamín Netanyahu, y a otros funcionarios investigados.

La sociedad civil profundiza en su respuesta

La ciudadanía en general, y algunas organizaciones en particular, han intensificado los llamados a través de redes sociales a boicotear económicamente los productos y servicios de las empresas que están respaldando el genocidio, algunas enormemente conocidas y que consumimos diariamente.

También se ha movilizado en favor de la exclusión de Israel de eventos culturales y deportivos, como pudimos ver durante La Vuelta a España, poniendo en valor la importancia del boicot cultural.

Por el momento, se ha logrado que el Giro de Emilia, en Italia, prohibiera la participación del equipo Israel–Premier Tech y que O Gran Camiño haya declinado invitarle.

Sindicatos en Italia han convocado una huelga general para presionar al gobierno y a la Unión Europea, mientras los estibadores europeos se organizan para bloquear los envíos de armas a Israel. Además, el pasado 3 de octubre se celebraba una nueva huelga general en respuesta al asalto de la Global Sumud Flotilla.

Otros colectivos, como los artistas y creadores, han renunciado a participar en festivales impulsados por empresas de corte sionista o utilizan su proyección mediática para posicionarse a favor de la imposición de sanciones, sensibilizando a sus sociedades y presionando a los gobiernos.

Global Sumud Flotilla

La iniciativa de más trascendencia probablemente es la Global Sumud Flotilla. Esta acción de la sociedad civil ha tratado de alcanzar la Franja de Gaza con 50 barcos y cientos de personas de más de 40 nacionalidades, a fin de establecer un corredor humanitario permanente.

Aunque los actos ilícitos de Israel, mediante el secuestro de embarcaciones y personas, impiden periódicamente la llegada a Gaza de los barcos que tratan de romper el bloqueo, se han demostrado como instrumentos de solidaridad y presión significativos. En esta ocasión, ha sido notoria la repercusión en prensa internacional y la asistencia de drones turcos y de buques de las armadas española e italiana a efectos humanitarios.

Las presiones sindicales y sociales también están empujando a algunas empresas a renunciar a sus contratos vinculados con la ocupación o el genocidio, como es el caso de la Sidenor. Si bien muchas de las empresas señaladas por la relatora Especial continúan resistiéndose –entre ellas, la vasca CAF o la petrolera brasileña Petrobras–, los Gobiernos español y los del Sur Global que conforman el Grupo de La Haya se han comprometido a investigar a estas empresas y revisar los contratos públicos con Israel.

El apoyo férreo de EE.UU.

A nivel institucional, la situación no es tan positiva. Estados Unidos, aliado irrestricto de Israel, sigue prestando su cada vez más indispensable apoyo político, económico y militar. Mientras presiona a jueces de la Corte Penal Internacional y a la relatora Especial con el bloqueo de sus cuentas y retirada de visas, en el Consejo de Seguridad de Naciones Unidas veta sucesivas resoluciones de mínimos que solicitan un alto al fuego, la liberación de los rehenes y la llegada masiva de ayuda humanitaria –las últimas ocasiones el 4 de julio y wl 18 de septiembre–.

No obstante, el resto de Estados occidentales que respaldaban a Israel se han ido distanciando, hasta el punto de comenzar a condenar algunas acciones y exigir el cumplimiento de las obligaciones humanitarias. Incluso hay quienes han establecido limitaciones de viaje y congelando, en sus países, los fondos de los miembros del Gobierno israelí considerados más extremistas.

La Unión Europea, también bloqueada por algunos Estados defensores de Israel y la inacción cómplice de la Comisión Europea, presionada por la realidad de los hechos, algunos gobiernos y la ciudadanía, se ha visto forzada a suspender una parte del acuerdo comercial con Israel. En todo caso, esta medida está lejos de producir algún efecto práctico, ya que solamente comprometería 227 millones de euros.

Más allá de los defensores de Israel, en los últimos meses ha aumentado el número de Estados que califican como genocidio lo que está ocurriendo, reconociendo con ello la obligación internacional de establecer medidas de prevención y sanción de este crimen.

En este sentido, el Grupo de la Haya se comprometió en julio a establecer seis medidas concretas, entre las que destaca impedir el suministro y transporte de armas, el transito de buques que las contengan e impulsar la justicia universal. España, asistente a la reunión junto con otros Estados, ha propuesto nueve medidas concretas en la misma línea.

El embargo de armas, inficaz e insuficiente

Es precisamente en la puesta en práctica de estas medidas, ya sea por falta de voluntad, dificultad técnica o resistencias internas de aplicar el embargo de armas, donde se están detectando las dificultades. En España se está constatando en la aplicación del embargo de armas, varias veces anunciado, pero que está resultando ineficaz e insuficiente.

Turquía, por su parte, ha vuelto a anunciar un embargo total, tras declararlo en 2024.

Igualmente, Colombia ha puesto fin al Acuerdo de Libre Comercio con Israel para detener el comercio de carbón, una decisión ya adoptada en agosto de 2024.

Las medidas con más recorrido han sido las de carácter político, cultural y deportivo. Tras las presiones fallidas de la edición anterior de Eurovisión, Países Bajos, Eslovenia, Irlanda y España, uno de los denominados Big Five, han amenazado con boicotear el concurso si en noviembre la Unión Europea de Radiodifusión no acuerda la exclusión de Israel.

En lo que respecta a las competiciones futbolísticas, si bien la expulsión de Israel del fútbol internacional ha sido avalada por expertos de Naciones Unidas y en el caso de la UEFA parece existir una mayoría a favor, la decisión sobre esta se ha retrasado por el plan presentado por Trump.

A nivel político, durante el mes de septiembre se ha reducido a 38 el número de Estados de Naciones Unidas, fundamentalmente occidentales, que no reconocen el Estado palestino. Es destacable que con el reconocimiento de Francia y Reino Unido, Estados Unidos es el único miembro permanente del Consejo de Seguridad que niega la estatalidad de Palestina. En todo caso, estos actos han sido criticados por su carácter condicionado y por no acompañarse de medidas efectivas.

Aislamiento total de Israel

Aunque estas medidas distan de ser suficientes para detener el genocidio en curso, es indudable el creciente aislamiento de Israel, con el temor de convertirse en la nueva Sudáfrica del apartheid.

Este, precisamente, debe ser el objetivo a alcanzar desde posiciones que simplemente aspiran a cumplir con el derecho internacional vigente. En línea con lo señalado por los diferentes especialistas, a corto plazo deben consolidarse, profundizarse y extenderse las medidas adoptadas, así como el establecimiento de otras de más calado. A saber, ruptura de todo tipo de relaciones con Israel, detención de toda clase de comercio o envío de armas, imposición de sanciones económicas, boicots culturales, deportivos, etc.

A medio plazo, una vez que se detenga el genocidio, el objetivo debe ser mantener esas medidas a fin de acabar con el proyecto colonial israelí y garantizar el derecho incondicional a la libre determinación del pueblo palestino, actualmente socavado con la ocupación y anexión ilegal de sus territorios por parte de Israel.

The Conversation

Aritz Obregón Fernández no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Dos años después del fatídico 7 de octubre: el mundo inicia condenas contra Israel – https://theconversation.com/dos-anos-despues-del-fatidico-7-de-octubre-el-mundo-inicia-condenas-contra-israel-266332