Qu’est-ce que l’espace-temps, exactement ?

Source: The Conversation – in French – By Daryl Janzen, Observatory Manager and Instructor, Astronomy, University of Saskatchewan

Peu d’idées dans la science moderne ont autant bouleversé notre compréhension de la réalité que l’espace-temps, cette trame entrelacée d’espace et de temps qui est au cœur de la théorie de la relativité d’Albert Einstein. L’espace-temps est souvent décrit comme le « tissu de la réalité ».

Dans certains récits, cette trame est qualifiée d’« univers-bloc » fixe et quadridimensionnel, une carte complète de tous les événements, passés, présents et futurs. Dans d’autres, il s’agit d’un champ dynamique qui se courbe et se déforme en réponse à la gravité.

Mais que signifie réellement dire que l’espace-temps existe ? De quel type de chose s’agit-il ? L’espace-temps est-il une structure, une substance ou une métaphore ?

Le cœur de la physique moderne

Ces questions ne sont pas seulement philosophiques. Elles sont au cœur de notre interprétation de la physique moderne et façonnent discrètement de multiples enjeux, de notre compréhension de la relativité générale à notre conception du voyage dans le temps, et jusqu’aux multivers et à nos origines.

Ces questions éclairent l’émergence de l’espace-temps lui-même et de nouvelles propositions radicales qui le traitent comme la mémoire de l’univers. Et pourtant, le langage que nous utilisons pour décrire l’espace-temps est souvent vague, métaphorique et profondément incohérent.

Le philosophe austro-britannique Ludwig Wittgenstein a un jour averti que les problèmes philosophiques surgissent lorsque « le langage part en vacances ». Il s’avère que la physique en est peut-être un bon exemple.

Au cours du siècle dernier, des mots usuels tels que « temps », « exister » et « intemporel » ont été réutilisés dans des contextes techniques sans que l’on examine le sens qu’ils ont dans le langage courant.

Cela a conduit à une confusion généralisée quant à la signification réelle de ces termes.

Le problème du langage

En philosophie de la physique, en particulier dans une approche connue sous le nom d’éternalisme, le mot « intemporel » est utilisé au sens littéral. L’éternalisme est l’idée que le temps ne s’écoule pas et ne passe pas, que tous les événements à travers le temps sont également réels dans une structure à quatre dimensions connue sous le nom d’« univers-bloc ».

rangées de blocs
L’éternalisme considère que tout existe de manière atemporelle et simultanée.
(Rick Rothenberg/Unsplash), CC BY

Selon cette vision, toute l’histoire de l’univers est déjà écrite, de manière intemporelle, dans la structure de l’espace-temps. Dans ce contexte, « intemporel » signifie que l’univers lui-même ne perdure ni ne se déploie dans un sens réel. Il n’y a pas de devenir. Il n’y a pas de changement. Il n’y a qu’un bloc, et toute l’éternité existe de manière intemporelle à l’intérieur de celui-ci.

Mais cela conduit à un problème plus profond. Si tout ce qui se produit à travers l’éternité est également réel, et que tous les événements sont déjà là, que signifie réellement le fait que l’espace-temps existe ?

Un éléphant dans la pièce

Il existe une différence structurelle entre l’existence et l’occurrence. L’une est un mode d’être, l’autre, un mode d’arriver.

Imaginez qu’un éléphant se tienne à côté de vous. Vous diriez probablement : « Cet éléphant existe. » Vous pourriez le décrire comme un objet tridimensionnel, mais surtout, c’est un « objet tridimensionnel qui existe ».

En revanche, imaginez un éléphant purement tridimensionnel qui apparaît dans la pièce pendant un instant : un moment transversal dans la vie d’un éléphant existant, apparaissant et disparaissant comme un fantôme. Cet éléphant n’existe pas vraiment au sens ordinaire du terme. Il se produit. Il apparaît.

Un éléphant existant perdure dans le temps, et l’espace-temps catalogue chaque instant de son existence sous la forme d’une ligne mondiale en quatre dimensions – le parcours d’un objet dans l’espace et le temps tout au long de son existence. L’« éléphant qui apparaît » imaginaire n’est qu’une tranche spatiale du tube, un instant en trois dimensions.

Appliquons maintenant cette distinction à l’espace-temps lui-même. Que signifie l’existence d’un espace-temps à quatre dimensions au sens où l’éléphant existe ? L’espace-temps perdure-t-il dans le même sens ? L’espace-temps a-t-il son propre ensemble de moments « présents » ? Ou bien l’espace-temps – l’ensemble de tous les événements qui se produisent à travers l’éternité – est-il simplement quelque chose qui se produit ? L’espace-temps est-il simplement un cadre descriptif permettant de relier ces événements ?


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


L’éternalisme brouille cette distinction. Il traite toute l’éternité – c’est-à-dire tout l’espace-temps – comme une structure existante, et considère le passage du temps comme une illusion. Mais cette illusion est impossible si tout l’espace-temps se produit en un clin d’œil.

Pour retrouver l’illusion que le temps passe dans ce cadre, l’espace-temps à quatre dimensions doit exister d’une manière plus proche de l’éléphant à trois dimensions existant, dont l’existence est décrite par l’espace-temps à une dimension.

Chaque événement

Poussons cette réflexion un peu plus loin.

Si nous imaginons que chaque événement de l’histoire de l’univers « existe » dans l’univers-bloc, alors nous pourrions nous demander : quand le bloc lui-même existe-t-il ? S’il ne se déroule pas et ne change pas, existe-t-il hors du temps ? Si tel est le cas, alors nous ajoutons une autre dimension temporelle à quelque chose qui est censé être intemporel au sens littéral.

Pour donner un sens à cela, nous pourrions construire un cadre à cinq dimensions, en utilisant trois dimensions spatiales et deux dimensions temporelles. Le deuxième axe temporel nous permettrait de dire que l’espace-temps à quatre dimensions existe exactement de la même manière que nous considérons généralement qu’un éléphant dans une pièce existe dans les trois dimensions spatiales qui nous entourent, les événements que nous classons comme espace-temps à quatre dimensions.

À ce stade, nous sortons du cadre de la physique établie, qui décrit l’espace-temps à travers quatre dimensions seulement. Mais cela révèle un problème profond : nous n’avons aucun moyen cohérent de parler de ce que signifie l’existence de l’espace-temps sans réintroduire accidentellement le temps à travers une dimension supplémentaire qui ne fait pas partie de la physique.

C’est comme essayer de décrire une chanson qui existe à un moment donné, sans être jouée, entendue ou dévoilée.

De la physique à la fiction

Cette confusion façonne notre conception du temps dans la fiction et la science populaire.

Dans le film de James Cameron de 1984, The Terminator, tous les événements sont considérés comme fixes. Le voyage dans le temps est possible, mais la chronologie ne peut être modifiée. Tout existe déjà dans un état fixe et intemporel.

Dans le quatrième film de la franchise Avengers, Avengers : Endgame (2019), le voyage dans le temps permet aux personnages de modifier les événements passés et de remodeler la ligne temporelle, suggérant un univers en bloc qui existe et change à la fois.

Ce changement ne peut se produire que si la ligne temporelle à quatre dimensions existe de la même manière que notre monde à trois dimensions.

Mais indépendamment de la possibilité d’un tel changement, les deux scénarios supposent que le passé et l’avenir sont là et prêts à être parcourus. Cependant, aucun des deux ne s’intéresse à la nature de l’existence que cela implique, ni à la manière dont l’espace-temps diffère d’une carte des événements.

Comprendre la réalité

Lorsque les physiciens affirment que l’espace-temps « existe », ils travaillent souvent dans un cadre qui a discrètement brouillé la frontière entre existence et occurrence. Il en résulte un modèle métaphysique qui, au mieux, manque de clarté et, au pire, obscurcit la nature même de la réalité.

Rien de tout cela ne remet en cause la théorie mathématique de la relativité ou la science empirique qui la confirme. Les équations d’Einstein fonctionnent toujours. Mais la manière dont nous interprétons ces équations est importante, en particulier lorsqu’elle influence la façon dont nous parlons de la réalité et dont nous abordons les problèmes plus profonds de la physique.

Ces compréhensions incluent des tentatives de réconciliation de la relativité générale avec la théorie quantique – un défi exploré à la fois dans la philosophie et les débats scientifiques populaires.

Définir l’espace-temps est plus qu’un débat technique : il s’agit de déterminer dans quel type de monde nous pensons vivre.

La Conversation Canada

Daryl Janzen ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Qu’est-ce que l’espace-temps, exactement ? – https://theconversation.com/quest-ce-que-lespace-temps-exactement-264101

Deepfakes et élections en Afrique : la prochaine grande menace démocratique ?

Source: The Conversation – in French – By Fabrice Lollia, Docteur en sciences de l’information et de la communication, chercheur associé laboratoire DICEN Ile de France, Université Gustave Eiffel

Les élections africaines, déjà marquées par des tensions récurrentes autour de la transparence et de la désinformation, pourraient bientôt entrer dans une nouvelle ère, celle des deepfakes. Ces vidéos et audios générés par intelligence artificielle, capables d’imiter la voix, le visage et les gestes d’une personne avec un réalisme troublant, déplacent la frontière de la manipulation politique.

S’ils prêtent parfois à sourire lorsqu’ils mettent en scène des célébrités dans des détournements humoristiques, leur usage en période électorale représente une menace sérieuse pour la stabilité démocratique. Aux États-Unis, en Inde ou encore en Slovaquie, les deepfakes ont déjà été mobilisés pour influencer l’opinion publique. La question centrale est donc très simple : l’Afrique est-elle prête à affronter ce nouvel outil de manipulation électorale ?

Chercheur en sciences de l’information et de la communication, j’étudie la circulation de l’information, la désinformation et les vulnérabilités communicationnelles en contexte de crise. L’émergence des deepfakes illustre ces tensions. En Afrique, où la jeunesse hyperconnectée domine l’électorat mais où la culture numérique reste inégale, le risque est particulièrement élevé. J’en propose ici une lecture info-communicationnelle appliquée aux élections africaines

Des précédents inquiétants à l’échelle mondiale

Les deepfakes ne sont plus une hypothèse futuriste. Ils ont déjà marqué des épisodes électoraux clés, offrant des leçons pour les pays africains.
En 2023, en Slovaquie, quelques jours avant les législatives, un deepfake audio circulant sur Facebook et Telegram attribuait à Michal Simecka, chef du parti pro-occidental progressiste slovaque, une conversation où il planifiait de ruser le scrutin. Ce contenu a semé le doute au profit du camp populiste de Robert Fico. Il s’agit du premier cas documenté en Europe où un deepfake aurait pesé sur un scrutin national.

En 2024 aux États unis lors de la primaire démocrate du New Hampshire, des électeurs reçurent un appel téléphonique deepfake imitant la voix de Joe Biden et incident à l’abstention. Ce qui illustre l’usage des deepfakes pour dissuader la participation électorale, ce qui constitue une attaque frontale contre la démocratie.

En 2024 en Inde, les élections générales de 2024 ont été marquées par une explosion de deepfakes. Ces vidéos et sons générés par intelligence artificielle (IA) ont été diffusés massivement par les réseaux sociaux. Des acteurs de Bollywood ou même des personnalités politiques décédées ont été mis en scène pour soutenir ou attaquer les candidats.

Ces cas montrent que les deepfakes ne visent pas seulement à convaincre, mais surtout à introduire le doute, brouiller les repères et miner la confiance.

Un terrain fertile en Afrique

Le continent africain compte aujourd’hui plus de 670 millions d’internautes, majoritairement jeunes. Whatsapp, Facebook et TikTok sont devenus les principales sources d’information politique. Dans ce contexte, plusieurs facteurs accentuent la vulnérabilité face aux deepfakes :

• Une faible culture de vérification : beaucoup d’utilisateurs partagent sans contrôler l’origine des contenus;

• Une viralité extrême : les messages et vidéos circulent rapidement dans les groupes fermés et sont difficiles à surveiller;

• Les institutions électorales sont contestées : la confiance citoyenne est fragile, ce qui confère une crédibilité accrue aux fausses informations.

Des signaux faibles apparaissent déjà :

Au Nigéria, en 2023, des inquiétudes ont émergé concernant la circulation de vidéos manipulées lors de la présidentielle.

Au Kenya, en 2022, TikTok et Facebook ont hébergé de nombreux contenus politiques manipulés, certains proches de techniques de falsification, dans le cadre de campagnes de désinformation.

L’Afrique se trouve donc dans une phase de vulnérabilité latente, réunissant tous les ingrédients pour que les deepfakes deviennent rapidement une arme politique.
À la différence des « fake news » classiques, les deepfakes tirent leur force de la synergie image/son créant une illusion sensorielle difficile à contester. Leur efficacité ne repose pas seulement sur la capacité à tromper, mais sur leur pouvoir de déstabilisation symbolique.

Ils peuvent ainsi créer un scandale contre un candidat, amplifier des clivages ethniques ou religieux et semer la confusion.

Cette érosion du contrat de vérité constitue une crise communicationnelle majeure qui fragilise les démocraties africaines déjà confrontées à des équilibres institutionnels précaires.

Une lecture info-communicationnelle

Les SIC permettent d’analyser ce phénomène sous un angle élargi. Trois axes sont particulièrement pertinents :

  • Tout d’abord, en termes de médiologie et de circulation des rumeurs, les deepfakes s’inscrivent dans une longue histoire des technologies de communication comme instruments de pouvoir. L’incertitude, le manque de transparence et l’opacité de certaines sphères d’information favorisent la prolifération de rumeurs, en particulier dans les contextes électoraux ou politiques.Les deepfakes ajoutent une couche technologique qui donne un vernis de crédibilité à la rumeur.

  • Ensuite, dans le cadre des logiques sociotechniques des plateformes, les algorithmes comme celui de TikTok privilégient les contenus sensationnels et polarisants. Dans ce système le deepfake devient une arme algorithmique amplifiée par l’économie de l’attention.

  • Enfin, on constate que dans un contexte africain marqué par des fractures linguistiques, éducatives et technologiques, la réception des deepfakes varie fortement. La culture numérique inégale favorise des appropriations différenciées, accentuant les asymétries de compréhension.

De nombreuses pistent émergent, mais leur mise en œuvre reste complexe :
Google, Meta ou Microsoft développent des outils capables d’identifier les contenus synthétiques. Mais ces technologies de détection restent coûteuses et rarement accessibles aux médias africains.

Des initiatives comme Africa Check jouent un rôle crucial en terme de médias et fact-checking, mais elles sont sous-dimensionnées face à la masse d’informations manipulées.

D’un point de vue juridique, certains pays africains légifèrent contre les fake news comme le Ghana ou l’Ouganda, mais il est à craindre que ces lois, dont l’encadrement est discutable, risquent de servir la censure politique plutôt que la protection citoyenne. Une approche panafricaine via l’Union Africaine ou les communautés régionales offrirait plus de crédibilité.

Former les jeunes et les moins jeunes à repérer, vérifier et questionner les contenus constitue un investissement démocratique stratégique. Les programmes scolaires universitaires, l’éducation aux médias, qui sont les leviers à long terme doivent intégrer la littérature numérique et médiatique comme compétences civiques.

Vers une souveraineté numérique africaine ?

La menace des deepfakes invite aussi à réfléchir à une souveraineté numérique africaine. L’Afrique ne peut pas dépendre uniquement des géants technologiques occidentaux pour sécuriser son espace informationnel. Le développement de laboratoires panafricains de recherche et de détection associés à des initiatives de société civile pourrait constituer une réponse endogène.

En outre, la coopération Sud-Sud ( par exemple entre l’Inde et certains pays africains) pourrait favoriser l’échange de solutions techniques et pédagogiques. Car il ne s’agit pas seulement de contrer la manipulation, mais aussi de bâtir une culture numérique partagée, capable de redonner confiance aux citoyens.

Les cas en Slovaquie, en Inde, aux États-Unis montrent que les deepfakes sont déjà une arme électorale redoutable. En Afrique, leur introduction dans le jeu politique n’est plus qu’une question de temps.

Mais la menace ne se réduit pas à une technologie. Elle révèle une vulnérabilité communicationnelle plus profonde qui se caractérise par une crise de confiance minant la légitimité démocratique. L’enjeu n’est donc pas uniquement de détecter les deepfakes, mais bien de reconstruire un rapport de vérité entre gouvernés et gouvernants.

Former les citoyens, renforcer les médias, développer une recherche locale et promouvoir une régulation panafricaine sont autant de pistes pour affronter ce défi. Car au-delà de la technique, c’est la capacité de l’Afrique à protéger l’intégrité de ses choix démocratiques qui est en jeu.

The Conversation

Fabrice Lollia does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Deepfakes et élections en Afrique : la prochaine grande menace démocratique ? – https://theconversation.com/deepfakes-et-elections-en-afrique-la-prochaine-grande-menace-democratique-266266

Comment un médicament essentiel de la médecine moderne a été découvert sur l’île de Pâques

Source: The Conversation – France in French (3) – By Ted Powers, Professor of Molecular and Cellular Biology, University of California, Davis

Le peuple Rapa Nui est pratiquement absent de l’histoire de la découverte de la rapamycine telle qu’elle est généralement racontée. Posnov/Moment/Getty

La découverte en 1964, sur l’île de Pâques, de la rapamycine, un nouvel antibiotique, a marqué le début d’une success story pharmaceutique à plusieurs milliards de dollars. Pourtant, l’histoire a complètement occulté les individus et les dynamiques politiques qui ont rendu possible l’identification de ce « médicament miracle ».


Baptisé du nom autochtone de l’île, Rapa Nui, la rapamycine a initialement été employée comme immunosuppresseur, afin de prévenir le rejet des greffes d’organes et d’améliorer le taux de succès de l’implantation de stents, de petits treillis métalliques destinés à étayer les artères dans le cadre de la lutte contre la maladie coronarienne (laquelle se traduit par rétrécissement progressif des artères qui nourrissent le cœur, ndlr).

Son usage s’est depuis étendu au traitement de divers types de cancers, et les chercheurs explorent aujourd’hui son potentiel dans le contexte de la prise en charge du diabète,

des maladies neurodégénératives, voire de la lutte contre les méfaits du vieillissement. Ainsi, des études mettant en évidence la capacité de la rapamycine à prolonger la durée de vie ou à combattre les maladies liées à l’âge semblent paraître presque quotidiennement depuis quelque temps… Une requête sur PubMed, le moteur de recherche recense plus de 59 000 articles mentionnant la rapamycine. Il s’agit de l’un des médicaments qui fait le plus parler de lui dans le domaine médical.

Cependant, bien que la rapamycine soit omniprésente en science et en médecine, la façon dont elle a été découverte demeure largement méconnue du public. En tant que scientifique ayant consacré sa carrière à l’étude de ses effets sur les cellules, j’ai ressenti le besoin de mieux comprendre son histoire.

À ce titre, les travaux de l’historienne Jacalyn Duffin portant sur la Medical Expedition to Easter Island (METEI), une expédition scientifique mise sur pied dans les années 1960, ont complètement changé la manière dont nombre de mes collègues et moi-même envisageons désormais notre domaine de recherche.

La découverte du complexe héritage de la rapamycine soulève en effet d’importantes questions sur les biais systémiques qui existent dans le secteur de la recherche biomédicale, ainsi que sur la dette des entreprises pharmaceutiques envers les territoires autochtones d’où elles extraient leurs molécules phares.

Pourquoi un tel intérêt pour la rapamycine ?

L’action de la rapamycine s’explique par sa capacité à inhiber une protéine appelée target of rapamycin kinase, ou TOR. Cette dernière est l’un des principaux régulateurs de la croissance et du métabolisme cellulaires. De concert avec d’autres protéines partenaires, TOR contrôle la manière dont les cellules répondent aux nutriments, au stress et aux signaux environnementaux, influençant ainsi des processus majeurs tels que la synthèse protéique et la fonction immunitaire.

Compte tenu de son rôle central dans ces activités cellulaires fondamentales, il n’est guère surprenant qu’un dysfonctionnement de TOR puisse se traduire par la survenue de cancers, de troubles métaboliques ou de maladies liées à l’âge.

Structure chimique de la rapamycine
Structure chimique de la rapamycine.
Fvasconcellos/Wikimedia

Un grand nombre des spécialistes du domaine savent que cette molécule a été isolée au milieu des années 1970 par des scientifiques travaillant au sein du laboratoire pharmaceutique Ayerst Research Laboratories, à partir d’un échantillon de sol contenant la bactérie Streptomyces hydroscopicus. Ce que l’on sait moins, c’est que cet échantillon a été prélevé dans le cadre d’une mission canadienne appelée Medical Expedition to Easter Island, ou METEI, menée à Rapa Nui – l’Île de Pâques – en 1964.

Histoire de la METEI

L’idée de la Medical Expedition to Easter Island (METEI) a germé au sein d’une équipe de scientifiques canadiens composée du chirurgien Stanley Skoryna et du bactériologiste Georges Nogrady. Leur objectif était de comprendre comment une population isolée s’adaptait au stress environnemental. Ils estimaient que la prévision de la construction d’un aéroport international sur l’île de Pâques offrait une occasion unique d’éclairer cette question. Selon eux, en accroissant les contacts de la population de l’île avec l’extérieur, l’aéroport risquait d’entraîner des changements dans sa santé et son bien-être.

Financée par l’Organisation mondiale de la santé, et soutenue logistiquement par la Marine royale canadienne, la METEI arriva à Rapa Nui en décembre 1964. Durant trois mois, l’équipe fit passer à la quasi-totalité des 1 000 habitants de l’île toute une batterie d’examens médicaux, collectant des échantillons biologiques et procédant à un inventaire systématique de la flore et de la faune insulaires.

Dans le cadre de ces travaux, Georges Nogrady recueillit plus de 200 échantillons de sol, dont l’un s’est avéré contenir la souche de bactéries Streptomyces productrice de rapamycine.

Affiche du mot METEI écrit verticalement entre l’arrière de deux têtes de moaï, avec l’inscription « 1964-1965 RAPA NUI INA KA HOA (N’abandonnez pas le navire) »
Logo du METEI.
Georges Nogrady, CC BY-NC-ND

Il est important de comprendre que l’objectif premier de l’expédition était d’étudier le peuple de Rapa Nui, dans un contexte qui était vu comme celui d’un laboratoire à ciel ouvert. Pour encourager les habitants à participer, les chercheurs n’ont pas hésité à recourir à la corruption, leur offrant des cadeaux, de la nourriture et diverses fournitures. Ils ont également eu recours à la coercition : à cet effet, ils se sont assuré les services d’un prêtre franciscain en poste de longue date sur l’île pour les aider au recrutement. Si leurs intentions étaient peut-être honorables, il s’agit néanmoins là d’un exemple de colonialisme scientifique dans lequel une équipe d’enquêteurs blancs choisit d’étudier un groupe majoritairement non blanc sans son concours, ce qui crée un déséquilibre de pouvoir. Un biais inhérent à l’expédition existait donc dès la conception de la METEI.

Par ailleurs, plusieurs des hypothèses de départ avaient été formulées sur des bases erronées. D’une part, les chercheurs supposaient que les habitants de Rapa Nui avaient été relativement isolés du reste du monde, alors qu’il existait en réalité une longue histoire d’interactions avec des pays extérieurs, comme en témoignaient divers récits dont les plus anciens remontaient au début du XVIIIe siècle, et dont les publications s’étalaient jusqu’à la fin du XIXe siècle.

D’autre part, les organisateurs de la METEI partaient du postulat que le bagage génétique de la population de Rapa Nui était homogène, sans tenir compte de la complexe histoire de l’île en matière de migrations, d’esclavage et de maladies (certains habitants étaient en effet les descendants de survivants de la traite des esclaves africains qui furent renvoyés sur l’île et y apportèrent certaines maladies, dont la variole). La population moderne de Rapa Nui est en réalité métissée, issue à la fois d’ancêtres polynésiens, sud-américains, voire africains.

Cette erreur d’appréciation a sapé l’un des objectifs clés du METEI : évaluer l’influence de la génétique sur le risque de maladie. Si l’équipe a publié un certain nombre d’études décrivant la faune associée à Rapa Nui, son incapacité à établir une base de référence est probablement l’une des raisons pour lesquelles aucune étude de suivi n’a été menée après l’achèvement de l’aéroport de l’île de Pâques en 1967.

Rendre crédit à qui de droit

Les omissions qui existent dans les récits sur les origines de la rapamycine sont le reflet d’angles morts éthiques fréquemment présents dans la manière dont on se souvient des découvertes scientifiques.

Georges Nogrady rapporta de Rapa Nui des échantillons de sol, dont l’un parvint à Ayerst Research Laboratories. Là, Surendra Sehgal et son équipe isolèrent ce qui fut nommé rapamycine, qu’ils finirent par commercialiser à la fin des années 1990 en tant qu’immunosuppresseur, sous le nom Rapamune. Si l’on connaît bien l’obstination de Sehgal, qui fut déterminante pour mener à bien le projet en dépit des bouleversements qui agitaient à cette époque la société pharmaceutique pour laquelle il travaillait – il alla même jusqu’à dissimuler une culture de bactéries chez lui – ni Nogrady ni la METEI ne furent jamais crédités dans les principaux articles scientifiques qu’il publia.

Bien que la rapamycine ait généré des milliards de dollars de revenus, le peuple de Rapa Nui n’en a tiré aucun bénéfice financier à ce jour. Cela soulève des questions sur les droits des peuples autochtones ainsi que sur la biopiraterie (qui peut être définie comme « l’appropriation illégitime par un sujet, notamment par voie de propriété intellectuelle, parfois de façon illicite, de ressources naturelles, et/ou éventuellement de ressources culturelles en lien avec elles, au détriment d’un autre sujet », ndlr), autrement dit dans ce contexte la commercialisation de connaissances autochtones sans contrepartie.

Des accords tels que la Convention des Nations unies de 1992 sur la diversité biologique et la Déclaration de 2007 sur les droits des peuples autochtones visent à protéger les revendications autochtones sur les ressources biologiques, en incitant tous les pays à obtenir le consentement et la participation des populations concernées, et à prévoir des réparations pour les préjudices potentiels avant d’entreprendre des projets.

Ces principes n’étaient cependant pas en vigueur à l’époque du METEI.

Gros plans de visages alignés portant des couronnes de fleurs dans une pièce sombre
Les habitants de Rapa Nui n’ont reçu que peu ou pas de reconnaissance pour leur rôle dans la découverte de la rapamycine.
Esteban Felix/AP Photo

Certaines personnes soutiennent que, puisque la bactérie productrice de rapamycine a été trouvée ailleurs que dans le sol de l’île de Pâques, ce dernier n’était ni unique ni essentiel à la découverte du médicament. D’autres avancent aussi qu’étant donné que les insulaires n’utilisaient pas la rapamycine et n’en connaissaient pas l’existence sur leur île, cette molécule ne constituait pas une ressource susceptible d’être « volée ».

Cependant, la découverte de la rapamycine à Rapa Nui a jeté les bases de l’ensemble des recherches et de la commercialisation ultérieures autour de cette molécule. Cela n’a été possible que parce que la population a été l’objet de l’étude montée par l’équipe canadienne. La reconnaissance formelle du rôle essentiel joué par les habitants de Rapa Nui dans la découverte de la rapamycine, ainsi que la sensibilisation du public à ce sujet, sont essentielles pour les indemniser à hauteur de leur contribution.

Ces dernières années, l’industrie pharmaceutique a commencé à reconnaître l’importance d’indemniser équitablement les contributions autochtones. Certaines sociétés se sont engagées à réinvestir dans les communautés d’où proviennent les précieux produits naturels qu’elles exploitent.

Toutefois, s’agissant des Rapa Nui, les entreprises qui ont directement tiré profit de la rapamycine n’ont pas encore fait un tel geste.

Si la découverte de la rapamycine a sans conteste transformé la médecine, il est plus complexe d’évaluer les conséquences pour le peuple de Rapa Nui de l’expédition METEI. En définitive, son histoire est à la fois celle d’un triomphe scientifique et d’ambiguïtés sociales.

Je suis convaincu que les questions qu’elle soulève (consentement biomédical, colonialisme scientifique et occultation de certaines contributions) doivent nous faire prendre conscience qu’il est nécessaire d’examiner de façon plus critique qu’ils ne l’ont été jusqu’à présent les héritages des découvertes scientifiques majeures.

The Conversation

Ted Powers ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Comment un médicament essentiel de la médecine moderne a été découvert sur l’île de Pâques – https://theconversation.com/comment-un-medicament-essentiel-de-la-medecine-moderne-a-ete-decouvert-sur-lile-de-paques-266381

Comment un médicament à un milliard de dollars a été découvert dans le sol de l’Île de Pâques (et ce que les scientifiques et l’industrie doivent aux peuples autochtones)

Source: The Conversation – France in French (3) – By Ted Powers, Professor of Molecular and Cellular Biology, University of California, Davis

Le peuple Rapa Nui est pratiquement absent de l’histoire de la découverte de la rapamycine telle qu’elle est généralement racontée. Posnov/Moment/Getty

La découverte en 1964, sur l’île de Pâques, de la rapamycine, un nouvel antibiotique, a marqué le début d’une success story pharmaceutique à plusieurs milliards de dollars. Pourtant, l’histoire a complètement occulté les individus et les dynamiques politiques qui ont rendu possible l’identification de ce « médicament miracle ».


Baptisé du nom autochtone de l’île, Rapa Nui, la rapamycine a initialement été employée comme immunosuppresseur, afin de prévenir le rejet des greffes d’organes et d’améliorer le taux de succès de l’implantation de stents, de petits treillis métalliques destinés à étayer les artères dans le cadre de la lutte contre la maladie coronarienne (laquelle se traduit par rétrécissement progressif des artères qui nourrissent le cœur, ndlr).

Son usage s’est depuis étendu au traitement de divers types de cancers, et les chercheurs explorent aujourd’hui son potentiel dans le contexte de la prise en charge du diabète,

des maladies neurodégénératives, voire de la lutte contre les méfaits du vieillissement. Ainsi, des études mettant en évidence la capacité de la rapamycine à prolonger la durée de vie ou à combattre les maladies liées à l’âge semblent paraître presque quotidiennement depuis quelque temps… Une requête sur PubMed, le moteur de recherche recense plus de 59 000 articles mentionnant la rapamycine. Il s’agit de l’un des médicaments qui fait le plus parler de lui dans le domaine médical.

Cependant, bien que la rapamycine soit omniprésente en science et en médecine, la façon dont elle a été découverte demeure largement méconnue du public. En tant que scientifique ayant consacré sa carrière à l’étude de ses effets sur les cellules, j’ai ressenti le besoin de mieux comprendre son histoire.

À ce titre, les travaux de l’historienne Jacalyn Duffin portant sur la Medical Expedition to Easter Island (METEI), une expédition scientifique mise sur pied dans les années 1960, ont complètement changé la manière dont nombre de mes collègues et moi-même envisageons désormais notre domaine de recherche.

La découverte du complexe héritage de la rapamycine soulève en effet d’importantes questions sur les biais systémiques qui existent dans le secteur de la recherche biomédicale, ainsi que sur la dette des entreprises pharmaceutiques envers les territoires autochtones d’où elles extraient leurs molécules phares.

Pourquoi un tel intérêt pour la rapamycine ?

L’action de la rapamycine s’explique par sa capacité à inhiber une protéine appelée target of rapamycin kinase, ou TOR. Cette dernière est l’un des principaux régulateurs de la croissance et du métabolisme cellulaires. De concert avec d’autres protéines partenaires, TOR contrôle la manière dont les cellules répondent aux nutriments, au stress et aux signaux environnementaux, influençant ainsi des processus majeurs tels que la synthèse protéique et la fonction immunitaire.

Compte tenu de son rôle central dans ces activités cellulaires fondamentales, il n’est guère surprenant qu’un dysfonctionnement de TOR puisse se traduire par la survenue de cancers, de troubles métaboliques ou de maladies liées à l’âge.

Structure chimique de la rapamycine
Structure chimique de la rapamycine.
Fvasconcellos/Wikimedia

Un grand nombre des spécialistes du domaine savent que cette molécule a été isolée au milieu des années 1970 par des scientifiques travaillant au sein du laboratoire pharmaceutique Ayerst Research Laboratories, à partir d’un échantillon de sol contenant la bactérie Streptomyces hydroscopicus. Ce que l’on sait moins, c’est que cet échantillon a été prélevé dans le cadre d’une mission canadienne appelée Medical Expedition to Easter Island, ou METEI, menée à Rapa Nui – l’Île de Pâques – en 1964.

Histoire de la METEI

L’idée de la Medical Expedition to Easter Island (METEI) a germé au sein d’une équipe de scientifiques canadiens composée du chirurgien Stanley Skoryna et du bactériologiste Georges Nogrady. Leur objectif était de comprendre comment une population isolée s’adaptait au stress environnemental. Ils estimaient que la prévision de la construction d’un aéroport international sur l’île de Pâques offrait une occasion unique d’éclairer cette question. Selon eux, en accroissant les contacts de la population de l’île avec l’extérieur, l’aéroport risquait d’entraîner des changements dans sa santé et son bien-être.

Financée par l’Organisation mondiale de la santé, et soutenue logistiquement par la Marine royale canadienne, la METEI arriva à Rapa Nui en décembre 1964. Durant trois mois, l’équipe fit passer à la quasi-totalité des 1 000 habitants de l’île toute une batterie d’examens médicaux, collectant des échantillons biologiques et procédant à un inventaire systématique de la flore et de la faune insulaires.

Dans le cadre de ces travaux, Georges Nogrady recueillit plus de 200 échantillons de sol, dont l’un s’est avéré contenir la souche de bactéries Streptomyces productrice de rapamycine.

Affiche du mot METEI écrit verticalement entre l’arrière de deux têtes de moaï, avec l’inscription « 1964-1965 RAPA NUI INA KA HOA (N’abandonnez pas le navire) »
Logo du METEI.
Georges Nogrady, CC BY-NC-ND

Il est important de comprendre que l’objectif premier de l’expédition était d’étudier le peuple de Rapa Nui, dans un contexte qui était vu comme celui d’un laboratoire à ciel ouvert. Pour encourager les habitants à participer, les chercheurs n’ont pas hésité à recourir à la corruption, leur offrant des cadeaux, de la nourriture et diverses fournitures. Ils ont également eu recours à la coercition : à cet effet, ils se sont assuré les services d’un prêtre franciscain en poste de longue date sur l’île pour les aider au recrutement. Si leurs intentions étaient peut-être honorables, il s’agit néanmoins là d’un exemple de colonialisme scientifique dans lequel une équipe d’enquêteurs blancs choisit d’étudier un groupe majoritairement non blanc sans son concours, ce qui crée un déséquilibre de pouvoir. Un biais inhérent à l’expédition existait donc dès la conception de la METEI.

Par ailleurs, plusieurs des hypothèses de départ avaient été formulées sur des bases erronées. D’une part, les chercheurs supposaient que les habitants de Rapa Nui avaient été relativement isolés du reste du monde, alors qu’il existait en réalité une longue histoire d’interactions avec des pays extérieurs, comme en témoignaient divers récits dont les plus anciens remontaient au début du XVIIIe siècle, et dont les publications s’étalaient jusqu’à la fin du XIXe siècle.

D’autre part, les organisateurs de la METEI partaient du postulat que le bagage génétique de la population de Rapa Nui était homogène, sans tenir compte de la complexe histoire de l’île en matière de migrations, d’esclavage et de maladies (certains habitants étaient en effet les descendants de survivants de la traite des esclaves africains qui furent renvoyés sur l’île et y apportèrent certaines maladies, dont la variole). La population moderne de Rapa Nui est en réalité métissée, issue à la fois d’ancêtres polynésiens, sud-américains, voire africains.

Cette erreur d’appréciation a sapé l’un des objectifs clés du METEI : évaluer l’influence de la génétique sur le risque de maladie. Si l’équipe a publié un certain nombre d’études décrivant la faune associée à Rapa Nui, son incapacité à établir une base de référence est probablement l’une des raisons pour lesquelles aucune étude de suivi n’a été menée après l’achèvement de l’aéroport de l’île de Pâques en 1967.

Rendre crédit à qui de droit

Les omissions qui existent dans les récits sur les origines de la rapamycine sont le reflet d’angles morts éthiques fréquemment présents dans la manière dont on se souvient des découvertes scientifiques.

Georges Nogrady rapporta de Rapa Nui des échantillons de sol, dont l’un parvint à Ayerst Research Laboratories. Là, Surendra Sehgal et son équipe isolèrent ce qui fut nommé rapamycine, qu’ils finirent par commercialiser à la fin des années 1990 en tant qu’immunosuppresseur, sous le nom Rapamune. Si l’on connaît bien l’obstination de Sehgal, qui fut déterminante pour mener à bien le projet en dépit des bouleversements qui agitaient à cette époque la société pharmaceutique pour laquelle il travaillait – il alla même jusqu’à dissimuler une culture de bactéries chez lui – ni Nogrady ni la METEI ne furent jamais crédités dans les principaux articles scientifiques qu’il publia.

Bien que la rapamycine ait généré des milliards de dollars de revenus, le peuple de Rapa Nui n’en a tiré aucun bénéfice financier à ce jour. Cela soulève des questions sur les droits des peuples autochtones ainsi que sur la biopiraterie (qui peut être définie comme « l’appropriation illégitime par un sujet, notamment par voie de propriété intellectuelle, parfois de façon illicite, de ressources naturelles, et/ou éventuellement de ressources culturelles en lien avec elles, au détriment d’un autre sujet », ndlr), autrement dit dans ce contexte la commercialisation de connaissances autochtones sans contrepartie.

Des accords tels que la Convention des Nations unies de 1992 sur la diversité biologique et la Déclaration de 2007 sur les droits des peuples autochtones visent à protéger les revendications autochtones sur les ressources biologiques, en incitant tous les pays à obtenir le consentement et la participation des populations concernées, et à prévoir des réparations pour les préjudices potentiels avant d’entreprendre des projets.

Ces principes n’étaient cependant pas en vigueur à l’époque du METEI.

Gros plans de visages alignés portant des couronnes de fleurs dans une pièce sombre
Les habitants de Rapa Nui n’ont reçu que peu ou pas de reconnaissance pour leur rôle dans la découverte de la rapamycine.
Esteban Felix/AP Photo

Certaines personnes soutiennent que, puisque la bactérie productrice de rapamycine a été trouvée ailleurs que dans le sol de l’île de Pâques, ce dernier n’était ni unique ni essentiel à la découverte du médicament. D’autres avancent aussi qu’étant donné que les insulaires n’utilisaient pas la rapamycine et n’en connaissaient pas l’existence sur leur île, cette molécule ne constituait pas une ressource susceptible d’être « volée ».

Cependant, la découverte de la rapamycine à Rapa Nui a jeté les bases de l’ensemble des recherches et de la commercialisation ultérieures autour de cette molécule. Cela n’a été possible que parce que la population a été l’objet de l’étude montée par l’équipe canadienne. La reconnaissance formelle du rôle essentiel joué par les habitants de Rapa Nui dans la découverte de la rapamycine, ainsi que la sensibilisation du public à ce sujet, sont essentielles pour les indemniser à hauteur de leur contribution.

Ces dernières années, l’industrie pharmaceutique a commencé à reconnaître l’importance d’indemniser équitablement les contributions autochtones. Certaines sociétés se sont engagées à réinvestir dans les communautés d’où proviennent les précieux produits naturels qu’elles exploitent.

Toutefois, s’agissant des Rapa Nui, les entreprises qui ont directement tiré profit de la rapamycine n’ont pas encore fait un tel geste.

Si la découverte de la rapamycine a sans conteste transformé la médecine, il est plus complexe d’évaluer les conséquences pour le peuple de Rapa Nui de l’expédition METEI. En définitive, son histoire est à la fois celle d’un triomphe scientifique et d’ambiguïtés sociales.

Je suis convaincu que les questions qu’elle soulève (consentement biomédical, colonialisme scientifique et occultation de certaines contributions) doivent nous faire prendre conscience qu’il est nécessaire d’examiner de façon plus critique qu’ils ne l’ont été jusqu’à présent les héritages des découvertes scientifiques majeures.

The Conversation

Ted Powers ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Comment un médicament à un milliard de dollars a été découvert dans le sol de l’Île de Pâques (et ce que les scientifiques et l’industrie doivent aux peuples autochtones) – https://theconversation.com/comment-un-medicament-a-un-milliard-de-dollars-a-ete-decouvert-dans-le-sol-de-lile-de-paques-et-ce-que-les-scientifiques-et-lindustrie-doivent-aux-peuples-autochtones-266381

Rejet des classements universitaires : une opportunité pour repenser l’enseignement supérieur africain

Source: The Conversation – in French – By Sioux McKenna, Professor of Higher Education, Rhodes University, South Africa, Rhodes University

L’université de la Sorbonne, fondée à Paris en 1253 et mondialement connue comme symbole de l’éducation, de la science et de la culture, vient d’annoncer qu’à partir de 2026, elle cessera de soumettre des données au classement Times Higher Education (THE). Elle rejoint ainsi un mouvement croissant d’universités qui remettent en question la valeur et la méthodologie de ces classements controversés.

Les organismes de classement combinent divers indicateurs censés mesurer la qualité. Parmi ceux-ci figurent le nombre de publications scientifiques, les enquêtes de réputation, les financements reçus et même le nombre de prix Nobel passés par l’établissement.

Nathalie Drach-Temam, présidente de la Sorbonne, a déclaré que

les données utilisées pour évaluer les performances de chaque université ne sont ni ouvertes ni transparentes

et que

la reproductibilité des résultats obtenus ne peut être garantie.

Cette critique rejoint des inquiétudes plus larges: le manque de rigueur scientifique des systèmes de classement qui prétendent évaluer les performances complexes des institutions à l’aide de mesures simplifiées.

Le problème est que le grand public considère que les classements sont un indicateur de qualité. Par conséquent, les classements ont une influence considérable sur le marché, que ce soit dans le choix d’un lieu d’études ou dans des investissements financiers.

Le retrait de la Sorbonne s’inscrit dans une démarche plus large. L’université est signataire de l’Accord sur la réforme de l’évaluation de la recherche, soutenu par plus de 700 organismes à travers le monde, et de la Déclaration de Barcelone, approuvée par près de 200 universités. Ces textes défendent des pratiques scientifiques ouvertes : rendre accessibles à tous les données, méthodes et ressources, et éviter de recourir aux classements pour juger la recherche.

La Sorbonne rejoint une liste croissante d’institutions de renom qui abandonnent les classements. Columbia University, l’université d’Utrecht et plusieurs instituts indiens ont choisi de ne plus participer aux principaux systèmes de classement. Aux États-Unis, 17 facultés de médecine et de droit, dont Yale et Harvard, se sont retirées des classements spécifiques à leur discipline.

Il existe cinq grandes sociétés de classement et au moins 20 autres plus petites. À celles-ci s’ajoute un nombre similaire de classements par discipline et par région. Ensemble, ils pèsent près d’un milliard de dollars. Leurs classements sont accessibles gratuitement.

Le secteur des classements cible de plus en plus les pays africains. L’industrie de classement considère le continent comme un nouveau marché à un moment où elle perd de son influence auprès des institutions prestigieuses du Nord.

On assiste ainsi à une augmentation rapide du nombre d’événements organisés par les organismes de classement sur le continent. Pour séduire ce public, ils multiplient les événements prestigieux et coûteux en Afrique, réunissant recteurs, universitaires et consultants.

En tant qu’universitaire impliqué dans l’enseignement supérieur, je pense que la course aux classements peut nuire au fragile système d’enseignement supérieur africain. Il y a deux raisons principales à cela:

Premièrement, les indicateurs des classements se concentrent sur les résultats de la recherche. Ils ne mesurent pas la capacité de cette recherche à résoudre les problèmes locaux. Deuxièmement, les classements ne tiennent pas compte du rôle de l’université. Ils ignorent sa mission de formation de citoyens critiques et de contribution au bien public.

La décision prise par la Sorbonne reflète une opinion de plus en plus partagée selon laquelle l’industrie des classements n’est pas scientifique. Il s’agit aussi d’un mauvais outil pour mesurer la qualité. Pourtant, nombreux sont les recteurs qui ne veulent pas prendre le risque de s’en retirer.

Or si les classements sont peut-être de piètres indicateurs de la qualité réelle, ils sont en revanche très efficaces pour influencer l’opinion publique. Et même si une université choisit de ne pas participer en refusant de donner ses données, l’industrie continue de la classer. Elle le fait alors en utilisant seulement les données publiques limitées dont elle dispose.

L’industrie du classement

Les classements eux-mêmes sont disponibles gratuitement. L’industrie du classement tire l’essentiel de ses revenus de la revente des données fournies par les universités. Celles-ci soumettent gratuitement des données institutionnelles détaillées aux sociétés de classement, qui procèdent ensuite à leur “repackaging” et les revendent aux institutions, aux gouvernements et aux entreprises.

Ces données incluent les revenus de l’institution. Elles contiennent souvent aussi les coordonnées du personnel et des étudiants. Elles servent à réaliser des « enquêtes de réputation ». Dans le cas des classements QS, la « réputation » compte en effet pour plus de 40 % de la note finale.

Ce modèle économique a créé ce que l’on peut décrire comme une opération sophistiquée de collecte de données, déguisée en évaluation académique.

Critiques croissantes

La recherche académique a largement documenté les problèmes liés aux méthodologies de classement. Parmi ceux-ci, on peut citer :

  • l’utilisation d’indicateurs indirects qui ne reflètent pas fidèlement la qualité des établissements. Par exemple, de nombreux classements universitaires ne prennent pas du tout en compte la qualité de l’enseignement. Et quand ils le font, ils utilisent des critères indirects comme le revenu, le ratio enseignants/étudiants ou la réputation académique.

  • Des indices composites qui combinent des mesures sans rapport entre elles : les indicateurs collectés sont simplement additionnés, même s’ils n’ont aucun rapport entre eux. Nos étudiants sont régulièrement mis en garde contre les dangers de l’utilisation de mesures composites dans la recherche, et pourtant, c’est là le cœur même de l’industrie des classements.

  • Des systèmes de pondération arbitraires qui modifient radicalement les résultats. Si la réputation compte pour 20 % et les revenus pour 10 %, on obtient un certain ordre d’universités. Si l’on inverse ces pondérations, le classement change entièrement. Mais la qualité réelle des institutions, elle, ne varie pas.

Les classements ont tendance à favoriser les universités axées sur la recherche, tout en ignorant la qualité de l’enseignement, l’engagement communautaire et la pertinence locale.

La plupart des systèmes de classement accordent une importance particulière aux publications en anglais. Cela renforce les hiérarchies académiques existantes au lieu de fournir une évaluation pertinente de la qualité.

Lorsque de nouveaux classements sont créés, tels que les classements de l’Afrique subsaharienne, ou les classements des économies émergentes, ou même les classements d’impact, ils souffrent malheureusement toujours du problème des mesures indirectes et des pondérations composites et subjectives.

De plus, bon nombre des sociétés de classement refusent de divulguer les détails précis de leur méthodologie. Il est donc impossible de vérifier leurs affirmations ou de comprendre sur quelle base les établissements sont réellement évalués.

Les chercheurs affirment que les classements ont connu un grand succès parce qu’ils correspondent à l’idée d’un marché de l’enseignement supérieur où les établissements se font concurrence pour gagner des parts de marché. Cela a conduit les universités à privilégier les indicateurs qui améliorent leur classement plutôt que les activités qui servent au mieux leurs étudiants et leurs communautés.

L’accent mis sur les résultats quantifiables a créé ce que les chercheurs appellent « l’isomorphisme coercitif », c’est-à-dire la pression exercée sur toutes les universités pour qu’elles adoptent des structures et des priorités similaires, indépendamment de leurs missions spécifiques ou de leur contexte local.

Des recherches montrent que la course aux classements influence l’affectation des ressources, la planification stratégique, et même le choix des étudiants qui postulent. Certaines universités ont changé d’orientation en délaissant la qualité de l’enseignement pour se concentrer sur les résultats de la recherche, uniquement pour mieux figurer dans les classements. D’autres se sont même livrées à des « manipulations » en falsifiant leurs données pour améliorer leur position.

Perspectives d’avenir

Participer à des systèmes de classement aux méthodes défaillantes est une contradiction en soi : les universités sont fondées sur les principes de la recherche scientifique, pourtant, elles soutiennent une industrie dont les méthodes ne passeraient pas les standards élémentaires d’évaluation par les pairs.

Pour les universités qui continuent d’y participer, la décision de la Sorbonne soulève une question délicate : quelles sont leurs priorités institutionnelles et leurs engagements en matière d’intégrité scientifique ?

The Conversation

Sioux McKenna does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Rejet des classements universitaires : une opportunité pour repenser l’enseignement supérieur africain – https://theconversation.com/rejet-des-classements-universitaires-une-opportunite-pour-repenser-lenseignement-superieur-africain-266512

Le lave-linge, mode d’emploi

Source: The Conversation – in French – By François Lévêque, Professeur d’économie, Mines Paris – PSL

Qui suis-je ? Pesant 60 kilos, mon œil est un hublot et j’avale beaucoup d’eau. Deux indices supplémentaires : j’affiche des programmes et je bats du tambour. Découvrez tout ce que vous ne vous êtes jamais demandé sur votre machine à laver. Et bien plus.


À propos du lave-linge, certains ont affirmé qu’il était une invention plus importante qu’Internet et la meilleure illustration qui soit de l’effet pernicieux des tarifs douaniers de Trump. D’autres ont recommandé de l’utiliser moins fréquemment. En portant par exemple sept fois un pyjama ou un soutien-gorge avant de les laver. Devenu la vedette des équipements domestiques auprès d’analystes autant qu’aux yeux des ménages, la machine à laver est un objet du quotidien, dans les pays les plus riches du moins, qui en dit long sur nos modes de vie et sur l’économie contemporaine.

Avant d’appuyer sur « marche »

Il convient de se rappeler que je n’ai pas toujours existé.

Et de ne surtout pas idéaliser le lavage du linge à la main à l’image des femmes au lavoir ou au bord d’un ruisseau de la peinture romantique. Porter de l’eau, la faire chauffer, frotter le linge, puis le rincer à l’eau claire, enfin le tordre pour l’essorer, toutes ces étapes n’étaient qu’une longue et épuisante corvée.

L’invention et la diffusion de la machine à laver ont été une bénédiction. Hans Rosling, médecin et statisticien suédois, se souvient de sa grand-mère qui, ayant toute sa vie fait la lessive pour ses sept enfants, assiste à la fois médusée et émerveillée au premier lavage en machine. « C’était pour elle un miracle » se rappelle Hans Rosling. Les boomers se souviennent aussi sans doute de la Mère Denis, une lavandière bretonne enrôlée pour faire la publicité à la télé d’une machine à laver.

Le Klingon.

Le monde sans lave-linge est toujours cependant celui de milliards de femmes. De la majorité d’entre elles puisque seule la population qui vit avec plus de 40 dollars par jour peut s’offrir cet équipement. Presque tous les ménages français disposent d’une machine à laver mais moins de 10 % de la population indienne.

En appuyant sur « départ »

J’ai transformé la vie quotidienne, mais j’ai aussi changé la société et son économie.

Plus qu’Internet, même aux yeux d’Ha-Joon Chang, un économiste anglais original. En soulageant les femmes d’une grande partie de leur temps consacré à la lessive, le lave-linge a permis leur entrée en force sur le marché du travail. D’un point de vue économique, plus de salariés signifie davantage de production et donc plus de croissance mesurée par le PIB. D’un point de vue social aussi, le salariat féminin s’est également révélé un facteur majeur de transformation, notamment en rendant les femmes financièrement moins dépendantes et en poussant l’éducation des filles. Sans parler pour les femmes restant au foyer de bénéficier de plus de temps pour s’adonner à autre chose qu’à la corvée de lessive. Lire des livres à leurs enfants ou pour elles-mêmes comme le mentionne Hans Rosling.

Naturellement, tous ces effets ne peuvent être attribués au seul lave-linge. Le temps libre qu’il a libéré n’excède pas une journée par semaine et un lave-linge sans eau courante ni électricité est inutile. Par ailleurs, Ha-Joon Chang comparait les conséquences de l’invention de la machine à laver à celles d’Internet il y a plus de quinze ans de cela. L’usage de cette infrastructure de réseaux permettant de relier les ordinateurs s’est depuis considérablement amplifié et diversifié. Pas sûr que le lave-linge dépasse par ses conséquences économiques et sociales la box. Plus de neuf ménages sur 10 disposent de ces équipements.




À lire aussi :
Paradoxe de l’indice de durabilité : les écolos remplacent plus fréquemment leurs produits


Choisir le programme éco

Je consomme moins d’eau et d’électricité tout en préservant les couleurs et en conservant l’éclat du blanc.

Peu gourmand en électricité, environ 5 % de la consommation électrique du foyer, le lave-linge est un grand buveur, puisque près de 12 % de l’eau du logement y passe. Pour réaliser des économies n’hésitez pas à laver à 30 degrés et à sélectionner le programme éco, même si son cycle est beaucoup plus long. Les fabricants sont tenus d’en proposer un en Europe depuis quelques années déjà.

Le programme éco sert d’ailleurs de référence pour l’affichage des performances sur l’étiquette. Lisez-les attentivement avant de choisir votre lave-linge. Si vous achetez le moins cher chez Miele (plus de mille euros tout de même) vous apprendrez que pour une charge de 8 kg, il consomme par cycle 48 litres et 0,4 kWh, chauffe à 35 °C maximum et tourne 3 heures 39. Sauf arthrose des genoux, optez pour un chargement frontal. Contrairement aux modèles qui se chargent par le haut, ils fonctionnent sans que la cuve soit pleine. Ils utilisent donc moins d’eau du robinet, qu’il faut ensuite à chauffer.

Aux États-Unis comme en Europe, les obligations réglementaires imposées aux constructeurs ont rendu le lave-linge considérablement plus performant. En trente ans, la consommation d’eau et d’électricité a été divisée par trois. Le linge sorti du tambour n’est pas pour autant plus sale !

Et le consommateur n’en sort pas perdant en payant plus cher. Aux dépenses d’usage qui baissent s’ajoute la diminution de la facture pour l’achat du lave-linge qui représente environ le tiers du coût total. La réglementation se traduit en effet par une baisse de son prix moyen. L’adoption annoncée à l’avance d’un nouveau standard, plus exigeant, aboutit à l’apparition de nouveaux modèles sur le marché mais elle entraîne aussi une baisse du prix des modèles anciens. Les fabricants veulent encore en vendre, à tout le moins écouler leurs stocks. En outre, la réglementation tend à réduire les possibilités de différenciation entre les modèles concurrents. Produits plus homogènes égale moins de marge et donc prix plus bas.

Une touche sobriété controversée

Je fais uniquement ce que l’on me commande de faire.

Pour réduire votre empreinte écologique, vous pouvez aussi laver moins fréquemment votre linge. Cette affirmation banale est devenue le sujet d’une violente polémique. Au début de 2025, l’ADEME publie le guide pratique « Comment faire le ménage de façon plus écologique ». Ce alors même que montent de virulentes critiques contre les politiques d’environnement et les agences publiques, jugées toutes deux inutiles et coûteuses principalement par la droite et son extrême.

La fréquence de lavage va devenir en quelques jours une actualité médiatique et politique sur la base d’une infographie publiée dans Le Parisien et reprise partout. Elle liste des recommandations de l’ADEME très pointues : porter 7 fois un soutien-gorge et un pyjama avant de le laver, on l’a déjà dit ; mais aussi 15 à 30 fois pour un jean ou encore 1 à 3 fois pour un vêtement de sport. Cette infographie n’est pourtant pas dans le guide de l’ADEME ! Celui-ci se contente d’établir trois catégories en citant des exemples de vêtements qui doivent être lavés après avoir été portés une seule fois, plusieurs fois et plusieurs semaines. D’où vient alors l’infographie du « Parisien » avec la légende « source Ademe » ? Mystère. Peut-être d’une autre réalisée en 2023 « en partenariat avec l’Ademe » par un media numérique de France Télévisions. Cette liste comporte toutefois trois différences. Petit jeu : à vous de les trouver.

Pour éteindre le feu, le président de l’Ademe, Sylvain Waserman, déclarera

« Je vous rassure, chacun fait ce qu’il veut »

Ouf ! Ne pas confondre en effet un certain paternalisme de l’intervention publique et des lois restrictives de liberté.

Un autre programme éco

J’ai l’honneur d’avoir un article rien que sur moi dans la plus prestigieuse revue d’économie au monde.

L’obsession de Donald Trump pour fixer des tarifs douaniers hors norme ne date pas du Liberation Day d’avril dernier. Rappelez-vous, il brandissait un tableau présentant les nouvelles taxes à l’import en provenance d’une vingtaine de pays, soi-disant en réponse à leurs barrières aux produits américains. Lors de son premier mandat, il avait déjà annoncé la couleur par une taxe de 20 % sur les lave-linge. Sur d’autres produits également mais c’est la machine à laver qui a retenu l’attention d’un trio d’économistes américains pour étudier sous toutes les coutures les effets de sa taxation. Leurs résultats, parus en juillet 2020 dans l’American Economic Review, servent aujourd’hui de référence pour illustrer les effets des restrictions aux importations sur la relocalisation de la production et sur les prix.

C’est pas sorcier – 2017.

Une des prouesses des auteurs est d’avoir su tracer finement les mouvements du lave-linge de leur pays de production jusqu’aux consommateurs américains. Les flux d’importation proviennent initialement du Mexique et de la Corée. Puis ils se tarissent, remplacés par des importations venues de Chine, elles-mêmes chassées ensuite par des importations en provenance du Vietnam et de Thaïlande. Cette partie de saute-mouton résulte d’une série de restrictions des États-Unis qui ont dans cet ordre affecté les importations de lave-linge. À mesure que certains pays étaient bannis, d’autres prenaient le relais. On retrouve toutefois les mêmes entreprises à la manœuvre : Samsung et LG Electronics. Les deux firmes coréennes ont su réallouer leur capacité de production pour s’adapter aux diktats américains.

Première leçon : les restrictions ciblées sur un pays échouent à stopper significativement les importations. Les multinationales, implantées ailleurs, s’en jouent aisément.

Cette leçon apprise, les États-Unis ont imposé une taxe de 20 % sur toutes les importations de lave-linge début 2018 à l’arrivée au pouvoir de Donald Trump. Tous les pays sont désormais logés à la même enseigne. La question de recherche porte alors sur les effets-prix. Leur élucidation est un travail compliqué car les variations de prix peuvent s’expliquer par d’autres facteurs, par exemple une évolution du coût de l’acier ou du transport maritime.

Notre trio de chercheurs réussit à établir que la taxe a causé une hausse du prix d’achat du lave-linge aux États-Unis de 12 %. Les producteurs ont donc su répercuter 60 % du montant de la taxe sur le dos des consommateurs. En réalité, ils ont fait mieux que cela car ils en ont profité pour augmenter d’environ 12 % aussi le prix des sèche-linge qui pourtant n’étaient pas taxés ! Lave-linge et sèche-linge sont des produits très complémentaires, souvent achetés ensemble, fabriqués par les mêmes entreprises, avec des modèles qui vont souvent par paire. Bref, la baisse d’une marge ici peut être rattrapée et même plus que compensée par une hausse à côté. Bien joué !

Seconde leçon : les consommateurs sont les grands perdants.

Les auteurs ont également observé que la production sur le sol américain pourtant non taxée avait suivi la hausse des prix. La concentration du marché rendant la concurrence imparfaite, les fabricants locaux ont pu relever leur marge. Une opportunité dont Samsung et LG Electronics se sont eux-mêmes saisis. En effet, dès qu’elles ont vu venir sous l’administration Obama la première salve de mesures protectionnistes contre leurs lave-linge, elles ont construit une usine, l’une en Caroline du Sud, l’autre dans le Tennessee. Troisième leçon, les producteurs du territoire protégé sont les grands gagnants.

Quatrième leçon l’emploi local créé par les tarifs revient très cher. 1800 personnes ont été embauchées dans les usines. En rapportant ce chiffre au surcoût des consommateurs qui ont dû acheter leur lave-linge et sèche-linge plus cher, la facture s’élève à près d’un million de dollars par an par emploi créé.

Cycle rapide pour finir

Évitez d’y recourir, il m’abîme et me fatigue.

Le programme rapide n’est pas conseillé, car il est le plus énergivore et lave moins bien. Mais très rapidement, quelques dernières observations pour vos achats et utilisations : un lave-linge bon marché va vous coûter plus cher à l’usage en frais de fonctionnement (eau et électricité) et réparation.

A contrario, demandez-vous si vous avez vraiment besoin d’un lave-linge connecté, avec de l’IA et qui parle. Vérifiez que le modèle de votre choix est bien équipé d’un filtre pour les microplastiques (700 000 microfibres rejetées par cycle de lavage) mais n’en profitez pas pour autant à acheter plus de vêtements synthétiques. Sachez que la lessive en poudre est meilleure pour l’éclat du blanc et la lessive liquide pour préserver les couleurs. Ne surdosez pas la lessive et évitez la demi-charge. Enfin, pour plus de conseils reportez-vous au guide d’achat de lave-linge de « Que Choisir » et faites éventuellement appel à un « coach en écologie d’intérieur » .

The Conversation

François Lévêque ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le lave-linge, mode d’emploi – https://theconversation.com/le-lave-linge-mode-demploi-266019

L’« emprisme » : comment l’Europe se laisse dominer par les États-Unis sans le dire

Source: The Conversation – in French – By Sylvain Kahn, Professeur agrégé d’histoire, docteur en géographie, européaniste au Centre d’histoire de Sciences Po, Sciences Po

Sous l’administration Trump, la relation transatlantique a basculé d’un partenariat asymétrique vers une domination stratégique. L’historien Sylvain Kahn propose dans son dernier livre L’Atlantisme est mort ? Vive l’Europe !, qui vient de paraître aux éditions de l’Aube, le concept d’« emprisme » pour désigner cette emprise subtile mais dangereuse des États-Unis sur l’Europe.


Depuis quatre-vingts ans, l’Europe a entretenu avec les États-Unis une relation asymétrique mais coopérative. Cette asymétrie, longtemps acceptée comme le prix de la stabilité et de la protection, s’est transformée sous l’administration Trump. Ce qui relevait d’une interdépendance stratégique déséquilibrée est devenu une emprise : un lien dont on ne peut se défaire, utilisé pour exercer une pression, tout en étant nié par ceux qui en sont les victimes.

Pour qualifier cette mutation, je propose le concept d’« emprisme » : une emprise consentie, dans laquelle les Européens, tout en se croyant partenaires, deviennent tributaires d’une puissance qui les domine sans qu’ils en aient pleinement conscience.

De l’asymétrie à l’emprisme

L’« emprisme » désigne une forme de domination subtile mais profonde. Il ne s’agit pas simplement d’influence ou de soft power, mais d’une subordination stratégique intériorisée. Les Européens justifient cette dépendance au nom du réalisme, de la sécurité ou de la stabilité économique, sans voir qu’elle les affaiblit structurellement.

Dans la vision trumpienne, les Européens ne sont plus des alliés, mais des profiteurs. Le marché commun leur a permis de devenir la première zone de consommation mondiale, de renforcer la compétitivité de leurs entreprises, y compris sur le marché états-unien. Pendant ce temps, avec l’OTAN, ils auraient laissé Washington assumer les coûts de la défense collective. Résultat : selon Trump, les États-Unis, parce qu’ils sont forts, généreux et nobles, se font « avoir » par leurs alliés.

Ce récit justifie un basculement : les alliés deviennent des ressources à exploiter. Il ne s’agit plus de coopération, mais d’extraction.

L’Ukraine comme levier de pression

La guerre en Ukraine illustre parfaitement cette logique. Alors que l’Union européenne s’est mobilisée pour soutenir Kiev, cette solidarité est devenue une vulnérabilité exploitée par Washington.

Lorsque l’administration Trump a suspendu l’accès des Ukrainiens au renseignement américain, l’armée ukrainienne est devenue aveugle. Les Européens, eux aussi dépendants de ces données, se sont retrouvés borgnes. Ce n’était pas un simple ajustement tactique, mais un signal stratégique : l’autonomie européenne est conditionnelle.

En juillet 2025, l’UE a accepté un accord commercial profondément déséquilibré, imposant 15 % de droits de douane sur ses produits, sans réciprocité. Cet accord, dit de Turnberry, a été négocié dans une propriété privée de Donald Trump en Écosse – un symbole fort de la personnalisation et de la brutalisation des relations internationales.

Dans le même temps, les États-Unis ont cessé de livrer directement des armes à l’Ukraine. Ce sont désormais les Européens qui achètent ces armements américains pour les livrer eux-mêmes à Kiev. Ce n’est plus un partenariat, mais une délégation contrainte.

De partenaires à tributaires

Dans la logique du mouvement MAGA, désormais majoritaire au sein du parti républicain, l’Europe n’est plus un partenaire. Elle est, au mieux, un client, au pire, un tributaire. Le terme « emprisme » désigne cette situation où les Européens acceptent leur infériorisation sans la nommer.

Ce consentement repose sur deux illusions : l’idée que cette dépendance est la moins mauvaise option ; et la croyance qu’elle est temporaire.

Or, de nombreux acteurs européens – dirigeants politiques, entrepreneurs et industriels – ont soutenu l’accord de Turnberry ainsi que l’intensification des achats d’armement américain. En 2025, l’Europe a accepté un marché pervers : payer son alignement politique, commercial et budgétaire en échange d’une protection incertaine.

C’est une logique quasi mafieuse des relations internationales, fondée sur l’intimidation, la brutalisation et l’infériorisation des « partenaires ». À l’image de Don Corleone dans le film mythique Le Parrain de Francis Coppola, Trump prétend imposer aux Européens une protection américaine aléatoire en échange d’un prix arbitraire et fixé unilatéralement par les États-Unis. S’ils refusent, il leur promet « l’enfer », comme il l’a dit expressément lors de son discours du 23 septembre à l’ONU.

Emprisme et impérialisme : deux logiques de domination

Il est essentiel de distinguer l’« emprisme » d’autres formes de domination. Contrairement à la Russie, dont l’impérialisme repose sur la violence militaire, les États-Unis sous Trump n’utilisent pas la force directe. Quand Trump menace d’annexer le Groenland, il exerce une pression, mais ne mobilise pas de troupes. Il agit par coercition économique, chantage commercial et pression politique.

Parce que les Européens en sont partiellement conscients, et qu’ils débattent du degré de pression acceptable, cette emprise est d’autant plus insidieuse. Elle est systémique, normalisée et donc difficile à contester.

Le régime de Poutine, lui, repose sur la violence comme principe de gouvernement – contre sa propre société comme contre ses voisins. L’invasion de l’Ukraine en est l’aboutissement. Les deux systèmes exercent une domination, mais selon des logiques différentes : l’impérialisme russe est brutal et direct ; l’emprisme américain est accepté, contraint, et nié.

Sortir du déni

Ce qui rend l’emprisme particulièrement dangereux, c’est le déni qui l’accompagne. Les Européens continuent de parler de partenariat transatlantique, de valeurs partagées, d’alignement stratégique. Mais la réalité est celle d’une coercition consentie.

Ce déni n’est pas seulement rhétorique : il oriente les politiques. Les dirigeants européens justifient des concessions commerciales, des achats d’armement et des alignements diplomatiques comme des compromis raisonnables. Ils espèrent que Trump passera, que l’ancien équilibre reviendra.

Mais l’emprisme n’est pas une parenthèse. C’est une transformation structurelle de la relation transatlantique. Et tant que l’Europe ne la nomme pas, elle continuera de s’affaiblir – stratégiquement, économiquement, politiquement.

Nommer l’emprisme pour y résister

L’Europe doit ouvrir les yeux. Le lien transatlantique, autrefois protecteur, est devenu un instrument de domination. Le concept d’« emprisme » permet de nommer cette réalité – et nommer, c’est déjà résister.

La question est désormais claire : l’Europe veut-elle rester un sujet passif de la stratégie américaine, ou redevenir un acteur stratégique autonome ? De cette réponse dépendra sa place dans le monde de demain.

The Conversation

Sylvain Kahn ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’« emprisme » : comment l’Europe se laisse dominer par les États-Unis sans le dire – https://theconversation.com/l-emprisme-comment-leurope-se-laisse-dominer-par-les-etats-unis-sans-le-dire-266202

Interception de la flottille humanitaire pour Gaza pour Israël : ce que dit le droit international

Source: The Conversation – in French – By Donald Rothwell, Professor of International Law, Australian National University

L’armée israélienne a intercepté plusieurs navires de la flottille Global Sumud qui vise à acheminer de l’aide à Gaza. Un certain nombre de personnes se trouvant à bord ont été interpellées, y compris Greta Thunberg.

Ces interceptions ont eu lieu en mer Méditerranée, à 70-80 milles marins au large des côtes de Gaza. Il s’agit d’eaux internationales où le droit international reconnaît la liberté de navigation en haute mer pour tous les navires.

Israël a justifié cette opération en affirmant que la flottille tentait de forcer un « blocus maritime légal » interdisant l’entrée de navires étrangers à Gaza, et ajouté que la flottille était organisée par le Hamas – une accusation que les organisateurs de la flottille réfutent.

Que sont les flottilles d’aide humanitaire à Gaza ?

La flottille mondiale Sumud était au départ composée de plus de 40 bateaux transportant de l’aide humanitaire (nourriture, fournitures médicales et autres articles essentiels), ainsi que plusieurs centaines de parlementaires, d’avocats et de militants provenant de dizaines de pays.

La flottille a quitté l’Espagne à la fin du mois d’août et a traversé la mer en direction de l’est, faisant escale en Tunisie, en Italie et en Grèce. En cours de route, les gouvernements italien et espagnol ont déployé des escortes navales pour assurer la sécurité du convoi.

Les passagers des bateaux ont déclaré avoir été harcelés par des drones à plusieurs endroits au cours du voyage.

« Global Sumud » constitue l’occurrence la plus récente d’un mouvement qui existe depuis plus de 15 ans et qui vise à contester le blocus imposé par Israël à la bande de Gaza depuis 2007.

En mai dernier, le navire Conscience, qui transportait des militants et de l’aide humanitaire à destination de Gaza, a été touché par des explosions au large des côtes de Malte.

En juin, Israël a intercepté le Madleen avec Greta Thunberg et d’autres militants à son bord, puis en juillet le Handala.

Dès 2010, une première flottille emmenant de l’aide humanitaire et des centaines de militants avait tenté de se rendre à Gaza avec à son bord de l’aide humanitaire et des centaines de militants. Des commandos israéliens ont abordé l’un des navires qui la composaient, le Mavi Marmara, battant pavillon turc, ce qui a donné lieu à une violente confrontation qui s’est soldée par la mort de dix militants. Ces décès ont suscité une condamnation généralisée et ont tendu les relations entre Israël et la Turquie pendant des années.

Le blocus maritime de Gaza est-il légal ?

Le droit international relatif aux actions des navires de la flottille et à la capacité d’intervention d’Israël est complexe. Voilà près de 20 ans qu’Israël impose depuis divers types de blocus à la bande de Gaza.

La base juridique des blocus et leur conformité avec le droit international, en particulier le droit de la mer, ont fait l’objet de multiples controverses, comme l’a souligné une enquête de l’ONU menée à la suite de l’incident du Mavi Marmara.

Bien que les relations juridiques entre Israël et Gaza aient varié au cours de cette période, Israël est désormais considéré comme une puissance occupante à Gaza en vertu du droit international.

La codification des rôles des puissances occupantes, établie par la quatrième Convention de Genève en 1949, a été inspirée des obligations juridiques assumées par les puissances alliées en Allemagne et au Japon après la Seconde Guerre mondiale. La Convention de Genève définit un cadre juridique clair pour les puissances occupantes.

Au cours des dernières décennies, Israël a été à la fois une puissance occupante de jure (reconnue par la loi) et de facto en Palestine.

En 2024, la Cour internationale de justice a statué que l’occupation des territoires palestiniens par Israël était illégale au regard du droit international.

En tant que puissance occupante, Israël contrôle tous les accès à Gaza, que ce soit par voie terrestre, aérienne ou maritime. Les camions d’aide humanitaire ne sont autorisés à entrer à Gaza que sous contrôle strict. Les largages d’aide humanitaire effectués par les forces aériennes de pays tiers au cours de ces derniers mois n’ont également été autorisés que sous le contrôle strict d’Israël.

La quantité d’aide arrivée par voie maritime depuis le début de la guerre est très faible, car Israël a sévèrement restreint l’accès maritime à Gaza. Les États-Unis ont construit une jetée flottante au large des côtes pour acheminer l’aide en 2024, mais elle a rapidement été abandonnée en raison de problèmes météorologiques, sécuritaires et techniques.

Toutefois, cet épisode a montré qu’Israël était prêt à autoriser l’acheminement d’aide par la voie maritime provenant de son plus proche allié, les États-Unis. Cette exception au blocus n’a pas été appliquée aux autres acteurs humanitaires.

L’interception de navires en eaux internationales

Bien que l’acheminement d’aide par voie maritime soit actuellement complexe sur le plan juridique, Israël ne dispose que d’une capacité limitée pour perturber les flottilles. La liberté de navigation se trouve au cœur du droit de la mer. À ce titre, la flottille est en droit de naviguer sans entrave en Méditerranée.

Tout harcèlement et toute interception de la flottille dans les eaux internationales de la Méditerranée constituent donc des violations flagrantes du droit international.

Le lieu où les forces israéliennes interceptent et abordent les navires de la flottille est à cet égard déterminant.

Israël peut certainement exercer un contrôle sur les 12 milles marins d’eaux territoriales au large des côtes de Gaza. La fermeture de ces eaux territoriales aux navires étrangers serait justifiée en vertu du droit international en tant que mesure de sécurité, ainsi que pour garantir la sécurité des navires neutres en raison de la guerre en cours.

Mais les organisateurs de la flottille ont déclaré que leurs navires avaient été interceptés à une distance située entre 70 et 80 milles marins des côtes, soit bien avant le début des eaux territoriales de Gaza.

La décision de réaliser cette interception à cet endroit a sans doute été prise pour des raisons opérationnelles. Plus la flottille s’approchait des côtes de Gaza, plus il devenait difficile pour les militaires israéliens d’intercepter chaque navire la composant, augmentant ainsi la possibilité qu’au moins l’un d’eux atteigne les côtes.

Des dizaines de militants à bord des navires auraient été arrêtés et seront placés en détention dans le port israélien d’Ashdod. Ils seront ensuite probablement rapidement expulsés.

Ces personnes bénéficient de protections en vertu du droit international relatif aux droits de l’homme, notamment l’accès à des diplomates étrangers exerçant une protection consulaire pour leurs citoyens.

The Conversation

Donald Rothwell a reçu des financements de l’Australian Research Council.

ref. Interception de la flottille humanitaire pour Gaza pour Israël : ce que dit le droit international – https://theconversation.com/interception-de-la-flottille-humanitaire-pour-gaza-pour-israel-ce-que-dit-le-droit-international-266625

Avec John Dewey, penser la démocratie comme « enquête » collective

Source: The Conversation – in French – By Patrick Savidan, Professeur de science politique, Université Paris-Panthéon-Assas

Le philosophe américain John Dewey (1859-1952) Underwood & Underwood, CC BY

Notre démocratie est en crise, comment la réinventer ? Que nous enseignent ceux qui, au cours des âges, furent ses concepteurs ? Suite de notre série consacrée aux philosophes et à la démocratie avec l’Américain John Dewey (1859-1952). En plaçant l’idée d’« enquête » au cœur de la vie publique démocratique et en éliminant l’idée de « vérité absolue », il propose un modèle coopératif, orienté vers la recherche commune de solutions et admettant sa propre faillibilité.


John Dewey (1859-1952) est à la fois l’un des fondateurs du pragmatisme américain – aux côtés de Charles Sanders Peirce et William James – et le grand artisan d’une pédagogie nouvelle, active et expérimentale. Dès la fondation, en 1896, de son école expérimentale à Chicago, il s’est imposé comme l’une des figures majeures de la vie intellectuelle américaine.

Dans The Public and its Problems (1927), Dewey regrettait que « le nouvel âge des relations humaines ne dispose d’aucun mécanisme politique digne de lui ». Ce diagnostic, formulé il y a près d’un siècle, conserve aujourd’hui une résonance troublante. Les démocraties contemporaines, confrontées à des mutations techniques, sociales et économiques d’une ampleur inédite peinent à en saisir les dynamiques profondes et à y répondre de manière appropriée.

À la crise ancienne de la représentation est, en effet, venue s’associer une crise inédite de l’espace public. Tandis que la défiance envers les élus se généralise, les conditions mêmes du débat public se trouvent radicalement transformées par la révolution numérique.

Si les promesses initiales étaient immenses – savoir collaboratif avec Wikipédia, inclusion financière par le paiement mobile, accès élargi aux soins via la télémédecine, démocratisation culturelle et accélération scientifique –, les désillusions n’en sont que plus saisissantes : manipulation de l’opinion à grande échelle, instrumentalisation des réseaux sociaux par les régimes autoritaires, prolifération des récits complotistes et des infox, démultipliées par le recours à l’intelligence artificielle.

Face à ces symptômes, il serait réducteur d’évoquer une « crise de la vérité ». Ce qui vacille, ce ne sont pas tant les vérités elles-mêmes que les procédures et les médiations permettant leur élaboration collective. La vérité, loin d’avoir disparu, est menacée par des pratiques déréglées de la certitude et du doute, qui minent les conditions d’une délibération démocratique féconde.

C’est dans ce contexte que la pensée politique de John Dewey, et plus particulièrement sa conception expérimentale de la démocratie, mérite d’être réinterrogée. En plaçant l’idée d’« enquête » au cœur de la vie publique, en substituant à la notion de « vérité absolue » celle d’« assertibilité garantie », il propose un modèle coopératif, orienté vers la recherche commune de solutions et admettant sa propre faillibilité.

Une telle approche, attentive aux conditions concrètes de la connaissance partagée, offre aujourd’hui une piste féconde pour affronter les pathologies de l’espace public.

Connaître est agir

Dewey propose une réflexion forte, avertie des tentations dogmatiques de l’être humain, autrement dit, de sa propension à se ruer sur toutes les certitudes susceptibles de l’apaiser face aux périls, réels ou imaginés, qui le guettent. En ce sens, son pragmatisme est un formidable remède contre tout dogmatisme. C’est un appel à toujours remettre sur le métier la recherche du savoir, et non un quelconque congé donné au savoir.

Sa perspective est profondément marquée par un naturalisme inspiré de certaines des dimensions de l’œuvre de Darwin. Dewey envisage le développement de la connaissance en tant que processus humain d’adaptation aux conditions qui l’environnent, processus dont l’objectif est la restructuration active de ces conditions. La pensée n’est plus, comme pour la tradition, un processus dont la vigueur tient à la distance qu’elle met entre elle et le monde, mais elle se conçoit comme le produit d’une interaction entre un organisme et son environnement.

Dewey a appliqué cette conception de la connaissance à la notion d’enquête. C’est ce qui explique l’intensité de son rapport au réel. Il ne s’agit pas de s’inventer de faux problèmes, mais de partir d’une difficulté qui bloque le progrès et de trouver un moyen satisfaisant de la surmonter.

Politique de l’enquête

Dans ce contexte, Dewey distingue trois étapes. L’enquête débute par l’expérience d’une situation problématique, c’est-à-dire une situation qui met en échec nos manières habituelles d’agir et de réagir. C’est en réponse à cette inadaptation que la pensée se met en mouvement et vient nourrir le processus.

La deuxième étape consiste à isoler les données qui définissent les paramètres en vertu desquels la restructuration de la situation initiale va pouvoir s’engager. La troisième étape consiste en un moment de réflexion qui correspond à l’intégration des éléments cognitifs du processus de l’enquête (idées, présuppositions, théories, etc.) à titre d’hypothèses susceptibles d’expliquer la formation de la situation initiale. Le test ultime du résultat de l’enquête n’est nul autre que l’action elle-même. Si la restructuration de la situation antérieure permet de libérer l’activité, alors les éléments cognitifs peuvent être tenus pour « vrais » à titre provisoire.

Cette approche vaut, selon Dewey, aussi bien pour les enquêtes engagées pour résoudre des problèmes de la vie ordinaire que pour des enquêtes scientifiques. La différence entre les deux ne tient qu’au degré de précision plus grand qui peut être requis pour pratiquer les niveaux de contrôle plus élevés qu’appellent des problèmes scientifiques.

L’enquête placée au cœur de cette forme de vie qu’est la démocratie est ainsi ancrée dans une exigence forte d’objectivité. La « dissolution des repères de la certitude » qui caractérise, comme l’écrivait Claude Lefort, la logique démocratique, est ici déjà assumée non comme un obstacle, mais bien comme une condition de la vie démocratique et des formes de coopération qu’elle appelle. La communauté citoyenne constate un problème. Elle s’efforce de le résoudre. C’est l’horizon même de toute coopération.

Ouverture à la diversité des savoirs

Il en résulte que le savoir ne saurait être la chasse gardée de savants retranchés dans un langage hyperformalisé, détaché des pratiques concrètes et des réalités vécues.

La figure du spectateur, si prégnante dans certaines théories de la connaissance (et si caractéristique des illusions dont se berce le technocrate), trahit pour Dewey un désir de domination : en excluant les non-initiés du champ du savoir, elle opère une disqualification implicite des formes d’intelligence issues de la pratique. Ce dispositif, pour lui, n’est pas seulement épistémologique : il est politique. Il fonctionne comme une justification implicite d’un ordre social inégal, dans lequel le monopole de la connaissance devient l’outil d’un pouvoir de classe. Renverser cette hiérarchie des savoirs, c’est ainsi remettre en cause les mécanismes mêmes d’une organisation économique et légale qui permet à une minorité de s’arroger le contrôle de la connaissance, en la mettant au service d’intérêts privés, plutôt que de l’orienter vers un usage partagé et démocratique.

Dewey défend une répartition plus équitable des éléments de compréhension liés aux activités sociales et au travail. Ce rééquilibrage doit rendre possible une participation plus large, plus libre, à l’usage et aux bénéfices du savoir, mais il impose aussi aux croyances ordinaires de se mettre à l’épreuve du réel, en entrant dans le processus de l’enquête et en acceptant ses exigences.

En repartant des pratiques concrètes, des problèmes réels, Dewey donne consistance à une théorie de la connaissance fondée sur la coopération, la réflexivité et la capacité d’invention collective qui, pour lui, doit figurer au cœur de toute démocratie digne de ce nom.

Démocratie et connaissances

La société humaine, telle que l’envisage Dewey, n’est pas une simple juxtaposition d’individus, mais une forme d’association fondée sur l’action conjointe, et sur la conscience, partagée, des effets que cette action produit. C’est en reconnaissant la contribution spécifique de chacun que peut émerger un intérêt commun, entendu comme la préoccupation collective pour l’action et pour l’efficacité des coopérations engagées.

Mais cet intérêt commun reste vulnérable. Lorsqu’un mode d’organisation économique exerce un pouvoir oppressif sans contrepartie, ou lorsque les institutions deviennent sourdes aux dynamiques sociales, l’équilibre se rompt. Dans de telles situations, le défi n’est évidemment pas d’ajuster les individus à l’ordre existant, mais de repenser les formes mêmes de l’association.

Selon cette perspective, les concepts, les théories et les propositions politiques sont appréhendés comme des instruments d’enquête, soumis à la vérification, à l’observation, à la révision. Cela signifie, par exemple, que les politiques publiques doivent être considérées comme des hypothèses de travail, susceptibles d’ajustements constants selon les effets qu’elles produisent. Ce n’est qu’à ces conditions que les sciences sociales pourront contribuer au déploiement d’un dispositif de connaissance apte à guider l’action démocratique.

La démocratie, ainsi comprise, tire sa force de sa capacité à organiser la discussion publique autour des besoins vécus, des déséquilibres ressentis, des tensions expérimentées. Elle repose sur la possibilité pour chacun de s’exprimer, de tester ses croyances, d’évaluer les savoirs produits par d’autres et de juger de leur pertinence face aux problèmes communs. La disponibilité de la connaissance, sa maniabilité dans l’espace public, constitue dès lors un enjeu démocratique fondamental.

À rebours de toute philosophie relativiste, Dewey montre que la « vérité » dont une démocratie peut se nourrir, doit s’élaborer dans le cadre d’une enquête ouverte, partagée, ancrée dans l’expérience.

« Aucune faculté innée de l’esprit, écrit-il dans « le Public et ses problèmes », ne peut pallier l’absence de faits. Tant que le secret, le préjugé, la partialité, les faux rapports et la propagande ne seront pas remplacés par l’enquête et la publicité, nous n’aurons aucun moyen de savoir combien l’intelligence existante des masses pourrait être apte au jugement de politique sociale. »

Une enquête démocratique ne peut s’accommoder d’un public fantôme ni d’un espace public fragmenté, polarisé, déconnecté des pratiques réelles et des problèmes concrets. Elle exige que la société prenne une part active à sa propre compréhension, qu’elle se découvre elle-même par la confrontation aux obstacles qui entravent sa capacité à se constituer en tant que public. C’est en partant des déséquilibres tels que cette collectivité les expérimente que peut s’élaborer une conscience commune minimale et s’armer notre capacité à les surmonter.

Ainsi, la connaissance, dont le public est à la fois le moteur et la finalité, peut être dite véritablement démocratique. Elle ne cherche pas à imposer une vérité depuis les hauteurs d’un savoir institué, mais fait advenir une intelligence collective, capable d’inventer les formes d’une association toujours à réajuster. À l’heure où les pathologies de l’espace public se nourrissent de la disqualification de la parole profane, des effets délétères de la fragmentation algorithmique et de la confiscation de l’autorité cognitive, la pensée de Dewey trace ainsi une voie précieuse : celle d’une démocratie de l’enquête, ouverte, inclusive, rigoureuse, résolument orientée vers l’émancipation et la répartition équitable des libertés d’agir individuelles.

The Conversation

Patrick Savidan ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Avec John Dewey, penser la démocratie comme « enquête » collective – https://theconversation.com/avec-john-dewey-penser-la-democratie-comme-enquete-collective-264434

La migration nordique de la forêt tempérée ne se passe pas comme prévu

Source: The Conversation – in French – By Todor Slavchev Minchev, Doctorant en écologie forestière, Université du Québec à Rimouski (UQAR)

Et si la forêt boréale n’était pas aussi fragile qu’on le croit ? Contrairement aux modèles qui prédisent son recul rapide devant les érablières tempérées, son histoire écologique révèle une étonnante résilience. Les érables, eux, avancent plus lentement qu’annoncé. Résultat : la grande transition forestière promise ne se fera peut-être pas aussi vite qu’on l’imagine.

La composition et la structure des forêts résultent d’une dynamique écologique complexe influencée par plusieurs facteurs, dont la nature du sol, les perturbations écologiques (feux, chablis, épidémies d’insectes), le climat et la capacité des espèces à répondre à ces conditions.

La forêt boréale constitue un vaste biome bordé au sud par la forêt tempérée. Comme partout où deux grands milieux naturels se rencontrent, la transition ne se fait pas de façon abrupte. Elle forme plutôt une zone intermédiaire appelée écotone, où les caractéristiques des deux biomes se mélangent. Cette zone s’appelle l’écotone de la forêt boréale-tempérée et elle engloble les forêts du sud du Québec. On y observe des petits peuplements d’arbres typiques de la forêt boréale et de la forêt tempérée, qui deviennent de plus en plus rares et isolés à mesure qu’ils approchent des conditions qui dépassent ce qu’ils peuvent tolérer pour survivre.

Respectivement doctorant en écologie forestière et professeur en écologie végétale à l’Université du Québec à Rimouski, nous nous intéressons aux dynamiques passées et actuelles des peuplements situés à la limite nordique des espèces de la forêt tempérée. Parmi celles-ci figure l’érable à sucre, un arbre emblématique sur les plans culturel, écologique et économique.

Notre objectif est de reconstruire l’histoire écologique des peuplements marginaux afin de mieux comprendre leur trajectoire dans le temps et d’utiliser ces connaissances pour anticiper l’effet des changements globaux contemporains sur la forêt québécoise.


Cet article fait partie de notre série Forêt boréale : mille secrets, mille dangers

La Conversation vous propose une promenade au cœur de la forêt boréale. Nos experts se penchent sur les enjeux d’aménagement et de développement durable, les perturbations naturelles, l’écologie de la faune terrestre et des écosystèmes aquatiques, l’agriculture nordique et l’importance culturelle et économique de la forêt boréale pour les peuples autochtones. Nous vous souhaitons une agréable – et instructive – balade en forêt !


Une frontière en perpétuel mouvement

Depuis près de trois millions d’années, le climat planétaire oscille naturellement entre des périodes glaciaires et interglaciaires en raison de variations cycliques de l’orbite terrestre. L’interglaciaire actuel, amorcé il y a environ 12 000 ans, est appelé l’Holocène. Bien que plus stable que les périodes glaciaires, cette période géologique a connu des changements climatiques notables.

Par exemple, entre 8000 à 4000 ans avant aujourd’hui, l’Holocène moyen a été plus chaud que l’actuel. Les saisons de croissance plus longues dans l’écotone de la forêt boréale mixte auraient alors provoqué un déplacement de la limite nordique de certaines espèces tempérées de plus de 100 km au-delà de leur répartition actuelle.




À lire aussi :
Au Québec, les feuillus pourraient se déplacer vers le nord. Voici les conséquences potentielles sur le paysage forestier boréal


Or, pour que des espèces tempérées puissent migrer vers le nord, les espèces boréales doivent céder leur place. Au cours de l’Holocène moyen, 8000 à 4000 ans avant aujourd’hui, les proportions d’espèces dans l’écotone auraient penché en faveur de certaines espèces tempérées. À l’inverse, le Néoglaciaire, une période de refroidissement global entamé il y a 4000 ans a inversé cette tendance. Les espèces tempérées se seraient repliées vers le sud, alors que les espèces boréales ont regagné du terrain dans l’écotone.

Aujourd’hui, un nouveau revirement s’annonce avec le réchauffement climatique d’origine humaine. Les modèles prévoient que l’actuel écotone de la forêt boréale mixte disparaîtra presqu’entièrement du paysage d’ici 2100, au profit de la forêt tempérée dominée par l’érable à sucre.




À lire aussi :
Pourquoi certains arbres perdent-ils leurs feuilles alors que d’autres restent verts toute l’année ?


Un phénomène particulier

Il est toutefois probable que les espèces de la forêt tempérée ne réagissent pas toutes de manière synchronisée. De nouvelles données paléoécologiques provenant d’érablières situées à la limite nordique de l’érable à sucre et de l’érable rouge indiquent que les espèces de la forêt tempérée ont réagi individuellement face aux changements climatiques passés.

Lors de l’intervalle de températures chaudes à l’Holocène moyen, certaines espèces tempérées ont pu profiter de l’avantage que les conditions climatiques apportaient pour repousser leurs limites nordiques plus loin.

Les érables, contrairement à d’autres espèces tempérées, n’ont pas atteint la limite nordique de leur distribution durant cette période chaude. Ils se sont plutôt établis alors que la température moyenne diminuait et que les espèces boréales augmentaient en abondance dans l’écotone. Puisque les érables sont des espèces tempérées, ils nécessitent des conditions environnementales différentes des espèces boréales.

L’établissement des érables en même temps que l’augmentation de l’abondance des conifères boréaux dans le paysage semble donc paradoxal.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Deux facteurs à considérer

Plusieurs facteurs pourraient expliquer ce phénomène. Les forêts de conifères boréaux sont plus propices aux grands feux sévères que les forêts décidues tempérées. La réduction des espèces boréales dans l’écotone à l’Holocène moyen aurait entraîné une diminution de la taille et de la sévérité des incendies.




À lire aussi :
Les incendies de forêt récents sont-ils pires que ceux des deux derniers siècles ?


Des espèces tempérées comme le pin blanc auraient alors été dominantes, fermant le couvert forestier et limitant la capacité des érables à s’établir. Le retour des conifères boréaux lors du refroidissement Néoglaciaire il y a 4000 ans a favorisé une augmentation des grands feux, créant des ouvertures temporaires du couvert forestier. Certaines espèces tempérées opportunistes, comme l’érable rouge, ont alors pu s’y établir.




À lire aussi :
Feux de forêt : voici pourquoi il faut une structure nationale pour mieux les gérer


Par ailleurs, les premières preuves empiriques de la présence de l’érable à sucre à sa limite nordique ne remontent qu’à 2200 ans avant aujourd’hui. Ce délai entre l’établissement des deux érables pourrait refléter le temps nécessaire pour que la présence préalable d’érable rouge modifie les propriétés du sol, le rendant propice à l’établissement de l’érable à sucre.

Ce dernier dépend obligatoirement de la présence de mycorhizes symbiotiques absentes en milieu boréal, mais qu’il partage avec l’érable rouge, moins exigeant. Les mycorhizes, des champignons qui s’intègrent dans le système racinaire des plantes dans une relation symbiotique, aident les arbres en augmentant leur capacité d’extraire les nutriments du sol. Dans le cas de l’érable à sucre, un arbre particulièrement sensible aux sols pauvres, la présence de mycorhizes semble permettre l’extraction du peu de nutriments des sols nordiques, permettant l’établissement de l’espèce.

Ainsi, une interaction écologique entre les deux érables pourrait avoir facilité l’expansion tardive de l’érable à sucre vers le nord.

Une nouvelle compréhension

En évaluant les réponses des espèces face aux changements climatiques passés, les études rétrospectives offrent un nouvel éclairage sur les scénarios futurs.

Les modèles prédictifs pourraient sous-estimer la résilience de la forêt boréale et surestimer la capacité d’expansion des espèces tempérées.

L’histoire écologique des érablières nordiques suggère qu’il faudra bien plus que quelques décennies de réchauffement climatique avant que la forêt boréale ne se transforme en érablière. Ce délai peut s’étendre à des millénaires avant que les mycorhizes et les espèces compagnes bénéfiques préparent le terrain pour l’établissement de l’érable à sucre.

La Conversation Canada

Todor Slavchev Minchev a reçu des financements du Conseil de recherches en sciences naturelles et en génie du Canada, du Fonds de recherche du Québec – Nature et technologies et du Programme des chaires de recherche du Canada.

Guillaume de Lafontaine a reçu des financements du Conseil de recherches en sciences naturelles et en génie du Canada, du Fonds de recherche du Québec – Nature et technologies et du Programme des chaires de recherche du Canada.

ref. La migration nordique de la forêt tempérée ne se passe pas comme prévu – https://theconversation.com/la-migration-nordique-de-la-foret-temperee-ne-se-passe-pas-comme-prevu-261131