Le scandale Witkoff : fausses révélations et vrai symptôme

Source: The Conversation – in French – By Cyrille Bret, Géopoliticien, Sciences Po

Alors que l’administration Trump a récemment présenté un plan en 28 points sur l’Ukraine, très favorable aux intérêts de Moscou, on vient d’apprendre que, le mois dernier, le conseiller du président des États-Unis Steve Witkoff avait affiché lors d’une conversation téléphonique avec un conseiller de Vladimir Poutine une grande proximité à l’égard de la position du Kremlin. Ces fuites ont suscité un scandale artificiel : en écoutant cet échange de quelques minutes, on n’a rien appris que l’on ne savait déjà sur la posture réelle de l’administration Trump… laquelle demeure pourtant, qu’on le veuille ou non, le seul véritable médiateur entre Moscou et Kiev.


Que de bruit autour de demi-révélations et de secrets éventés ! Que d’émois autour du « scandale Witkoff » !

Et que de commentaires indignés suscités par la retranscription intégrale, publiée par Bloomberg le 26 novembre, de la conversation téléphonique entre l’envoyé spécial du président Trump, Steve Witkoff, et le conseiller diplomatique du président Poutine, Iouri Ouchakov, le 14 octobre dernier !

Aux États-Unis comme en Europe, on crie à la trahison de l’Ukraine. On met en cause l’honnêteté du magnat de l’immobilier, ami proche de Donald Trump. Et on met en question sa capacité à mener une médiation entre Moscou et Kiev.

Que les propos échangés ne soient pas à l’honneur du milliardaire américain, on peut en convenir. Que sa connivence surjouée avec un membre éminent de l’administration présidentielle russe choque, c’est l’évidence.

Mais invoquer ces fuites comme autant de raisons pour récuser Witkoff comme émissaire atteste d’une naïveté idéaliste qui n’a pas sa place dans la géopolitique contemporaine de l’Europe. Et qui, paradoxalement, dessert la cause ukrainienne.

Fausses confidences et évidences usées

Quelles sont ces prétendues révélations que les opinions publiques occidentales feignent de découvrir ? Quels secrets ces propos livrent-ils ? Et quels mystères ces fuites mettent-elles à jour ?

Le négociateur américain cultive une familiarité avec la Russie, entretient la flagornerie à l’égard du Kremlin, développe des relations d’affaires avec des businessmen proches de lui et affiche sa condescendance pour les Ukrainiens comme pour les Européens. II suggère à son interlocuteur de demander à Vladimir Poutine de flatter l’ego légendaire de l’actuel locataire de la Maison Blanche. Et il accepte la proposition d’Ouchakov quand celui-ci dit vouloir organiser un entretien téléphonique entre les deux présidents avant la visite à Washington de Volodymyr Zelensky, qui allait avoir lieu deux jours plus tard.

La belle affaire ! Ces secrets sont de notoriété publique, et ces fuites, bien inutiles.

Toutes les déclarations publiques de l’univers MAGA le proclament urbi et orbi, autrement dit sur les réseaux sociaux : l’administration Trump veut se débarrasser de la guerre en Ukraine à tout prix, établir des coopérations fructueuses avec la Russie, tenir les Ukrainiens comme les Européens sous la pression et régler le conflit à son seul profit. Elle professe depuis longtemps une admiration non feinte pour le style de gouvernement Poutine. À l’est, rien de nouveau !

L’entourage de Donald Trump ne veut éviter ni les conflits d’intérêts, ni la servilité envers les chefs, ni l’intrigue, ni même de prendre des décisions concernant des États souverains sans consulter leurs autorités légales. Ses représentants officiels, du vice-président J. D. Vance au secrétaire d’État Marco Rubio, ont déjà montré, dans la guerre en Ukraine comme dans le conflit à Gaza, ce qu’était « la paix selon Trump » : un accord précaire, court-termiste et publicitaire. Le succès personnel, rapide et médiatisable compte bien plus que le règlement durable des conflits. Là encore, rien de nouveau sous le soleil de Bloomberg.

Comme on dit en anglais : « Old news ! » Autrement dit, le scoop est éventé depuis longtemps.

Le monopole américain du dialogue avec la Russie

Les critiques formulées à l’égard de Witkoff par les démocrates et les républicains classiques, comme par les Européens, sont sans doute causées par une indignation sincère. Mais, au fond, elles attestent d’une ignorance coupable à l’égard du rapport de force géopolitique actuel en Europe. Et de la nature d’une médiation internationale.

Peut-on crier à la déloyauté quand un médiateur établit une proximité personnelle avec ses interlocuteurs désignés ? Doit-on s’indigner qu’il ait intégré dans son équation des revendications de la partie adverse, comme base de discussion ? Là encore, ces protestations – certes moralement légitimes – ne tiennent pas compte de la réalité du travail de la médiation américaine concernant l’Ukraine.

En rejetant le rôle de protecteur de l’Ukraine et en endossant celui de médiateur, les États-Unis ont rempli la fonction laissée orpheline par les Européens. À tort ou à raison, ceux-ci ont estimé que la défense de l’Ukraine exigeait de couper les canaux de communication avec la Russie. C’est une réalité dérangeante : un médiateur a précisément ce rôle ambigu de dialoguer avec les deux ennemis, l’agresseur et la victime. Il doit réaliser une opération quasi alchimique, transformer les ennemis en interlocuteurs.

Que le plan en 28 points de l’équipe Trump soit profondément favorable aux intérêts russes, c’est l’évidence.

Mais on ne peut pas non plus nier le fait que seul l’entourage du président américain est aujourd’hui en position géopolitique de parler aux deux parties, de leur proposer des documents de travail, d’exercer sur les deux la pression nécessaire à l’ouverture de discussions et ainsi d’esquisser les conditions d’une fragile suspension des combats, dont, répétons-le, les Ukrainiens sont les victimes sur leur propre territoire.

Aujourd’hui, volens nolens, l’équipe Trump a pris le monopole de la discussion avec la Russie et avec l’Ukraine. Les Européens sont (provisoirement) réduits à se faire les avocats de l’Ukraine à l’égard des États-Unis, pas vis-à-vis de la Russie.

Les négociations internationales selon Donald Trump

La discussion entre Witkoff et Ouchakov atteste de l’amateurisme diplomatique du premier et de l’habileté tactique du second, du moins durant ces quelques minutes. La fuite à l’origine de la retranscription souligne que la méthode Trump ne fait pas l’unanimité aux États-Unis et que certains essaient d’entraver la politique que l’administration actuelle met en œuvre.

Mais ce faux scoop doit servir d’alerte aux Européens. Les règles du jeu diplomatique sont bouleversées par le conflit en Ukraine car celui-ci est bloqué : la paix par la victoire militaire de l’une ou de l’autre partie est impossible ; la reconquête par Kiev des territoires illégalement occupés et annexés par Moscou est plus qu’incertaine ; quant aux négociations directes entre belligérants, elles semblent irréalistes. Pour sortir (même provisoirement) du cycle des offensives et contre-offensives et pour donner à l’Ukraine le répit dont elle a besoin, les outils classiques sont momentanément inopérants.

L’administration Trump, dans son style fait de compromissions, de provocations, de revirements, de vulgarité et de coups de pression, essaie de sortir de l’impasse. C’est sur ce point que les révélations Witkoff sont éclairantes : la lutte existentielle de l’Ukraine peut soit se prolonger dans une guerre sans fin, soit être suspendue par une diplomatie non orthodoxe qui choquera moralement les consciences au nom des résultats espérés. Ceux-ci sont bien incertains : ils peuvent être ruinés en un instant par un dédit du Kremlin, par un succès militaire tactique d’un des deux ennemis ou encore par un nouveau scandale en Ukraine.

Quand la victoire paraît hors de portée, quand les négociations sont impensables et quand la paix paraît impossible, comment récuser la seule médiation actuellement possible, aussi biaisée soit-elle ? Quand la paix est lointaine et la négociation impensable, les méthodes non orthodoxes sont nécessaires pour briser le cercle indéfiniment vicieux du conflit.

Plutôt que de s’indigner d’un faux scoop, les Européens devraient le voir comme le symptôme de leur propre conformisme diplomatique. Plutôt que de réagir avec retard comme intercesseurs de l’Ukraine auprès de l’administration Trump, ils devraient innover, dans leur propre intérêt et dans celui de l’Ukraine. Reprendre directement contact avec le Kremlin, proposer un plan de paix qui ne soit pas le simple rappel du droit international, veiller à ce que la reconstruction de l’Ukraine ne se fasse pas à leurs dépens leur permettrait de s’affirmer pour ce qu’ils sont : la première puissance du continent et non pas de simples spectateurs de leur propre sécurité.

The Conversation

Cyrille Bret ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le scandale Witkoff : fausses révélations et vrai symptôme – https://theconversation.com/le-scandale-witkoff-fausses-revelations-et-vrai-symptome-270737

Le jeûne affaiblit-il vos capacités mentales ? Nous avons analysé les données pour vous donner les meilleurs conseils

Source: The Conversation – in French – By David Moreau, Associate Professor of Psychology, University of Auckland, Waipapa Taumata Rau

Le jeûne intermittent peut avoir des effets bénéfiques sur la santé, mais la faim affecte-t-elle nos capacités cognitives ? (Getty Images)

Vous avez déjà craint que le fait de sauter le petit-déjeuner puisse vous rendre confus au travail ? Ou que le jeûne intermittent vous rende irritable, distrait et moins productif ?

Les publicités pour les collations nous avertissent que « vous n’êtes pas vous-même lorsque vous avez faim », renforçant ainsi la croyance commune selon laquelle manger est essentiel pour garder notre cerveau en forme.

Ce message est profondément ancré dans notre culture. On nous dit que s’alimenter constamment est le secret pour rester alerte et efficace.

Pourtant, manger à des heures limitées et le jeûne intermittent sont devenus des pratiques de bien-être très populaires au cours de la dernière décennie. Des millions de personnes les pratiquent pour leurs bienfaits à long terme, allant de la gestion du poids à l’amélioration de la santé métabolique.

Cela soulève une question urgente : pouvons-nous profiter des bienfaits du jeûne pour la santé sans sacrifier notre acuité mentale ? Pour le savoir, nous avons mené l’étude la plus complète à ce jour sur les effets du jeûne sur les performances cognitives.

Pourquoi jeûner ?

Le jeûne n’est pas seulement une astuce diététique à la mode. Il fait appel à un système biologique perfectionné au fil des millénaires pour aider les humains à faire face à la pénurie.

Lorsque nous mangeons régulièrement, le cerveau fonctionne principalement grâce au glucose, stocké dans l’organisme sous forme de glycogène. Mais après environ 12 heures sans nourriture, ces réserves de glycogène s’épuisent.

À ce stade, le corps effectue un changement métabolique astucieux : il commence à décomposer les graisses en corps cétoniques (par exemple, l’acétoacétate et le bêta-hydroxybutyrate), qui constituent une source d’énergie alternative.

Cette flexibilité métabolique, autrefois cruciale pour la survie de nos ancêtres, est aujourd’hui associée à une multitude de bienfaits pour la santé.

Certains des effets les plus prometteurs du jeûne proviennent de la manière dont il remodèle les processus à l’intérieur du corps. Par exemple, le jeûne active l’autophagie, une sorte d’« équipe de nettoyage » cellulaire qui élimine les composants endommagés et les recycle, un processus considéré comme favorisant un vieillissement plus sain.

Il améliore également la sensibilité à l’insuline, permettant à l’organisme de gérer plus efficacement le sucre dans le sang et de réduire le risque de maladies telles que le diabète de type 2.

Au-delà de cela, les changements métaboliques déclenchés par le jeûne semblent offrir une protection plus large, contribuant à réduire le risque de développer des maladies chroniques souvent associées à la suralimentation.




À lire aussi :
La diète méditerranéenne est en vogue, car elle représente ce que l’on a perdu


Ce que montrent les données

Ces bienfaits physiologiques ont rendu le jeûne attrayant. Mais beaucoup hésitent à l’adopter par crainte de voir leurs performances mentales chuter sans un apport alimentaire régulier.

Pour répondre à cette question, nous avons mené une méta-analyse, une « étude des études », en examinant toutes les recherches expérimentales disponibles qui comparaient les performances cognitives des personnes à jeun et celles des personnes nourries.

Notre recherche a permis d’identifier 63 articles scientifiques, représentant 71 études indépendantes, avec un échantillon combiné de 3 484 participants testés sur 222 mesures cognitives différentes. La recherche s’est étendue sur près de sept décennies, de 1958 à 2025.

Après avoir regroupé les données, notre conclusion était claire : il n’y avait pas de différence significative dans les performances cognitives entre les adultes en bonne santé à jeun et ceux qui étaient rassasiés.

Les personnes ont obtenu des résultats tout aussi bons aux tests cognitifs mesurant l’attention, la mémoire et les fonctions exécutives, qu’elles aient mangé récemment ou non.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Quand le jeûne a de l’importance

Notre analyse a révélé trois facteurs importants qui peuvent modifier l’effet du jeûne sur votre esprit.

Tout d’abord, l’âge est un facteur clé. Les adultes ne présentaient aucun déclin mesurable de leurs performances mentales lorsqu’ils jeûnaient. Mais les enfants et les adolescents obtenaient de moins bons résultats aux tests lorsqu’ils sautaient des repas.

Leur cerveau en développement semble plus sensible aux fluctuations de l’apport énergétique. Cela renforce un conseil de longue date : les enfants doivent aller à l’école après avoir pris un petit-déjeuner équilibré afin de favoriser leur apprentissage.

Le moment choisi semble également faire une différence. Nous avons constaté que les jeûnes plus longs étaient associés à un écart de performance moins important entre les états de jeûne et de satiété. Cela pourrait s’expliquer par le passage métabolique aux cétones, qui peuvent rétablir un apport énergétique régulier au cerveau lorsque le glucose vient à manquer.

Les performances des personnes à jeun avaient tendance à être moins bonnes lorsque les tests étaient effectués plus tard dans la journée, ce qui suggère que le jeûne pourrait amplifier les baisses naturelles de nos rythmes circadiens.




À lire aussi :
Le jeûne intermittent est-il pour vous ? Voici ce qu’en dit la science


Le type de test avait également son importance. Lorsque les tâches cognitives impliquaient des symboles ou des formes neutres, les participants à jeun obtenaient des résultats tout aussi bons, voire parfois légèrement meilleurs.

Mais lorsque les tâches comprenaient des indices liés à l’alimentation, les participants à jeun ont vu leurs performances baisser. La faim ne provoque pas un brouillard cérébral universel, mais elle nous rend plus facilement distraits lorsque nous pensons à la nourriture.

Ce que cela signifie pour vous

Pour la plupart des adultes en bonne santé, ces résultats sont rassurants : vous pouvez essayer le jeûne intermittent ou d’autres protocoles de jeûne sans craindre de perdre votre vivacité d’esprit.

Cela dit, le jeûne n’est pas une pratique universelle. La prudence est de mise chez les enfants et les adolescents, dont le cerveau est encore en développement et qui semblent avoir besoin de repas réguliers pour fonctionner au mieux de leurs capacités.

De même, si votre travail exige une vigilance maximale en fin de journée ou si vous êtes fréquemment exposé à des stimuli alimentaires tentants, le jeûne peut sembler plus difficile à maintenir.

Et bien sûr, pour certains groupes, tels que les personnes souffrant de troubles médicaux ou ayant des besoins alimentaires particuliers, le jeûne peut ne pas être recommandé sans l’avis d’un professionnel.

En fin de compte, le jeûne doit être considéré comme un outil personnel plutôt que comme une prescription universelle. Ses avantages et ses inconvénients varient d’une personne à l’autre.

La Conversation Canada

David Moreau ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le jeûne affaiblit-il vos capacités mentales ? Nous avons analysé les données pour vous donner les meilleurs conseils – https://theconversation.com/le-jeune-affaiblit-il-vos-capacites-mentales-nous-avons-analyse-les-donnees-pour-vous-donner-les-meilleurs-conseils-270255

Les Mémoires de l’ancien roi Juan Carlos suscitent la polémique en Espagne

Source: The Conversation – in French – By Sabrina Grillo, Maîtresse de conférences en civilisation de l’Espagne contemporaine, Université Paris-Est Créteil Val de Marne (UPEC)

Le livre de Juan Carlos, ancien roi d’Espagne (1975-2014), publié en France en novembre, a vu sa sortie nationale en Espagne retardée au 3 décembre 2025 afin d’éviter de perturber les commémorations officielles des cinquante ans de la mort du dictateur Franco et de la fin du franquisme. En effet, certains passages de ces Mémoires font polémique…


La polémique actuelle en Espagne, centrée sur la publication des Mémoires de l’ancien roi Juan Carlos Ier, Réconciliation, survient à un moment symbolique : le cinquantième anniversaire de la mort de Francisco Franco (20 novembre 1975) et du couronnement du monarque (22 novembre 1975), mais aussi l’anniversaire du retour de la démocratie (Constitution de 1978).

Autour du 50ᵉ anniversaire…

Le livre a été publié en France en novembre 2025 tandis que sa sortie en Espagne a été retardée au 3 décembre 2025 pour éviter de perturber les commémorations officielles, boycottées par les oppositions de droite et d’extrême droite. L’extrême gauche fustige quant à elle l’insuffisance des mesures prises par le gouvernement actuel pour réparer la mémoire des victimes.

Force est de constater que la parution des Mémoires de Juan Carlos est relayée tout autant – si ce n’est plus – que le cinquantenaire de la mort de Franco ; et de nombreux articles et podcasts traitent déjà largement du sujet.

L’ancien souverain espagnol – exilé aux Émirats arabes unis depuis 2020 à la suite de scandales financiers et personnels, et dont le fils, Felipe VI, cherchant à sauver l’institution en se distançant de son père, en lui avait notamment retiré son allocation – n’a pas été invité aux commémorations officielles.

Cette tentative de retour en grâce se heurte donc à la volonté de la Maison royale et du gouvernement de maintenir leurs distances avec l’ancien monarque, qui a abdiqué en 2014. Juan Carlos a fait part de la nécessité pour lui de délivrer « sa version de l’histoire » et entend clairement se réapproprier une histoire qui est aussi la sienne.

Une réécriture de l’histoire ?

Il s’emploie à revendiquer son héritage : le retour de la démocratie en Espagne depuis la transition qu’il assure avoir menée à bien, notamment par son rôle décisif lors de la tentative de coup d’État du 23 février 1981. Et le roi de rappeler que « la démocratie n’est pas tombée du ciel ». Ses Mémoires sont d’ailleurs peut-être une autre part de l’héritage qu’il entend laisser aux plus jeunes générations qui, parfois, méconnaissent l’histoire récente de leur pays.

Juan Carlos parle abondamment de Franco dans l’ouvrage ; c’est ce qui constitue le cœur de la polémique. Il le décrit de manière positive (respect, sens politique, affection), affirmant l’avoir « respecté » et parle de leur relation comme quasi paternelle. Il rapporte également que la dernière volonté du dictateur était de maintenir « l’unité du pays ».

Ces propos ont suscité l’indignation en Espagne où, rappelons-le, des familles recherchent encore les restes de leurs proches dans des fosses communes. Pedro Sánchez, chef du gouvernement socialiste, a déclaré qu’il lui semblait « douloureux » que Juan Carlos Ier fasse l’éloge de Franco :

« L’actuel roi émérite devrait être respectueux de la mémoire démocratique de ce pays et ne pas exalter un dictateur comme Franco. »

L’Association pour la récupération de la mémoire historique (ARMH) a demandé une sanction contre l’ancien roi pour violation de la loi de Mémoire démocratique espagnole. Son président Emilio Silva a qualifié les propos de Juan Carlos d’« intolérables ». Ce dernier peut encourir une amende s’élevant jusqu’à 150 000 euros.

Une tentative de réhabilitation dans un contexte tendu

Juan Carlos cherche manifestement sa réhabilitation après son exil, consécutif à des scandales financiers majeurs – notamment l’acceptation d’un don de 100 millions de dollars du roi d’Arabie saoudite, qu’il qualifie de « grave erreur » dans ses Mémoires – et des révélations sur sa vie privée, comme le voyage de chasse à l’éléphant au Botswana en 2012.

Selon lui, l’Espagne actuelle est fragilisée, car l’esprit de la transition – la « réconciliation » incarnée par la loi d’amnistie de 1977, que l’histoire a qualifiée de Pacte d’oubli ou de silence – s’est perdu.

L’ancien roi se positionne dans ses mémoires en défenseur de la Constitution et de la démocratie.

Cette publication intervient à un moment où les tensions mémorielles et politiques en Espagne ne sont pas résolues entre débats sur l’héritage de la dictature, la transition et l’avenir de la monarchie. Elle s’inscrit dans une conjoncture marquée par diverses fractures institutionnelles ; sociale et idéologique, autour de la légitimité du système politique issu de la transition de 1978.

L’analyse de ce contexte permet de mesurer l’écart entre la volonté de réhabilitation de l’ancien monarque et la réalité d’une société espagnole qui est divisée sur la question monarchique.

Cette publication vient contredire la stratégie de rupture institutionnelle menée par Felipe VI pour préserver la monarchie et survient au moment même où la contestation républicaine s’ancre doucement dans le calendrier social.

L’accession au trône de Felipe VI en 2014 marquait une rupture sans précédent dans l’histoire démocratique de la monarchie espagnole. Le nouveau roi héritait d’un contexte de crise multidimensionnelle : fatigue sociale après les années d’austérité consécutives à la crise économique de 2008, contestation de la légitimité monarchique portée par le mouvement des Indignés avec le slogan « Transición real, sin rey » (« Transition réelle, sans roi »), et actualité dominée par les affaires de corruption touchant directement la famille royale.

Face à cette situation critique, Felipe VI s’était assigné comme priorité de regagner la confiance des Espagnols en adoptant une posture d’austérité, de discrétion et de transparence accrue. La mesure la plus spectaculaire de cette stratégie de dissociation intervient en 2020, quand Felipe VI annonce publiquement sa renonciation à l’héritage de son père et la suppression de l’indemnité annuelle versée à Juan Carlos par les budgets de la Maison royale.

La publication des Mémoires de Juan Carlos en 2025 est donc en contradiction avec la stratégie de rupture menée par Felipe VI. Cette tentative de réhabilitation risque de remettre au centre du débat public les questions de corruption et de légitimité que la Couronne s’est efforcée de reléguer au second plan.

Des centaines de manifestants ont défilé dans les rues de Madrid, en juin 2025, lors d’une marche républicaine organisée sous le slogan « Jusqu’à ce qu’ils partent ». La manifestation a rassemblé plusieurs collectifs et citoyens qui réclament la fin de la monarchie et l’instauration d’une république en Espagne. Entre drapeaux tricolores, chants et banderoles, les participants ont exprimé leur rejet de l’institution monarchique et ont demandé un référendum à valeur légale.

L’année 2025 voit la consolidation d’une contestation antimonarchique structurée dans le calendrier social espagnol. La deuxième édition de la Marcha Republicana, organisée le 15 juin 2025 à Madrid, s’impose comme la protestation antimonarchique la plus importante depuis 2014. Ce mouvement, qui a bénéficié du soutien de partis politiques, tels que Podemos, Izquierda Unida ou encore le Parti communiste espagnol, affiche un objectif explicite : faire de Felipe VI le dernier roi d’Espagne.

La Marcha Republicana del Norte, regroupant les Asturies, la Galice, la Cantabrie et le Pays basque, a par ailleurs organisé une manifestation en octobre dernier à Oviedo, en marge de la remise des Prix Princesa de Asturias, pour relancer la réflexion publique sur la place de la monarchie dans un système démocratique et prévoit de renforcer son travail commun avec la coordination nationale de la Marche républicaine.

The Conversation

Sabrina Grillo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les Mémoires de l’ancien roi Juan Carlos suscitent la polémique en Espagne – https://theconversation.com/les-memoires-de-lancien-roi-juan-carlos-suscitent-la-polemique-en-espagne-270214

La dinde, histoire d’une domestication

Source: The Conversation – in French – By Aurélie Manin, Chargée de recherche en Archéologie, Archéozoologie et Paléogénomique, Centre national de la recherche scientifique (CNRS)

La dinde constitue un mets de choix sur les tables des fêtes d’Europe et d’Amérique du Nord, que ce soit pour Thanksgiving ou Noël. Son origine et les péripéties qui l’ont menée jusque dans nos cuisines sont toutefois peu connues du grand public.


La période des festivités de fin d’année semble tout indiquée pour revenir sur l’histoire naturelle et culturelle de cet oiseau de basse-cour, qui a fait l’objet d’un ouvrage collectif sorti en juin 2025 aux éditions scientifiques du Muséum national d’histoire naturelle.

La dinde ou le dindon commun, selon que l’on parle de la femelle ou du mâle, appartiennent à l’espèce Meleagris gallopavo que l’on retrouve encore à l’état sauvage sur l’essentiel du territoire des États-Unis, dans le sud du Canada et le nord du Mexique. Les sociétés américaines ont longtemps interagi avec ces oiseaux, essentiellement à travers la chasse. Le plus ancien kit de tatouage retrouvé en contexte archéologique, au Tennessee (États-Unis), daté d’entre 3500 et 1500 ans avant notre ère, était constitué d’os de dindon appointés. Mais ce n’est ni dans cette région ni à cette époque que la domestication du dindon a commencé, c’est-à-dire que le dindon et les humains sont entrés dans une relation de proximité mutualiste conduisant aux oiseaux de basse-cour que l’on connaît aujourd’hui [figure 1].

Figure 1 : Dindon commun sauvage (gauche, photographie de Franck Schulenburg) et domestique (droite, photographie de Wee Hong).
CC BY-SA

Une première domestication en Amérique centrale

Jusqu’au début de notre ère, les indices archéologiques d’un rapprochement entre dindons et humains sont, de fait, ténus. C’est en Amérique centrale, au Guatemala, que l’on retrouve la plus ancienne preuve de la gestion et de la manipulation des dindons. Dans cette région tropicale, on ne trouve pas de dindon commun sauvage mais son proche cousin, le dindon ocellé [figure 2]. Or sur le site d’El Mirador, quelques os de dindon commun ont été retrouvés, datés entre 300 avant notre ère et le tout début de notre ère – une identification confirmée par la génétique.

L’analyse des isotopes du strontium contenus dans ces os, spécifiques de l’environnement dans lequel un animal a vécu, ont quant à eux montré que les oiseaux avaient été élevés dans l’environnement local. Il s’agit de la trace la plus ancienne de translocation de l’espèce, son déplacement dans une région dans laquelle elle ne vivrait pas naturellement. Or un tel déplacement, sur des milliers de kilomètres et vers un environnement très différent, nécessite une connaissance fine du dindon et de ses besoins ainsi que des compétences zootechniques certaines. C’est donc l’aboutissement de plusieurs générations d’interactions et de rapprochement dans la région où le dindon commun se trouve naturellement, probablement sur la côte du golfe du Mexique ou dans le centre du Mexique, près de l’actuelle ville de Mexico. Au fil du temps, le nombre de restes de dindon augmente dans les sites archéologiques jusqu’à l’arrivée des Européens au XVIe siècle.

Figure 2 : Dindon ocellé sauvage (photographie Bruno Girin).
CC BY-SA

Dans le sud-ouest des États-Unis, à la convergence de l’Utah, du Colorado, du Nouveau-Mexique et de l’Arizona, on sait que les dindons étaient déjà présents il y a environ 10 000 ans, au début de la période holocène mais ils sont particulièrement rares dans les sites archéologiques.

Ce n’est qu’entre le début et 200 de notre ère qu’on voit leurs ossements apparaître régulièrement dans les sites archéologiques, bien qu’en faible proportion. Les traces les plus abondantes de leur présence sont leurs crottes (que l’on appelle coprolithes une fois fossilisées, dans le registre archéologique) retrouvées en particulier dans des structures en briques de terre crue complétées de branches qui servaient probablement à maintenir les dindons en captivité.

Des oiseaux convoités pour leurs plumes

Ces oiseaux appartiennent à une lignée génétique différente de celle des dindons sauvages locaux et l’analyse des isotopes du carbone contenu dans leurs os indique qu’ils ont consommé de grandes quantités de maïs. Ce sont donc des oiseaux captifs, certainement domestiques, mais on retrouve rarement leurs os dans ce que les archéologues étudient le plus, les poubelles des maisons. Ils n’auraient donc pas été mangés, ou assez rarement par rapport aux efforts mis en place pour les garder sur les sites. Les plumes d’oiseaux étaient néanmoins importantes pour ces populations et on retrouve notamment des fragments de plumes de dindon incluses dans le tissage d’une couverture en fibre en yucca. Une seule couverture aurait nécessité plus de 11 000 plumes, soit cinq à dix oiseaux selon la taille des plumes sélectionnées. Les oiseaux maintenus en captivité auraient ainsi pu être plumés régulièrement pour fournir cette matière première.

Au fil du temps, l’usage de dindons domestiques s’étend entre cette région du sud-ouest des États-Unis, le Mexique et l’Amérique centrale, mais les dindons sauvages restent bien présents dans l’environnement. Dans l’est des États-Unis, en revanche, si les restes osseux de dindons peuvent être abondants sur les sites archéologiques, il s’agit d’oiseaux sauvages chassés. C’est une mosaïque d’usage du dindon que les Européens ont ainsi rencontré à leur arrivée sur le continent américain [figure 3].

Figure 3 : Illustration du voyage de JacquesLe Moyne (1562-1565), qui accompagnait l’expédition de Laudonnière en Floride. Des dindons sont figurés sur la droite.

Poules d’Inde

C’est lors du quatrième voyage de Christophe Colomb en Amérique, alors qu’il explore les côtes de l’actuel Honduras, que l’on trouve ce qui peut être la première rencontre entre des Européens et des dindons, en 1502. On ne sait pas exactement comment leur réputation atteint l’Europe, probablement à travers les premières villes européennes construites dans les Antilles, mais en 1511 une lettre est envoyée par la couronne d’Espagne au trésorier en chef des Indes (les Antilles) demandant à ce que chaque bateau revenant vers la péninsule rapporte des « poules d’Inde » (d’où la contraction « dinde » apparue au XVIIe siècle en français), mâle et femelle, en vue de leur élevage.

En 1520, l’évêque d’Hispaniola (île englobant aujourd’hui Haïti et la République dominicaine) offre à Lorenzo Pucci, cardinal à Rome, un couple de dindons.

L’ouvrage publié au Muséum national d’histoire naturelle montre la multiplication des témoignages de la présence du dindon dans l’entourage de l’aristocratie européenne au cours du XVIe siècle. En France, en 1534, on trouve des dindons à Alençon, en Normandie, dans le château de Marguerite d’Angoulême, sœur de François Ier et reine de Navarre.

C’est aussi en 1534 qu’une amusante histoire se déroule en Estonie, où l’évêque de Tartu envoie un dindon en présent au duc Glinski – dindon qu’il avait précédemment reçu d’Allemagne. Mais l’oiseau exotique se répand aussi progressivement dans les basses-cours et sa consommation se généralise.

Entre le XVIe et le XVIIe siècle, il accompagne de nombreuses missions maritimes commerciales, atteignant même le Japon et revenant en Amérique – depuis l’Europe – dans les établissements coloniaux. Il semble toutefois être longtemps resté réservé aux repas de fêtes, et ce n’est qu’au cours du XXe siècle, avec l’essor de l’industrie agroalimentaire et la sélection de races de plus en plus lourdes, que sa viande entre dans la production de nombreux produits transformés. Finalement, l’animal complet, rôti et dressé sur une table à l’occasion de Thanksgiving ou de Noël, conserve la trace de cette longue histoire.

À l’abri du besoin, Norman Rockwell, 1941. « Notre cuisinière l’a faite rôtir, je l’ai peinte, puis nous l’avons mangée. C’est l’une des seules fois où j’aie jamais mangé le modèle. », déclara le peintre avec humour.
Wikimedia

The Conversation

Aurélie Manin a reçu des financements des Actions Marie Sklodowska-Curie pour réaliser ce travail.

ref. La dinde, histoire d’une domestication – https://theconversation.com/la-dinde-histoire-dune-domestication-270472

L’évolution de l’accent de Bernard Derome raconte l’affirmation du français québécois

Source: The Conversation – in French – By Marc Chalier, Maître de conférences en linguistique française, Sorbonne Université

Pendant près de quarante ans, Bernard Derome a incarné la voix du Téléjournal et accompagné les bouleversements du Québec moderne. Derrière cette constance, sa façon de parler a pourtant changé, révélant à sa manière l’évolution linguistique et identitaire du Québec.

Dans une étude sur le français parlé dans les médias audiovisuels québécois, je me suis penché sur un détail de prononciation en apparence négligeable : la façon dont Bernard Derome prononce les sons t et d devant des voyelles comme i ou u. Il est bien connu qu’en français québécois, dans ce type de contextes phonétiques, ces consonnes ont tendance à se transformer en sons « affriqués », ts et dz : tu dînes sera prononcé tsydzɪn alors qu’un Français prononcera les mêmes mots tydin. Ce phénomène, caractéristique du français québécois, est appelé affrication.

On pourra se demander ce qu’un linguiste de la Sorbonne fait à tendre l’oreille aux t et aux d d’un présentateur québécois. Il se trouve que j’étudie depuis plusieurs années les accents et les normes du français à travers le monde francophone, notamment, mais pas uniquement, au Québec. L’évolution du parler de Bernard Derome m’a paru emblématique d’un phénomène que j’observe aussi ailleurs : la montée en légitimité de variétés locales face à la norme parisienne.

Une oreille dans les archives

Pour mesurer l’évolution de cette prononciation à travers les décennies, j’ai analysé plusieurs heures d’extraits de journaux télévisés de Radio-Canada diffusés entre 1970 et 2008 dans lesquels Bernard Derome prend la parole. Ce faisant, j’ai écouté, analysé acoustiquement et codé plus de 1300 cas de t et d dans tous les contextes d’affrication possibles.

Résultat : la proportion d’affrications chez Bernard Derome passe de près de 45 % en 1970 à plus de 80 % en 2008. Autrement dit, le présentateur adopte progressivement une prononciation de plus en plus proche du parler québécois courant, du moins pour ce qui est des t et des d. Au premier abord, cette évolution peut sembler anodine, mais elle est au contraire très révélatrice : elle reflète non pas seulement un changement personnel, mais surtout une transformation de la norme de prononciation imposée à l’écran.

Du « français international » au français d’ici

Dans les années 1960 et 1970, Radio-Canada prônait encore un modèle de français dit « international », qui était en fait largement inspiré de la norme parisienne de l’époque et que l’on associait souvent à ce que l’on pouvait entendre dans les émissions de radio et de télévision françaises.

En 1965, l’Office québécois de la langue française, dans son premier Cahier sur la « Norme du français écrit et parlé au Québec », mentionnait même explicitement les affrications et affirmait que « trop nombreux sont les sons que nous (les Québécois) réalisons de façon défectueuse, (notamment) les consonnes assibilées (ts-dz) au lieu de (t-d) […] ». On l’aura bien compris : les présentateurs se devaient de parler « sans accent » québécois en calquant au maximum leur diction sur celle de leurs collègues français. Tout cela dans le but de donner de la crédibilité à un média public qui, à l’époque, était encore jeune, et aussi pour mieux l’intégrer dans le paysage médiatique du monde francophone.

Mais le Québec des décennies suivantes a changé. À mesure que la société s’affirmait politiquement et culturellement dans la foulée de la Révolution tranquille des années 1960, les médias ont progressivement relâché leur écart par rapport au parler local. À la fin des années 1980, des linguistes notaient déjà l’émergence d’un modèle québécois de prononciation plus naturel et plus représentatif du public. Les journalistes eux-mêmes, désormais tous largement formés comme des reporters, journalistes et présentateurs et non plus comme de simples « lecteurs de nouvelles », privilégiaient une prononciation plus proche de l’usage courant du français québécois.

Dans ce contexte, l’évolution du parler de Bernard Derome devient donc presque emblématique : son affrication croissante illustre la québécisation progressive de la parole médiatique.

La fin de la voix uniforme dans les médias audiovisuels

Le passage d’un parler standardisé à un usage plus proche de celui du français québécois parlé au quotidien ne concerne pas seulement la phonétique. C’est tout un style de présentation télévisuelle qui s’est transformé.

Autrefois, certains lecteurs de nouvelles pouvaient se contenter de lire des textes écrits, souvent rédigés par d’autres, dans un français soutenu et dépourvu d’émotion. Les linguistes appellent cela de l’« écrit oralisé ».

Aujourd’hui, les journalistes s’expriment davantage en direct avec une part d’improvisation et une recherche de proximité. Le discours se fait de moins en moins normatif et laisse une plus large marge à l’expressivité et la spontanéité du journaliste.

Cette « oralité mise en scène » a ouvert la porte à des formes de langue plus authentiques, plus proches de la réalité langagière quotidienne des Québécois. Et l’affrication, longtemps jugée « trop populaire » pour la télévision, a pu s’y installer sans choquer.

Une norme qui bouge

Mais qu’on ne s’y trompe pas : ce glissement vers un parler plus local ne signifie pas l’abandon de toute norme. Au contraire, une étude récente montre que Radio-Canada reste un modèle majeur en termes de « bon usage » du français pour une majorité des Québécois. La norme que la chaîne diffuse s’est simplement redéfinie. Elle n’imite plus le français de Paris, mais intègre désormais des traits propres au français québécois, qui sont devenus des signes d’appartenance – on appelle cela des « schibboleths » – alors qu’ils avaient longtemps été considérés comme des signes de relâchement ou de mauvaise diction.

Cette réévaluation du « bon usage » n’est pas unique au Québec : dans plusieurs régions du monde francophone, des variétés autrefois perçues comme « périphériques », comme celles de la France méridionale, de la Belgique ou encore des Antilles, acquièrent à leur tour une nouvelle légitimité. Le prestige linguistique se décentre peu à peu de Paris pour mieux refléter la pluralité du français.

L’étude du parler de Bernard Derome montre aussi que ce changement s’est fait sans rupture brutale. Bernard Derome n’a pas « pris l’accent » québécois à l’antenne du jour au lendemain : sa manière personnelle de parler, son « idiolecte », a évolué lentement, à mesure que les usages médiatiques et les attentes du public se transformaient.

Quand la langue bouge avec la société

Cette observation dépasse le cas d’un seul présentateur. Elle illustre le phénomène bien connu du changement linguistique : la langue d’un individu n’est jamais figée, même à l’âge adulte. Elle peut certes en partie se calquer sur des modèles de prestige, mais elle s’adapte surtout en permanence aux usages courants de son milieu et de son époque.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous aujourd’hui à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Il existe de nombreux autres exemples d’idiolectes de personnalités publiques n’échappant pas au changement. En 2005, une étude britannique avait par exemple observé qu’entre les années 1950 et 1980, la manière de la reine Élisabeth II de prononcer ses voyelles dans ses vœux de Noël s’était rapprochée de celle de ses contemporains. Autrement dit, même les figures publiques les plus symboliques n’échappent pas au changement linguistique : leur manière de parler évolue, y compris dans les contextes les plus formels et contrôlés, où l’on pourrait s’attendre à une plus forte stabilité.

Bernard Derome a connu un parcours linguistique comparable : sa voix a raconté l’histoire du Québec moderne, mais elle en a aussi porté les changements. En suivant la trajectoire de ses t et de ses d, c’est toute une évolution du rapport des Québécois à leur langue qui se laisse entendre : de la peur de mal parler et du souci d’imiter à la fierté d’assumer.

La Conversation Canada

Marc Chalier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’évolution de l’accent de Bernard Derome raconte l’affirmation du français québécois – https://theconversation.com/levolution-de-laccent-de-bernard-derome-raconte-laffirmation-du-francais-quebecois-267600

Beyond Zohran Mamdani: Social media amplifes the politics of feelings

Source: The Conversation – Canada – By Merlyna Lim, Canada Research Professor, School of Journalism and Communication, Carleton University

Zohran Mamdani’s election as New York City mayor has spurred global celebrations and pride. Scores of social media users worldwide celebrate and claim him as one of their own.

Muslims across the globe, including in Indonesia — home to the world’s largest Muslim population, where I was born and raised — rejoice that he is Muslim. Indians take pride in Mamdani’s Indian roots. Ugandans cheer his victory because Kampala is his birthplace.

Representation does matter. It can be deeply affirming to see someone whose identity resonates with you succeed in a foreign political landscape.

However, Mamdani didn’t win simply because of who he is. He won because of what he did, the politics that his campaigns were based on — a platform that focuses on the cost of living, from utility bills to grocery bills to bus fares to child care to rent — and, more importantly, the feelings, the trust and cohesion generated in the network of people who organized with and for him.

As a scholar who examines digital media and information technology in relation to citizen participation and democracy, I know that political behaviour research has long observed that voters don’t choose based on policy alone: they vote based on identity, group belonging, emotional attachments and symbolic cues, all of which speak to “the politics of feelings.”

This refers to politics that mobilize and build power through shared feelings and emotional bonds.




Read more:
Zohran Mamdani’s transformative child care plan builds on a history of NYC social innovations


Identity, platform, visibility

That Mamdani is Muslim — the son of a South Asian African Muslim father and a Hindu Indian mother, born in Uganda — and that he has lived an immigrant community experience in New York is a formidable part of his story.

This profoundly matters in a political landscape that often marginalizes such identities — and helps explain why he has become so visible online and globally.

Viral videos, algorithmically boosted content and his public persona amplified this visibility. Online, the Zohran Mamdani phenomenon illustrates the power of emotion-driven mobilization, the process through which emotional currents bring people into alignment or connection with a cause, figure or community.

Identity and emotion have always been central to politics. Social media didn’t invent the politics of feelings; it accelerated and amplified them.

Branding a politician

Social media political participation doesn’t operate within a deliberative civic culture, but within an algorithmic marketing culture where algorithmic targeting and data-driven marketing principles shape how persuasion, visibility and emotion circulate.

Branding shapes the way content looks and feels. Algorithms push what’s likely to grab attention, and human users — naturally drawn to emotion — interact with it, feeding the system in return. Together, they produce a self-reinforcing loop where high-arousal content dominates, as a consequence of the interplay of marketing logic, machine learning and user behaviour.

The algorithm rewards emotion, not analysis. It privileges what’s instantly legible — a name, a face, a faith — over the collective labour and work behind a political movement.

Hope, pride as well as fear, outrage

Posts highlighting Mamdani’s Muslim, immigrant or brown identity, whether in celebration or attack, elicit emotions — hope, pride, fear or outrage. These emotions fuel engagement, which algorithms amplify, generating cycles of visibility which can simultaneously mobilize support and provoke backlash.




Read more:
The urgent need for media literacy in an age of annihilation


Indeed, the same identity categories that make him so celebrated abroad have also been weaponized against him at home in the United States.

Through social media disinformation fuelled by racism and Islamophobia, Mamdani’s opponents have framed him as a “Muslim extremist,” “communist,” “jihadi terrorist,” “brown” and “dirty” or a “threat” to American values.

The flattening happens from both sides: he is either attacked for his identity or adored because of it.

The irony is sharp. For example, some Indonesians embrace a man named Mamdani — Mamdanis are part of the Khoja Shia community — while turning a blind eye to anti-Shia persecution at home.

Similarly, some Modi supporters claim Mamdani’s Indian heritage without acknowledging that he is a vocal critic of Modi.




Read more:
Listen: Indian PM Modi is expected to get a rockstar welcome in the U.S. How much is the diaspora fuelling him?


Identity becomes politicized

We can see similar dynamics elsewhere. Sadiq Khan’s visibility as a Muslim mayor of London generated both celebration and Islamophobic backlash on social media, amplified through viral videos, memes and algorithmically boosted news cycles.

In Canada, former prime minister Justin Trudeau’s youthful, multicultural and photogenic persona generated strong emotional attachment and global circulation while overshadowing his substantive political work.

This is how identity becomes politicized. By focusing the debate on who someone is, attention is diverted from what they stand for. It’s easier to categorize than to engage with structural critique.

In an algorithmic age, we consume politics in byte sizes, where visibility often displaces understanding and emotional attachment overshadows knowledge-seeking. It’s easier to celebrate a face than to join a struggle.

Emotion meets lived experience

But visibility is not the same as electoral power. We learn from Mamdani’s case that, for local politics, symbolism is rarely enough. It operates in a different register from national or global scales.

While Mamdani’s online persona benefited from algorithmic amplification, his campaign was also built on grassroots, volunteer-based mobilization combining door-knocking and neighbourhood conversations across the city of New York.

In local elections, voters aren’t distant algorithmic audiences. They’re neighbours, co-workers and community members who experience the effects of policy in their daily lives. A candidate’s identity, promises and track record must resonate with the residents’ tangible needs. Branding and emotional attachment help, but they cannot replace direct knowledge of local realities and persistent organizing work.

Mamdani platform

To cast a ballot for Mamdani in New York, voters needed to not only embrace his identities, but also his platform and the fact that, like Bernie Sanders and Alexandria Ocasio-Cortez, he’s unapologetically a democratic socialist.

The word “socialism” is not widely accepted in the United States, as it’s often conflated with “communism” — the remnant of Cold War anti-communism propaganda. It’s not popular in Indonesia, India and Uganda either.

Whether Mamdani will fulfil his voters’ expectations is too early to tell. What is clear is that his story isn’t just about Muslim pride or immigrant success. It’s about what’s possible when people organize across differences for a common cause. It’s about choosing to see beyond who someone is to what they stand for.

The Conversation

Merlyna Lim does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Beyond Zohran Mamdani: Social media amplifes the politics of feelings – https://theconversation.com/beyond-zohran-mamdani-social-media-amplifes-the-politics-of-feelings-269792

Distance learning changes lives, but comes with its own challenges

Source: The Conversation – Africa – By Ashley Gunter, Professor, University of South Africa

For students outside cities, participation in distance learning can be a lonely struggle. Tobi Oshinnaike via Unsplash

Across Africa, distance education has become one of the most powerful forces for expanding access to higher learning. Open and distance learning institutions such as the Open University of Tanzania, the Zimbabwe Open University and the National Open University of Nigeria have joined long-standing providers like the University of South Africa in offering flexible study opportunities to millions of students who would otherwise be excluded from higher education.

These institutions are reimagining what it means to go to university in contexts where geography, cost and social responsibilities often keep young people out of the classroom.




Read more:
How place of birth shapes chances of going to university: evidence from 7 African countries


The value of distance education is undeniable. It allows working adults to continue their studies without leaving employment, gives rural youth the chance to stay in their communities while earning qualifications, and provides people with opportunities to balance learning alongside family responsibilities. During crises such as the COVID-19 pandemic, distance education proved to be a lifeline when face-to-face teaching was impossible.

Across the continent, it is not simply an alternative to traditional universities; for many, it is the only route into higher education.

The World Bank has reported that only 9% of the African population in the five years after secondary school is enrolled in tertiary education – the lowest rate in the world.

My own research takes the University of South Africa (Unisa) as a case study to dig deeper into how geography and inequality shape students’ experiences of distance learning: their access, participation, and outcomes. With over 370,000 students in South Africa and other countries, Unisa is the continent’s largest provider. It’s an ideal lens through which to understand both the promise and the challenges of this educational model.

I’m a geographer with an interest in international education and economic development. For the Unisa case study, I took a qualitative research approach, interviewing 28 Unisa postgraduate students from different regions of Africa. I chose them to reflect the diversity of students enrolled at Unisa and because they already had experience of studying.

The study found that although distance education can meet educational needs where people can’t access face-to-face learning, it’s not a perfect solution. There are still challenges which make it hard for some people to study, like inadequate infrastructure (poor internet connectivity and electricity supply), financial constraints, and language and cultural barriers. There’s a need for interventions to improve the effectiveness and equity of distance education.

Experiences of distance education

My interviews with postgraduate students across Africa showed a complex picture. For the 18 students based in cities, distance education can be genuinely empowering. Internet connections, though costly, are usually accessible in cities. Electricity supply is more stable, and digital platforms are within reach. Students in urban areas spoke of the freedom and flexibility they gained, describing distance education as the only way to balance work, family life and study.

But geography matters. For students in rural or marginalised regions, participation in distance learning can become a daily struggle.

Downloading a file may take hours. Travelling long distances to internet cafés eats into scarce time and resources. A student in Zimbabwe explained how he missed deadlines simply because the university portal would not load in his village. Another said:

Some days I feel like I’m learning less and figuring out how to connect more.

Another, in Kenya, described travelling to Nairobi every two weeks to collect academic materials. She felt the sacrifice was worth it because she knew education could change her life. For others:

I begin to wonder if it’s really worth it.

These obstacles, however, underline rather than diminish the value of distance education. Students are willing to endure enormous effort and cost to access learning because they believe in its power to transform their futures. Their determination is itself evidence of the demand for and importance of this model of education.

Still, the barriers are real. High data prices, unstable internet, and unreliable electricity continue to limit access. Women in rural areas often face additional responsibilities that leave them with little time or energy to study.

It’s hard to keep up with my guy classmates who don’t face the same rules at home.

And the flexibility that makes distance education attractive can sometimes turn into a sense of isolation when students don’t have peer support.

I feel alone a lot. Even when I try to share, they don’t seem to understand what I’m facing.

Persistent inequities in distance education

Distance education can actually keep existing inequities in place, because students from wealthier, urban backgrounds are better positioned to succeed than rural students are.

My study also revealed how the realities of students’ lives not only affect their ability to use digital tools but also their sense of belonging to the academic community. There is a growing digital divide within distance education itself.

The task ahead is to make sure that these challenges do not undercut the progress distance education has already made. Over the past decade, distance education has expanded access, increased enrolment far beyond the capacity of traditional campuses, and improved the quality of digital teaching, learner support, and flexible study pathways.

Investment in affordable broadband and electricity is essential, particularly in rural and underserved regions. Financial aid needs to cover the hidden costs of learning, from devices to data. Outreach centres should be located closer to marginalised communities, and policies must explicitly address the gendered realities that shape women’s access to higher education.




Read more:
Hunger among South African students: study shows those studying remotely need financial aid for food


Across Africa, open universities have already demonstrated how distance education can widen participation and build inclusive futures. Unisa’s story, and the experiences of its students, highlight both the opportunities and the work still to be done.

Geography continues to shape who can learn, but it does not have to decide who gets left behind. With the right investments and policies, distance education can move closer to fulfilling its full promise: to provide equitable, life-changing access to higher learning for all.

The Conversation

Ashley Gunter receives funding from, The Arts and Humanities Research Council UK, British Academy UK, National Research Foundation, Newton Fund UK.

ref. Distance learning changes lives, but comes with its own challenges – https://theconversation.com/distance-learning-changes-lives-but-comes-with-its-own-challenges-266431

New study finds Pacific Northwest birds are becoming more common in the mountains as the climate warms

Source: The Conversation – Canada – By Benjamin Freeman, Assistant Professor, School of Biological Sciences, Georgia Institute of Technology

We know that climate change is affecting animals and habitats across our world, but figuring out how isn’t always easy. In fact, for years, I told audiences we simply could not know how mountain birds in the Pacific Northwest were responding to climate change. But as my recent research proves, I was mistaken.

It wasn’t for lack of scientific interest — biologists worry that mountain species are vulnerable to warming temperatures. It wasn’t for lack of personal interest — I grew up among the snow-capped mountains of the region and wanted to know what was happening in my own backyard. It was because we lacked the data.

Specifically, I thought there was no historical data describing where Pacific Northwest birds lived along mountain slopes prior to recent climate change. Historical data provides a crucial baseline. With good historical data in hand, researchers can compare where species live now to where they used to live. In protected landscapes where people aren’t directly changing the habitat, climate change is the main force that could impact where birds live.

As a postdoctoral fellow at the University of British Columbia, I had found historical datasets and conducted resurveys in far-flung locations from Peru to Papua New Guinea. Yet I did not know what was happening to the birds living in the mountains visible from campus.

The city of Vancouver is visible in the distance from nearby mountain peaks
Researchers conducted surveys in the mountains near Vancouver, B.C. to find out how climate change is impacting birds that live in the area.
(Benjamin Freeman)

Then, one day I found a scientific paper describing an impressive bird survey from the early 1990s from these nearby mountains. I contacted the lead author, wildlife ecologist Louise Waterhouse, who told me she still had the original data and was interested in a resurvey.

The expectation is that mountain species should respond to hotter temperatures. Some species like the warmer areas at the base of the mountain, while others require cold areas near the mountain top.

Bird surveys

The general prediction is that plants and animals will move to higher elevations where temperatures remain cool, as if they are riding a slow-motion escalator. This spells trouble for mountaintop species, which have nowhere higher to move to. For them, climate change can set in motion an “escalator to extinction.”

To determine whether this was true, I first had to relocate the locations that Waterhouse and her colleagues had surveyed. Global positioning system units did not exist at the time, so they marked their survey locations on maps. I spent days in the forest, tracing my finger along the map as I walked through the woods.

Luckily for me, Waterhouse conducted her surveys in old-growth forests. With their towering trees and massive decaying logs on the forest floor, it was easy to tell when I stepped from the surrounding younger forest into one of these ancient groves.

Then I had to do the modern surveys. This required waking up at 4 a.m. for a month. Birds are most active in the early morning, so that’s the best time to conduct research.

While it’s never fun to set an early alarm, it was glorious to spend dawn among giant trees listening for birds. One morning a bobcat padded along a mossy log just a couple of metres from where I stood.

Another day a barred owl swooped noiselessly past me like a forest ghost. And every morning I conducted survey after survey, scribbling the species I encountered in my notebook.

What we found

After the survey work was completed, our team analyzed the data. We found that temperatures have increased by around 1 C in southwestern British Columbia since the early 1990s.

We wondered whether this warming would set the escalator to extinction in motion. But the main response we found was that species still live in the same slices of mountainside but have become more abundant at higher elevations. That suggests most species living in old-growth forests in this region are resilient to climate change so far.

Our resurvey is kind of like going to your doctor for a routine physical exam, but for an entire bird community. We found most species are doing well, akin to a general good report from your doctor. But we also identified problems.

Most notably, the Canada jay has dramatically declined and is on the escalator to extinction. This grey-and-white bird, also known as “whiskey jack,” is well-loved for its bold behaviour and intelligence and is considered by some to be Canada’s national bird. Follow-up research is urgently needed to help these charismatic jays persist in this region.

Our study provides a clear picture of how birds are responding to climate change in the mountains near Vancouver. This information is directly useful to land managers and conservationists.

I think back to the years when I said this study was impossible. If I hadn’t come across Waterhouse’s study that one grey afternoon, the hard-won data that she and her team collected might have been lost.

Now, as an assistant professor at Georgia Tech, I have created the Mountain Bird Network to save and share such legacy datasets from mountains across the globe. Who knows what other mountains have high-quality historical data?

Thinking about mountain birds, I realize my toes are tapping as I look to the alarm clock and decide that maybe I need more 4 a.m. wake-ups in my life.

The Conversation

Benjamin Freeman receives funding from the David and Lucille Packard Foundation.

ref. New study finds Pacific Northwest birds are becoming more common in the mountains as the climate warms – https://theconversation.com/new-study-finds-pacific-northwest-birds-are-becoming-more-common-in-the-mountains-as-the-climate-warms-270041

La materia oscura del universo podría haber sido observada por primera vez

Source: The Conversation – (in Spanish) – By Óscar del Barco Novillo, Profesor asociado. Departamento de Física (área de Óptica)., Universidad de Murcia

Recreación artística de la formación de estructuras de materia oscura durante los primeros instantes del universo. Créditos: Ralf Kaehler/SLAC National Accelerator Laboratory, American Museum of Natural History. CC BY

Tras un meticuloso estudio de los datos recogidos durante 15 años por el telescopio espacial de rayos gamma Fermi de la NASA sobre el halo galáctico de la Vía Láctea, investigadores japoneses afirman tener evidencias directas de la detección de las elusivas partículas de materia oscura en el universo.

De confirmarse el hallazgo, supondría una verdadera revolución en el campo de la física, obligando a modificar el modelo estándar de la física de partículas (que es la teoría que describe con precisión la estructura fundamental de la materia). Además, tendría enormes consecuencias en cosmología a la hora de explicar la formación y evolución de los cúmulos galácticos.

Este innovador trabajo ha sido publicado en la revista Journal of Cosmology and Astroparticle Physics y su único autor es el astrofísico nipón Tomonori Totani.

Totani sostiene que el patrón energético hallado en sus investigaciones podría ser la primera evidencia directa de las llamadas Partículas Masivas de Interacción Débil (WIMP, por sus siglas en inglés), aunque la comunidad científica pide cautela y verificación independiente antes de confirmar un hallazgo que podría transformar la física actual.

Invisibles para cualquier telescopio

La hipótesis ampliamente aceptada es que la materia oscura está compuesta por esas esquivas WIMPs, cientos de veces más masivas que el protón y de movimiento muy lento. Como no absorben ni emiten luz ni interaccionan con cualquier partícula observada, es imposible su detección directa por instrumentos ópticos como el telescopio.

El cúmulo de Coma (con hasta 1 000 galaxias identificadas) es el lugar del cosmos donde surgieron las primeras evidencias de la existencia de materia oscura. En 1930, el astrónomo suizo Fritz Zwicky observó que aquellas galaxias se movían demasiado rápido para la gravedad creada por la materia ordinaria observada. Deberían haber escapado del cúmulo, pero, en cambio, permanecían juntas.

En otras palabras, no existía suficiente masa visible como para mantener unidas a tantas galaxias. La materia oscura en el cúmulo de Coma es tan predominante que constituye aproximadamente el 90 % de su masa total.

Imagen en falso color de la región central del cúmulo de Coma donde se combinan imágenes infrarrojas y de luz visible para revelar miles de galaxias muy tenues (en color verde). Créditos: NASA / JPL-Caltech / L. Jenkins (GSFC).
CC BY

A raíz de esas observaciones, Zwicky sugirió que podría existir una forma invisible de materia que creaba la gravedad adicional que aglutinaba a estas galaxias. La denominó “Dunkle Materie” (“materia oscura” en alemán).

Más tarde, en la década de 1970, la astrónoma norteamericana Vera Rubin recurrió a ese concepto para explicar la velocidad anómala de las estrellas en los bordes exteriores de las galaxias espirales. Hoy en día, aunque no todos los astrónomos están de acuerdo sobre la verdadera naturaleza de la materia oscura, su existencia está ampliamente aceptada.

Imagen del cúmulo Bala (formado por dos cúmulos de galaxias en colisión) registrada por el Telescopio Espacial Hubble, el Observatorio de rayos X Chandra de la NASA y el Telescopio Gigante Magallanes terrestre. La materia visible aparece en tonalidades rosas, mientras que la materia oscura del cúmulo se muestra en colores azules. Esta observación constituye uno de los ejemplos directos más claros de la existencia de materia oscura. Crédito: X-ray: NASA/CXC/CfA/M.Markevitch, Optical and lensing map: NASA/STScI, Magellan/U.Arizona/D.Clowe, Lensing map: ESO WFI.
CC BY

La materia oscura constituye la mayor parte de la masa de las galaxias y cúmulos galácticos. Los astrónomos estiman que la materia visible constituye solo alrededor del 5 % del universo, mientras que la materia oscura representa alrededor del 27 %. El 68 % restante correspondería a energía oscura y sería responsable de la expansión acelerada del universo, aunque se desconoce aún su naturaleza exacta.

Distrubición en el universo de la materia ordinaria o visible (5%), materia oscura (27%) y energía oscura (68%). Créditos: NASA’s Goddard Space Flight Center.
CC BY

Emiten radiación muy energética al aniquilarse

Tal como comentamos anteriormente, estas partículas de materia oscura son indetectables por cualquier telescopio, dado que no emiten ni absorben luz en ninguna longitud de onda. Cabe preguntarse ahora, ¿cómo pueden ser detectadas mediante observaciones directas?

La buena noticia es que al interaccionar, las hipotéticas WIMP se aniquilarían mutuamente produciendo una radiación muy energética en forma de rayos gamma. De hecho, los investigadores analizan los datos del Telescopio Espacial de Rayos Gamma Fermi de la NASA para buscar señales de WIMP interactuando y aniquilándose. Este es el caso de la sorprendente investigación del astrónomo Tomonori Totani.

Así, un exceso de radiación gamma altamente energética en determinadas regiones galácticas tendría su origen en las aniquilaciones de partículas de materia oscura, y podrían ser prueba de la existencia de WIMPs. Lo discutible es si la prueba es concluyente o estamos ante una hipótesis especulativa.

Secuencia del proceso de aniquilación de dos partículas de materia oscura o WIMPs (imágenes superior y central) y la posterior producción de dos fotones de rayos gamma altamente energéticos (imagen inferior). Crédito: NASA/Goddard Space Flight Center.
CC BY

La señal que confirmaría la existencia de la materia oscura

En este nuevo estudio, Totani analizó los datos del halo de la Vía Láctea, una región esférica de estrellas viejas que rodea a nuestra galaxia y con una supuesta alta concentración de materia oscura.

Interpretación artística de los halos interno y externo de la Vía Láctea. Créditos: NASA, ESA, and A. Feild (STScI).
CC BY

El análisis detallado de los datos en esta región galáctica reveló un exceso de radiación gamma altamente energética, alrededor de 20 gigaelectronvoltios (20 GeV). Además, el espectro energético hallado coincide perfectamente con la predicción teórica de la aniquilación de WIMPs, lo que sugiere que las partículas tienen una masa aproximadamente 500 veces mayor que la de un protón.

Mapa de intensidad de radiación gamma en la región de interés del estudio (halo de la Vía Láctea). La barra gris horizontal en la región central corresponde al área del plano galáctico, que se excluyó del análisis. Crédito: Tomonori Totani, Universidad de Tokio.
CC BY

En palabras del autor del estudio: “Detectamos rayos gamma con una energía extremadamente alta, extendiéndose en una estructura similar a un halo hacia el centro de la Vía Láctea. El componente de emisión de rayos gamma se asemeja mucho a la forma esperada del halo de materia oscura”.

Además, este patrón de radiación gamma tan específico no es fácilmente explicable a partir de otros eventos astronómicos alternativos como supernovas o púlsares de rápida rotación.

El trabajo de Totani constituye un indicio plausible de emisión de rayos gamma a partir de aniquilación de materia oscura, aunque no exento de incertidumbre y lejos de ser totalmente concluyente.

La necesaria prudencia ante estos nuevos resultados

“Las afirmaciones extraordinarias requieren evidencia extraordinaria”. Esas palabras de Carl Sagan resumen a la perfección como debe procederse en ciencia ante resultados tan revolucionarios como el propuesto en este nuevo estudio sobre materia oscura.

Este nuevo hallazgo entra ahora en un período de intenso escrutinio y verificación por otros grupos de investigación.

Se deberán realizar análisis independientes para verificar esta característica señal de 20 GeV asociada a partículas WIMP, probablemente en otros ambientes ricos en materia oscura como las galaxias enanas del halo de la Vía Láctea.

Tendremos que esperar para conocer si este interesante trabajo asienta las bases para una detección sólida de la elusiva “materia ausente” que tanto ha desconcertado a los astrónomos en las últimas décadas.

The Conversation

Óscar del Barco Novillo no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. La materia oscura del universo podría haber sido observada por primera vez – https://theconversation.com/la-materia-oscura-del-universo-podria-haber-sido-observada-por-primera-vez-270690

Le climat est-il vraiment seul responsable de l’augmentation du degré d’alcool des vins ?

Source: The Conversation – in French – By Léo Mariani, Anthropologue, Maître de conférence Habilité à diriger des recherches, Muséum national d’histoire naturelle (MNHN)

La précocité des vendanges que l’on observe depuis quelques années a été favorisée par le changement climatique. Mais la hausse du degré d’alcool dans les vins est aussi le fruit d’une longue tradition qui emprunte à l’histoire, au contexte social et aux progrès techniques, et qui a façonné la définition moderne des appellations d’origine protégée. Autrement dit, le réchauffement du climat et celui des vins, entraîné par lui, ne font qu’exacerber un phénomène ancien. C’est l’occasion d’interroger tout un modèle vitivinicole.


Dans l’actualité du changement climatique, la vitiviniculture a beaucoup occupé les médias à l’été 2025. En Alsace, les vendanges ont débuté un 19 août. Ce record local traduit une tendance de fond : avec le réchauffement des températures, la maturité des raisins est plus précoce et leur sucrosité plus importante. Cela a pour effet de bouleverser les calendriers et d’augmenter le taux d’alcool des vins.

La précocité n’est pas un mal en soi. Le millésime 2025 a pu être ainsi qualifié de « très joli » et de « vraiment apte à la garde » par le président d’une association de viticulteurs alsaciens. Ce qui est problématique en revanche, c’est l’augmentation du degré d’alcool : elle est néfaste pour la santé et contredit l’orientation actuelle du marché, plutôt demandeur de vins légers et fruités. Autrement dit, le public réclame des vins « à boire » et non « à garder », alors que la hausse des températures favorise plutôt les seconds.

Il faudrait préciser pourtant que l’augmentation des niveaux d’alcool dans les vins n’est pas nouvelle. Elle est même décorrélée du changement climatique :

« Les vins se sont réchauffés bien avant le climat »,

me souffle un jour un ami vigneron. Autrement dit, l’augmentation du degré d’alcool dans les vins a suivi un mouvement tendanciel plus profond au cours de l’histoire, dont on va voir qu’il traduit une certaine façon de définir la « qualité du vin ».

Se pose donc la question de savoir qui a « réchauffé » qui le premier ? Le climat en portant à maturité des grappes de raisins plus sucrées ? ou le savoir-faire des viticulteurs, qui a favorisé des vins plus propices à la conservation – et donc plus alcoolisés ? Postulons que le climat ne fait aujourd’hui qu’exacerber un problème qu’il n’a pas créé le premier. En lui faisant porter seul la responsabilité de la hausse de l’alcool dans les vins, on s’empêche de bien définir ce problème.

De plus, on inverse alors le sens des responsabilités : la vitiviniculture, en tant qu’activité agricole émettrice de gaz à effet de serre, participe à l’augmentation des températures – et cela bien avant que le changement climatique ne l’affecte en retour.




À lire aussi :
Vin et changement climatique, 8 000 ans d’adaptation


Quand la définition des AOP fait grimper les degrés

Disons-le sans détour, l’instauration des appellations d’origine protégée AOP constitue un moment objectif de la hausse des taux d’alcool dans les vins. Dans certaines appellations du sud-est de la France, où j’ai enquêté, elle est parfois associée à des écarts vertigineux de deux degrés en trois à dix ans.

Il faut dire que les cahiers des charges des AOP comportent un « titre alcoométrique volumique naturel minimum » plus élevé que celui des autres vins : l’alcool est perçu comme un témoin de qualité.

Mais il n’est que le résultat visible d’une organisation beaucoup plus générale : si les AOP « réchauffent » les vins, souvent d’ailleurs bien au-delà des minima imposés par les AOP, c’est parce qu’elles promeuvent un ensemble de pratiques agronomiques et techniques qui font augmenter mécaniquement les niveaux d’alcool.

C’est ce paradigme, qui est associé à l’idée de « vin de garde », dont nous allons expliciter l’origine.

Les « vins de garde » se généralisent sous l’influence de l’État, de la bourgeoisie et de l’industrie

Contrairement à une idée répandue, le modèle incarné par les AOP n’est pas représentatif de l’histoire vitivinicole française en général.

Napoléon III, en voulant développer le commerce du vin avec l’Angleterre, a favorisé l’émergence du standard des vins de garde.
Jean Hippolyte Flandrin

Les « vins de garde » n’ont rien d’un canon immuable. Longtemps, la conservation des vins n’a intéressé que certaines élites. C’est l’alignement progressif, en France, des intérêts de l’une d’elles en particulier, la bourgeoisie bordelaise du XIXe siècle, de ceux de l’État et de ceux de l’industrie chimique et pharmaceutique, qui est à l’origine de la vitiviniculture dont nous héritons aujourd’hui.

L’histoire se précipite au milieu du XIXe siècle : Napoléon III signe alors un traité de libre-échange avec l’Angleterre, grande consommatrice de vins, et veut en rationaliser la production. Dans la foulée, son gouvernement sollicite deux scientifiques.

Au premier, Jules Guyot, il commande une enquête sur l’état de la viticulture dans le pays. Au second, Louis Pasteur, il confie un objectif œnologique, car l’exportation intensive de vins ne demande pas seulement que l’on gère plus efficacement la production. Elle exige aussi une plus grande maîtrise de la conservation, qui offre encore trop peu de garanties à l’époque. Pasteur répondra en inventant la pasteurisation, une méthode qui n’a jamais convaincu en œnologie.




À lire aussi :
Louis Pasteur : l’empreinte toujours d’actualité d’un révolutionnaire en blouse


Sur le principe, la pasteurisation anticipe toutefois les grandes évolutions techniques du domaine, en particulier le développement du dioxyde de soufre liquide par l’industrie chimique et pharmaceutique de la fin du XIXe siècle. Le dioxyde de soufre (SO2) est un puissant conservateur, un antiseptique et un stabilisant.

Carte des principaux crus de la région bordelaise.
DemonDeLuxe/WikiCommons, CC BY-SA

Il va permettre un bond en avant dans la rationalisation de l’industrie et de l’économie du vin au XXe siècle (les fameux sulfites ajoutés pour faciliter la conservation), au côté d’autres innovations techniques, comme le développement des levures chimiques. En cela, il va être aidé par la bourgeoisie française, notamment bordelaise, qui investit alors dans la vigne pour asseoir sa légitimité. C’est ce groupe social qui va le plus bénéficier de la situation, tout en contribuant à la définir. Désormais, le vin peut être stocké.

Cela facilite le développement d’une économie capitaliste rationnelle, incarnée par le modèle des « vins de garde » et des AOP ainsi que par celui des AOC et des « crus ».

Ce qu’il faut pour faire un vin de garde

Bien sûr ce n’est pas, en soi, le fait de pouvoir garder les vins plus longtemps qui a fait augmenter les taux d’alcool. Mais l’horizon esthétique que cette capacité a dessiné.

Un vin qui se garde, c’est en effet un vin qui contient plus de tanins, car ceux-ci facilitent l’épreuve du temps. Or pour obtenir plus de tanins, il faut reculer les vendanges et donc augmenter les niveaux d’alcool, qui participent d’ailleurs aussi à une meilleure conservation.

Les vins de garde sont vieillis en fûts de chêne, ce qui a contribué à en façonner le profil aromatique.
Mark Stebnicki/Pexels, CC BY

Ensuite, la garde d’un vin dépend du contenant dans lequel il est élevé. En l’espèce, c’est le chêne, un bois tanique qui a été généralisé (déterminant jusqu’à la plantation des forêts françaises). Il donne aujourd’hui les arômes de vanille aux vins de consommation courante et le « toasté » plus raffiné de leurs cousins haut de gamme.

La garde d’un vin dépend également des choix d’encépagement. En l’espèce, les considérations relatives à la qualité des tanins et/ou à la couleur des jus de raisin ont souvent prévalu sur la prise en compte de la phénologie des cépages (c’est-à-dire, les dates clés où surviennent les événements périodiques du cycle de vie de la vigne).

Grappes de raisin de variété syrah.
Hahn Family Wines/WIki Commons, CC BY

Ceci a pu favoriser des techniques de sélection mal adaptées aux conditions climatiques et des variétés qui produisent trop d’alcool lorsqu’elles sont plantées hors de leur région d’origine, par exemple la syrah dans les Côtes du Rhône septentrionales.

En effet, la vigne de syrah résiste très bien à la chaleur et les raisins produisent une très belle couleur, raison pour laquelle ils ont été plantés dans le sud. Mais le résultat est de plus en plus sucré, tanique et coloré : la syrah peut alors écraser les autres cépages dans l’assemblage des côtes-du-rhône.

On pourrait évoquer enfin, et parmi beaucoup d’autres pratiques techniques, les vendanges « en vert », qui consiste à éclaircir la vigne pour éviter une maturation partielle du raisin et s’assurer que la vigne ait davantage d’énergie pour achever celle des grappes restant sur pied. Ceci permet d’augmenter la concentration en arômes (et la finesse des vins de garde), mais aussi celle du sucre dans les raisins (et donc d’alcool dans le produit final).

C’est tout un monde qui s’est donc organisé pour produire des vins de garde, des vins charpentés et taillés pour durer qui ne peuvent donc pas être légers et fruités, comme semblent pourtant le demander les consommateurs contemporains.

« Sans sulfites », un nouveau modèle de vins « à boire »

Ce monde, qui tend à réchauffer les vins et le climat en même temps, n’est pas représentatif de l’histoire vitivinicole française dans son ensemble. Il résulte de la généralisation d’un certain type de rapport économique et esthétique aux vins et à l’environnement.

C’est ce monde dans son entier que le réchauffement climatique devrait donc questionner lorsqu’il oblige, comme aujourd’hui, à ramasser les raisins de plus en plus tôt… Plutôt que l’un ou l’autre de ces aspects seulement.

Comme pistes de réflexion en ce sens, je propose de puiser l’inspiration dans l’univers émergent des vins « sans soufre » (ou sans sulfites) : des vins qui, n’étant plus faits pour être conservés, contiennent moins d’alcool. Ces vins sont de surcroît associés à beaucoup d’inventivité technique tout en étant écologiquement moins délétères, notamment parce qu’ils mobilisent une infrastructure technique bien plus modeste et qu’ils insufflent un esprit d’adaptation plus que de surenchère.

Leur autre atout majeur est de reprendre le fil d’une vitiviniculture populaire que l’histoire moderne a invisibilisée. Ils ne constitueront toutefois pas une nouvelle panacée, mais au moins une piste pour reconnaître et valoriser les vitivinicultures passées et présentes, dans toute leur diversité.


Ce texte a fait l’objet d’une première présentation lors d’un colloque organisé en novembre 2025 par l’Initiative alimentation de Sorbonne Université.

The Conversation

Léo Mariani ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le climat est-il vraiment seul responsable de l’augmentation du degré d’alcool des vins ? – https://theconversation.com/le-climat-est-il-vraiment-seul-responsable-de-laugmentation-du-degre-dalcool-des-vins-270501