L’espace au service du climat : comment exploiter l’extraordinaire masse de données fournies par les satellites ?

Source: The Conversation – France in French (2) – By Carine Saüt, Chercheuse en sciences de l’atmosphère, Centre national d’études spatiales (CNES)

En scrutant pour nous la Terre depuis le ciel, les satellites nous permettent de suivre ses évolutions et de guider l’action environnementale. Ici, l’Everest vu depuis le ciel par un satellite Pléiades. Cnes/Distribution Airbus DS, Fourni par l’auteur

La somme d’informations que nous transmettent les satellites sur notre planète est colossale. Aujourd’hui, le défi est d’obtenir des données de meilleure qualité encore, et surtout de les faire parvenir jusqu’aux décideurs sous une forme utile et exploitable.


Depuis quarante ans, les données d’observation de la Terre se sont imposées comme l’un des outils les plus puissants pour mieux comprendre notre planète et suivre les effets de nos actions pour la préserver. Longtemps réservée aux chercheurs et aux agences spatiales, elle irrigue désormais l’action publique, l’économie et les aspects de politique de défense nationale. Mais cette richesse de données exceptionnelles reste largement sous-exploitée, notamment du côté des décideurs publics. Nous disposons d’un trésor dont nous ne tirons pas encore tout le potentiel pour éclairer les décisions ou accélérer la transition écologique.

Chaque jour, les satellites d’agences nationales, dont ceux opérés par le Centre national d’études spatiales (Cnes), ceux du programme européen Copernicus ou encore ceux des constellations commerciales observent la Terre. Ils produisent une somme gigantesque d’informations : températures de surface, concentrations de gaz, humidité des sols, couverture par la végétation, hauteur des vagues, courants marins… La liste est longue, il pleut littéralement de la donnée. La force de ces données ne réside pas seulement dans la quantité, mais surtout dans leur capacité à couvrir de façon homogène l’ensemble de la planète, y compris les zones les plus difficiles d’accès. L’espace se met donc au service de l’adaptation au changement climatique et les données d’observation de la terre deviennent un outil de décision pour mieux comprendre, agir et anticiper.

Représentation d’artiste de deux satellites en orbite autour de la Terre
Les satellites de la mission CO3D ont pour ambition de cartographier la surface de la Terre en 3D au mètre près. Une quantité de données impressionnantes pour guider la prise de décision.
Cnes/Reactive Prod, Fourni par l’auteur

Les satellites offrent un niveau d’objectivité rare : ils observent tout, partout, sans être influencés par les frontières administratives ou les intérêts locaux. Alors que les données terrestres peuvent être fragmentées ou hétérogènes, les satellites offrent une mesure fiable, continue, homogène et donc comparable d’un pays à l’autre. Ensuite, les progrès technologiques ont permis des évolutions rapides : une résolution améliorée, une fréquence d’observation accrue, des capteurs de différentes natures. Autrefois on était seulement capable de prendre une photographie par mois, alors qu’aujourd’hui, la surveillance est quasi permanente. Depuis l’espace, nous obtenons une vision factuelle, indépendante et systématique du monde.

De nombreuses applications pour les données satellitaires

La donnée d’observation de la Terre soutient les politiques publiques en irriguant déjà une multitude de domaines. Concernant la sécurité alimentaire et la gestion des ressources en eaux, les satellites apportent des informations sur le stress hydrique pour anticiper des épisodes de sécheresse et ainsi mieux gérer les pratiques d’irrigation, mais également quant au suivi de la croissance des cultures ou pour estimer les rendements agricoles.

Ils aident également à gérer les risques naturels en fournissant une surveillance des zones à risque pour le suivi des incendies, notamment des mégafeux, ou des inondations. Ils permettent de dresser des cartographies entre avant et après les catastrophes naturelles pour aider l’intervention des secours et soutenir la reconstruction de l’écosystème endommagé. Le suivi par satellite permet également le suivi de la santé des arbres et de la déforestation, des zones côtières et de l’état des zones humides.

Vue aérienne de Venise et de la lagune environnante
Les données satellitaires permettent de suivre les événements climatiques extrêmes, notamment pour des zones à risque, comme Venise, ici photographiée par un des satellites Pléiades.
Cnes/Distribution Airbus DS, Fourni par l’auteur

Enfin, l’observation depuis l’espace permet de mesurer les émissions de gaz à effet de serre. À l’heure actuelle, les inventaires nationaux, basés sur des modèles statistiques ou des estimations, sont trop lents pour réagir face à la rapidité de la crise climatique, puisqu’on constate un décalage de plusieurs années (entre deux à quatre ans) entre l’émission réelle et la donnée officielle. Dans un contexte où les décisions doivent être rapides, ce délai est problématique. En observant la composition de l’atmosphère, les satellites peuvent détecter les panaches de méthane et de CO2 quasiment en temps réel. Ils identifient ainsi des fuites ou des anomalies localisées qui échappent parfois totalement aux inventaires classiques.

D’autres acteurs peuvent bénéficier des informations issues des satellites, pour orienter les politiques publiques en termes d’aménagement du territoire, notamment par l’observation des îlots de chaleur urbains, la mesure de la qualité de l’air ou bien la planification d’actions de verdissements des zones et espaces urbains.

Après avoir produit de la donnée, réussir à la valoriser

Les données d’observation de la terre s’inscrivent donc dans plusieurs domaines en dotant les décideurs publics d’un outil transversal diagnostiquant notre planète de manière continue, précise et à des échelles locales, régionales ou mondiales. C’est là que se joue l’un des défis majeurs : rendre ces outils accessibles aux acteurs publics, aux élus, et aussi aux entreprises et aux citoyens. Les plates-formes de visualisation et les services d’analyse qui émergent aujourd’hui répondent à ce besoin en traduisant la complexité scientifique en informations compréhensibles, opérationnelles, et donc à terme en actions.

Cependant, malgré leur potentiel considérable ainsi que leur qualité et leur performance opérationnelle déjà démontrée, les données spatiales peinent à trouver leur place au sein des administrations et des entreprises. En effet, il s’agit d’un univers technique complexe. Les données brutes sont massives, spécialisées, souvent difficiles à interpréter. Leur analyse requiert des expertises précises : traitement d’images satellitaires, science des données, modélisation atmosphérique…

Nous observons donc un gouffre entre l’accès de plus en plus facilité aux données d’observation de la Terre et la capacité à les utiliser en toute confiance en l’intégrant dans les chaînes de prise de décisions. Même si la majorité des données est ouverte et gratuite, cela ne suffit pas. Il faut des plates-formes, des services, des outils visuels pour les rendre intelligibles, avec des interfaces pensées pour le suivi d’une application de politique publique. Les élus, à titre d’exemple, n’ont pas vocation à manipuler des gigaoctets de données, ils ont besoin de visualisations simples, d’indicateurs synthétiques, de cartographies claires. L’expertise doit précéder pour interpréter les données et les rendre véritablement utiles pour les décideurs.

Combiner les données dans des outils clairs et pratiques

Pour déverrouiller ces usages, plusieurs leviers se développent. Il s’agit, entre autres, de croiser des données de natures différentes. Cette combinaison permet de fournir des informations fondées sur les données d’observation de la Terre directement exploitables, plus fiables, plus interprétables et mieux contextualisées au besoin de l’utilisateur.

Les données d’observation de la Terre changent la donne en offrant la capacité de voir notre planète autrement. L’observation spatiale ne résoudra pas d’elle-même la crise climatique mais, combinée à d’autres sources de données, elle apporte quelque chose d’essentiel : une vision objective, continue, indépendante et globale de l’état de la planète. Ces informations sont devenues indispensables aux collectivités qui doivent désormais anticiper, et non seulement réagir.

Les données d’observation de la Terre permettent de mesurer plus vite, comprendre plus finement et décider plus efficacement, dès lors que l’information qui en découle est accessible, lisible et traduite en indicateurs exploitables. Notre rôle au Cnes est de valoriser ces données pour leur donner du sens et en faire un levier d’action. Parmi les applications les plus prometteuses et stratégiques liées à l’adaptation au changement climatique dans les politiques publiques, il ressort que l’enjeu n’est pas seulement de mesurer, mais de mesurer plus vite et plus précisément, pour mieux anticiper.

The Conversation

Carine Saüt ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’espace au service du climat : comment exploiter l’extraordinaire masse de données fournies par les satellites ? – https://theconversation.com/lespace-au-service-du-climat-comment-exploiter-lextraordinaire-masse-de-donnees-fournies-par-les-satellites-273162

Quelles perspectives pour les budgets des collectivités territoriales ?

Source: The Conversation – France (in French) – By Sébastien Bourdin, Professeur de géographie économique, IÉSEG School of Management

En vue des élections municipales, l’équation du budget des collectivités locales semble insoluble : l’État souhaite réduire son financement, les candidats proposent de renforcer les services publics. En parallèle, les dépenses des administrations publiques locales (APUL) explosent et la suppression de la taxe d’habitation se fait ressentir dans les communes. Alors, comment rétablir un équilibre ?


Les collectivités territoriales sont appelées à la sobriété… mais doivent être toujours plus attractives pour faire venir sur leur territoire des entreprises, des cadres et des touristes tout en maintenant les résidents sur place et éviter les délocalisations. À l’approche des élections municipales des 15 et 22 mars 2026, la tension est d’autant plus forte que les attentes locales – services publics, transition écologique, sécurité du quotidien – montent, tandis que l’État cherche à contenir la dépense publique.

Dix ans après les débats de la « réforme territoriale », l’enjeu central n’est plus seulement institutionnel, il est budgétaire et macroéconomique. En 2024, les dépenses des administrations publiques locales (APUL) atteignent 329,7 milliards d’euros, dont une augmentation de 7 % rien qu’en 2023. Structurellement, le fonctionnement pèse lourd : environ 76 % des dépenses des APUL relèvent du fonctionnement, contre 24 % pour l’investissement.

Les interrogations sur les économies budgétaires possibles sont nombreuses et les solutions ne coulent pas toujours de source. Si la nécessité d’un redressement des finances publiques ne fait plus aucun doute, il convient de s’interroger sur la manière dont il est réalisé et les conséquences qu’il a sur les collectivités.

Dépenses peu compressibles à court terme

À l’approche des municipales de mars 2026, la question budgétaire devient un sujet de campagne à part entière. Les équipes sortantes doivent montrer des résultats, tout en démontrant qu’elles savent tenir une trajectoire financière crédible.

L’enjeu est de piloter finement les charges et les priorités. En pratique, les marges se jouent moins sur des « grands soirs » institutionnels que sur quatre postes très concrets : la masse salariale, l’énergie, les achats/contrats, et le coût de la dette. Or, le cœur des budgets locaux est composé de dépenses peu compressibles à court terme – écoles, crèches, propreté, eau-déchets, action sociale, mobilités ou entretien du patrimoine –, ce qui limite les coupes rapides sans effet sur la qualité du service rendu.

Dans les communes de 3 500 habitants et plus, près de 35 € sur 100 de fonctionnement financent les services généraux, 19 € la culture/sport/jeunesse, et 17 € l’école et le périscolaire. À l’intérieur de ce dernier poste, la restauration scolaire avec 2,9 milliards d’euros, et les écoles maternelles avec deux milliards d’euros pèsent lourd, dont la dépense reste très majoritairement liée au financement du personnel.

La séquence 2022–2024 (inflation, énergie, revalorisations) a déplacé le problème. La question n’est plus seulement « où couper ? », mais « comment arbitrer » entre fonctionnement et investissement ? Ce sans dégrader les services du quotidien, tout en finançant les transitions comme la rénovation énergétique ou l’adaptation aux canicules/inondations ?

D’où un déplacement du débat municipal vers des choix de gestion très opérationnels : mutualisation ciblée, réduction des dépenses « subies » (énergie/achats), priorisation de l’investissement à impact, et transparence sur les coûts complets – maintenance, fonctionnement futur des équipements – avant de lancer de nouveaux projets.

Fonctionnement vs investissement

Trois quarts du budget correspondent au fonctionnement et le dernier quart à l’investissement. La principale difficulté : les collectivités semblent prioriser des baisses sur l’investissement plutôt que sur le fonctionnement – ce qui ne semble pas des plus stratégique si l’on pense à l’intérêt pour elles d’être toujours plus attractives.

Paradoxalement, le cycle électoral pousse aussi à « accélérer » avant le scrutin. La Cour des comptes note une forte hausse de l’investissement en 2024 à + 13,1 % entre janvier-août 2024 et janvier-août 2023, portée notamment par les communes et les intercommunalités qui cherchent à livrer des projets avant les élections.

Le risque est double : un pic d’investissement prémunicipal, puis un « trou d’air » après 2026, au moment même où les besoins de transition écologique et les besoins en services publics deviennent structurels. C’est exactement le type d’arbitrage qui, à moyen terme, affaiblit l’attractivité – mobilités, écoles, équipements, qualité urbaine – et renchérit les coûts futurs – entretien différé, vulnérabilité climatique.

Dépendance accrue à l’État central

Au cœur de l’ajustement se trouve toujours la question des ressources, et notamment des transferts de l’État. La dotation globale de fonctionnement (DGF) reste la principale dotation de fonctionnement : 27,4 milliards d’euros en 2025 en moyenne. Elle représente environ 15 % du budget des communes, 18 % de celui des établissements publics de coopération intercommunale (EPCI) et 11 % du budget des départements.

Depuis dix ans, la vraie bascule est ailleurs, avec la montée de la fiscalité « transférée » (par l’État) et de la TVA dans le panier de recettes des collectivités. Cette nouvelle donne change la nature de l’autonomie locale. En clair, une partie croissante des ressources locales ne dépend plus d’un « impôt dont on vote le taux », mais de recettes nationales « affectées », notamment des fractions de TVA. Elles sont souvent plus stables, mais beaucoup moins pilotables par les élus.

Deux réformes ont tout particulièrement reconfiguré les budgets locaux. En premier lieu, la suppression de la taxe d’habitation sur les résidences principales (effective pour tous depuis le 1er janvier 2023), qui a fait disparaître un levier fiscal très visible politiquement. En deuxième lieu, la trajectoire de suppression de la cotisation sur la valeur ajoutée des entreprises (CVAE). Son taux a été divisé par deux en 2023. Son calendrier a été de nouveau révisé ; la loi de finances pour 2025 a reporté sa suppression totale à 2030, avec une baisse progressive des taux.




À lire aussi :
CVAE, Territoires d’industrie : les contradictions de la politique de réindustrialisation à la française


Conséquence : une partie décisive des recettes locales dépend désormais de la conjoncture nationale… et des arbitrages budgétaires de l’État.

Financer la transition écologique

La contrainte 2026 n’est pas seulement comptable, elle est aussi climatique. Les collectivités portent une grande partie de l’investissement public civil et des politiques concrètes liées à la transition écologique – bâtiments, mobilités, aménagement, friches, renaturation. Or leur capacité d’autofinancement est fragilisée quand le fonctionnement dérive.

De ce point de vue, la montée en puissance des subventions est devenue centrale. Le « Fonds vert » illustre cette logique. Reconduit en 2025 avec une enveloppe annoncée de 1,15 milliard d’euros, il a financé plus de 19 000 projets en 2023-2024 pour 3,6 milliards d’euros de subventions. Son niveau futur est débattu. Un rapport budgétaire du Sénat sur le projet de loi de finances (PLF) 2026 évoque une forte baisse des autorisations d’engagement à 650 millions d’euros, tout en maintenant des crédits de paiement élevés.

Les dépenses de personnel, une vraie ligne de crête

Une critique revient systématiquement : l’augmentation du personnel au sein des communes et des intercommunalités au cours des dix dernières années. Cette hausse des effectifs est la conséquence d’une décentralisation accélérée (davantage de compétences déléguées aux collectivités) et de réformes qui ont transféré des charges. En 2026, le sujet se durcit, car la masse salariale est devenue l’un des moteurs principaux du fonctionnement, tout en conditionnant la qualité du service rendu.

Les collectivités territoriales comptent deux millions d’agents et le bloc communal concentre plus d’un million de postes. L’école et la petite enfance représentent à elles seules des dizaines de milliers d’agents – près de 40 000 agents territoriaux spécialisés des écoles maternelles (Atsem), plus de 70 000 adjoints techniques des établissements d’enseignement, plus de 29 000 auxiliaires de puériculture, etc.

La hausse récente des effectifs se concentre surtout du côté des intercommunalités et de quelques filières en croissance rapide (police municipale, animation), sur fond de progression marquée des contractuels.

Couper dans les dépenses de fonctionnement n’est pas si simple si l’on veut assurer un service public de qualité… auquel les résidents sont aussi très sensibles. Trouver l’équilibre entre recettes et dépenses n’est pas chose aisée. C’est ici que des stratégies peuvent être mises en place :

  • Mutualiser ce qui est mutualisable : fonctions support, achats, informatique, etc.

  • Ajuster les effectifs en fonction des priorités de service, plutôt que de recruter poste par poste, au gré des urgences et des remplacements.

  • Sécuriser les contrats et les consommations : énergie, prestations, etc.

  • Partager l’ingénierie à l’échelle intercommunale, et généraliser une logique d’évaluation (quels dispositifs coûtent cher pour peu d’impact) avant d’ajouter de nouvelles dépenses récurrentes.

Dans le contexte de grande incertitude dans lequel le personnel est plongé actuellement, la communication et la concertation sont essentielles pour assurer une transition.

The Conversation

Sébastien Bourdin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quelles perspectives pour les budgets des collectivités territoriales ? – https://theconversation.com/quelles-perspectives-pour-les-budgets-des-collectivites-territoriales-273275

Pourquoi la mise en œuvre de la durabilité échoue souvent, même quand tout le monde est d’accord

Source: The Conversation – France (in French) – By Lucas Amaral, Associate Professor, IÉSEG School of Management

Si la durabilité est si difficile à mettre en œuvre dans les entreprises, ce n’est pas seulement une question de volonté individuelle ou de structures inadaptées. Le problème se joue dans la manière dont les pratiques de durabilité prennent forme, se déploient et se transforment au quotidien.


Aujourd’hui, la durabilité est à la fois largement reconnue et de plus en plus contestée. D’un côté, les effets du changement climatique sont visibles, et de nombreux acteurs économiques et sociaux reconnaissent la nécessité d’agir. De l’autre, certaines décisions politiques, comme le retrait des États-Unis de plusieurs accords climatiques sous l’administration Trump, illustrent une remise en cause explicite de ces engagements.

Réduire les difficultés de la durabilité à ces oppositions visibles serait trompeur. Le problème se pose aussi, et peut-être surtout, là où la durabilité est officiellement soutenue : dans de nombreuses entreprises, des équipes spécialisées existent, des objectifs sont fixés et la direction affiche son engagement.

Problématiques silos

Les explications avancées pour comprendre cet écart entre intentions et résultats reviennent le plus souvent à deux facteurs. D’une part, l’organisation du travail en silos – structurée par fonctions ou départements relativement autonomes, chacun poursuivant ses propres objectifs, indicateurs et priorités – difficilement conciliable avec les exigences transversales de la durabilité. D’autre part, la résistance des individus : manque d’adhésion, inertie, priorités concurrentes, habitudes difficiles à changer.




À lire aussi :
Fini les coûts-bénéfices, place aux co-bénéfices


Ces deux lectures ne sont pas infondées. Mais elles restent partielles lorsqu’elles sont mobilisées séparément. Elles reposent sur l’idée que l’on pourrait corriger les difficultés de la durabilité en ajustant soit les comportements individuels, soit les structures organisationnelles. Or, les organisations sont des systèmes de relations interdépendantes, dans lesquels des dynamiques émergent de l’interaction entre acteurs, structures et pratiques.

Notre recherche récente montre justement que lorsque la durabilité entre dans l’organisation, elle se heurte à des obstacles qui passent souvent inaperçus, non pas parce qu’ils relèvent de décisions explicites, mais parce qu’ils émergent des pratiques de durabilité et des interactions qu’elles imposent au quotidien.

Quand les pratiques deviennent le cœur du problème

Ce que l’on sous-estime souvent, au-delà des individus et des structures, ce sont les caractéristiques mêmes des pratiques de durabilité. Contrairement à d’autres initiatives managériales, elles sont rarement simples ou facilement standardisables. Elles mobilisent plusieurs expertises, traversent les frontières organisationnelles et reposent sur de fortes interdépendances entre différents acteurs.

Réduire les émissions, transformer une chaîne d’approvisionnement ou intégrer des critères sociaux dans les décisions quotidiennes ne relève pas d’une procédure isolée. Cela suppose un travail continu d’ajustement, de négociation et d’arbitrage dans le temps, qui se joue dans les interactions quotidiennes entre métiers, équipes et niveaux hiérarchiques, par exemple lorsque des objectifs de coûts, de délais et de performance entrent en tension avec des exigences environnementales ou sociales.

C’est dans ce contexte que cette organisation du travail devient problématique. Elle est efficace pour gérer la spécialisation et la performance locale, mais elle entre en tension avec des pratiques qui exigent coordination, arbitrage et continuité dans le temps.

Quand les solutions transversales atteignent leurs limites

Plus les pratiques de durabilité sont complexes et interdépendantes, plus elles deviennent vulnérables à la fragmentation du travail. C’est alors une série d’ajustements locaux, souvent invisibles mais parfaitement rationnels, qui finissent par éroder la portée des engagements affichés.

Le cœur du problème ne tient donc ni uniquement aux structures organisationnelles, ni aux comportements individuels, mais au décalage entre la complexité des pratiques de durabilité et les dispositifs mobilisés pour les mettre en œuvre. Les organisations répondent fréquemment par des projets transversaux, des groupes de travail ou des équipes dédiées – par exemple pour piloter une trajectoire carbone ou intégrer des critères ESG – sans toujours mesurer ce que ces pratiques exigent concrètement au quotidien.

Dans la pratique, cela signifie que la durabilité repose sur une multitude d’interactions ordinaires : un acheteur arbitrant entre un fournisseur moins cher et un fournisseur plus vert, un manager priorisant un délai de production face à un objectif environnemental, ou une équipe tentant d’intégrer des critères sociaux dans des décisions déjà fortement contraintes. Comprendre pourquoi la durabilité échoue souvent suppose donc de s’intéresser moins à ce qui « résiste » ou à ce qui serait « mal structuré », qu’aux défis relationnels que les pratiques génèrent in situ, au cœur du travail quotidien.

The Conversation

Lucas Amaral ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Pourquoi la mise en œuvre de la durabilité échoue souvent, même quand tout le monde est d’accord – https://theconversation.com/pourquoi-la-mise-en-oeuvre-de-la-durabilite-echoue-souvent-meme-quand-tout-le-monde-est-daccord-274209

Peut-on faire du vin en combinaison de surf ?

Source: The Conversation – France (in French) – By Magalie Dubois, Docteur en Economie du vin, Burgundy School of Business

Pendant que la France défend ses traditions, l’Afrique du Sud réinvente tout : vignerons surfeurs, domaines ouverts aux familles, safaris dans les vignobles. Un autre monde viticole.


Tous les ans à Stilbaai, sur la côte sud du Cap (Afrique du Sud), une compétition de surf unique au monde, la Vintners Surf Classic, réunit les vignerons sud-africains. La condition pour participer ? Apporter cinq litres de son meilleur vin rouge. Les vins collectés sont ensuite assemblés pour créer « The Big Red », édition collector vendue aux enchères au profit de Surf4Life, association qui initie les jeunes défavorisés au surf. Cette compétition incarne bien l’esprit de la viticulture sud-africaine moderne : libre, engagée et inclusive.

Trois siècles d’évolution viticole

L’industrie viticole sud-africaine est plus ancienne qu’on ne pourrait le croire. L’histoire débute le 2 février 1659, lorsque Jan van Riebeeck note dans son journal : « Aujourd’hui, grâce à Dieu, du vin a été fait pour la première fois à partir de raisins du Cap. » Mais c’est véritablement l’arrivée des huguenots français à partir de 1685, fuyant la persécution après la révocation de l’édit de Nantes par Louis XIV, qui transforme la viticulture locale. Cette même année, Simon van der Stel, commandeur puis gouverneur du Cap pour le compte de la Compagnie néerlandaise des Indes orientales (VOC), fonde Groot Constantia (Western Cape), aujourd’hui le plus ancien domaine encore en activité du pays.

Les vignerons expérimentés de la vallée de la Loire apportent avec eux les boutures de leurs vignes, notamment le Chenin blanc. Productif, polyvalent et résistant à la chaleur, ce cépage se révèle parfaitement adapté au climat sud-africain. Aujourd’hui la production sud-africaine de chenin blanc représente plus de 50 % de la production mondiale. En 2016, la viticultrice Rosa Kruger lance Old Vine Project, premier programme au monde à certifier l’âge des vignes avec leur date de plantation.

Cette initiative visant à identifier et préserver les vignobles de plus de trente-cinq ans a joué un rôle clef dans le changement de perception internationale du vin sud-africain, repositionnant le pays comme gardien d’un patrimoine viticole précieux. Ironie de l’histoire : certains clones de Chenin blanc, descendants des boutures apportées par les huguenots, sont aujourd’hui éteints en France. Ces clones sud-africains sont désormais préservés dans un jardin clonal français et étudiés comme solution d’adaptation au changement climatique.

De ces racines du XVIIᵉ siècle, l’Afrique du Sud s’est hissée au rang de 8ᵉ producteur mondial de vin. Mais contrairement à l’image romantique des petits domaines familiaux français, l’industrie sud-africaine est beaucoup moins atomisée : quatre acteurs principaux (dont KWV et Heineken Beverages) représentent 65 % de la production totale. Héritage d’une industrie historiquement axée sur le vrac, cette concentration a toutefois évolué depuis la fin du boycott au début des années 1990.

La reconnaissance internationale est aujourd’hui au rendez-vous. Plusieurs domaines sud-africains figurent désormais parmi les meilleurs au monde, acclamés par la critique internationale. Certains producteurs, comme Eben Sadie (The Sadie Family), ne parviennent plus à satisfaire la demande et fonctionnent désormais sur le système d’allocations utilisé en France dans les propriétés les plus recherchées.

La montée en puissance du pays sur la scène viticole mondiale culmine en octobre 2024 avec l’élection d’Yvette van der Merwe à la présidence de l’Organisation internationale de la vigne et du vin (OIV). Elle est la première femme africaine à diriger l’OIV depuis sa création il y a un siècle.

Toutefois, l’accès à la terre demeure un obstacle majeur pour de nombreux producteurs indépendants. Les lois locales limitant le morcellement des grandes exploitations, ces derniers doivent soit acheter des raisins, soit louer des parcelles sans la sécurité qu’offre la propriété foncière, ce qui limite leurs investissements à long terme.

Un autre monde viticole

Quand les vignerons français taillent leurs vignes dans le froid de janvier, leurs homologues sud-africains vendangent en plein été austral. L’orientation des vignobles s’inverse également : dans l’hémisphère Sud, ce sont les versants nord qui reçoivent le plus de rayonnement solaire. Résultat ? Les versants sud, recherchés en France pour leur ensoleillement privilégié, sont en Afrique du Sud mis à profit pour leur fraîcheur.

Autre différence de taille avec la France : Le Wine of Origin Scheme (système d’indication géographique sud-africain) certifie l’origine, le millésime et le cépage, mais n’impose pas les variétés cultivées ni leur mode de culture. Les vignerons peuvent donc planter les cépages de leur choix où bon leur semble et irriguer librement.

Ce qui constituerait une hérésie dans la plupart des appellations françaises est ici une nécessité face aux sécheresses récurrentes du Cap et aux températures qui peuvent atteindre 40 °C en plein été. Fort heureusement, les vignobles sud-africains comptent de nombreux microclimats, et les vignerons peuvent trouver de la fraîcheur en altitude ou à proximité des côtes. Le Cape Doctor, ce vent du sud-est, refroidi par le courant froid du Benguela est également un allié de taille pour modérer la chaleur intense des étés sud-africains.

Des raisins pour les babouins

Les vignerons français sont aux prises avec les sangliers, en Afrique du Sud ce sont les babouins qui viennent se servir dans les vignes. À Klein Constantia, en période de vendange les équipes affrontaient des dizaines de primates par jour. Et s’en protéger coûte cher : clôtures électriques, surveillance à plein temps, systèmes GPS. Mais malgré les investissements les babouins sont extrêmement habiles à développer des stratégies de contournement. En désespoir de cause quelques rangs ont finalement été plantés de l’autre côté des clôtures pour assouvir l’appétit des primates et éviter les dégâts.

Cette cohabitation forcée avec la faune sauvage reflète une réalité unique au monde : les vignerons sud-africains produisent leurs vins au cœur du fynbos, écosystème inscrit sur la liste du patrimoine mondial de l’Unesco.

Fynbos
Fynbos.
Matt Halls sur Unsplash, CC BY-NC

Le royaume floral du Cap est le plus petit des six royaumes floraux au monde. Il ne faut donc pas s’étonner que l’offre des wine farms sud-africaines intègre non seulement des restaurants, hôtels boutique, spas, jardins botaniques et galeries d’art, mais aussi, plus surprenant pour nous, des safaris dans les vignobles pour observer babouins, antilopes, léopards et plantes endémiques. Mais l’intégration du vin dans le paysage touristique sud-africain va encore plus loin : le vin s’invite dans les lodges de safari des réserves animalières où les caves rivalisent avec celles des grands domaines. Les animaux attirent les touristes internationaux qui, une fois sur place, découvrent l’excellence des vins et des domaines sud-africains. Si l’on en croit le site « The World’s 50 best vineyards », deux des des dix plus beaux vignobles du monde (Klein Constantia and Creation) se trouvent en Afrique du Sud.

Construire un modèle inclusif

Contrairement à de nombreux domaines français qui ont dû s’adapter tardivement au tourisme, les producteurs sud-africains ont d’emblée conçu leurs domaines comme des destinations touristiques. Tous les week-ends, les wine farms des routes des vins sud-africaines se transforment en véritables espaces de vie où les familles entières viennent petit-déjeuner, déjeuner et passer l’après-midi, voire la soirée. Mais à la différence de la France, l’offre œnotouristique est également pensée pour les visiteurs ne consommant pas d’alcool. Nombreux sont les domaines qui proposent des aires de jeux pour les enfants, et il n’est pas rare d’y célébrer également leurs anniversaires. L’offre gastronomique se veut également inclusive. Pour déjeuner, les visiteurs de Benguela Cove ont par exemple le choix entre un restaurant gastronomique, un fast-food ou une sélection de pique-niques. La gastronomie sud-africaine s’est développée conjointement à l’œnotourisme et certains des meilleurs restaurants d’Afrique du Sud sont aujourd’hui hébergés par des domaines viticoles.

Cette adaptation aux besoins des consommateurs reflète la nécessité de multiplier les revenus dans un marché domestique encore limité. Les domaines sud-africains ont fait de l’œnotourisme un pilier de leur modèle économique. Celui-ci génère 16 % de leur chiffre d’affaires et plus de 40 000 emplois. Pour maximiser les ventes directes au domaine certains producteurs ont développé une collaboration inédite. Elle permet aux touristes européens de passer commande lors de leur visite dans plus de cinquante domaines du Cap, d’effectuer un paiement unique sur une plateforme en ligne à l’issue de leur séjour et de recevoir chez eux à leur retour les bouteilles expédiées depuis une plateforme logistique commune basée en Allemagne.

La filière se mobilise également afin de former la nouvelle génération et de combattre les inégalités héritées de l’apartheid. Nombreux sont les producteurs qui investissent dans l’éducation des enfants de leurs employés en accueillant des écoles sur les domaines. La formation et l’inclusion de professionnels du vin est une priorité pour la pérennité de la filière, les initiatives visant à offrir à des jeunes la possibilité d’étudier gratuitement ou de développer leurs talents de vignerons portent aujourd’hui leurs fruits et permettent de prédire à la filière vin sud-africaine un brillant avenir.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Peut-on faire du vin en combinaison de surf ? – https://theconversation.com/peut-on-faire-du-vin-en-combinaison-de-surf-272745

Ramaphosa and a stable electricity system in South Africa: the devils are in the detail

Source: The Conversation – Africa – By Mark Swilling, Distinguished Professor of Sustainable Development, Stellenbosch University

The strategic significance of the reference to energy reform in South African President Cyril Ramaphosa’s State of the Nation Address cannot be overstated.

Many media reports carried a sense of elation about how this clears the way for resolving the country’s long-term energy crisis. This sentiment is premature: there are many devils in the details that need to be attended to before the country can celebrate.

Ramaphosa announced that the soon-to-be established Transmission System Operator will own South Africa’s transmission assets. This would include all main powerlines and sub-stations. This was contrary to what had been expected, particularly by South Africa’s state-owned power utility Eskom. Its assumption was that it would retain ownership of the transmission assets via its subsidiary, the National Transmission Company of South Africa, that was established in 2024.

Ramaphosa disagreed.

We are restructuring Eskom and establishing a fully independent state-owned transmission entity. This entity will have ownership and control of transmission assets and be responsible for operating the electricity market.

He went on to say:

Given the importance of this restructuring for the broader reform of the electricity sector, I have established a dedicated task team under the National Energy Crisis Committee to address various issues relating to the restructuring process, including clear timeframes for its phased implementation. It will report to me within three months.

The implications of this statement are far-reaching.

Surprise move

The National Transmission Company of South Africa, established in July 2024, is the
current owner and operator of the national grid transmission system. It is entirely owned by Eskom Holdings. It was assumed that, within five years, it would be spun out of Eskom and reconstituted as the Transmission System Operator. In other words, in addition to owning the transmission assets, this entity would be the overall operator of the national grid, the manager of the build programme, and operator of the energy market provided for by the Energy Regulation Amendment Act.

In an opinion piece in December 2025 Dan Marokane, Eskom Group CEO elaborated on an announcement by the Minister of Energy and Electricty when he wrote:

Under the chosen modality, the (Eskom-owned) National Transmission Company of South Africa will remain the owner of transmission assets, entering a right-of-use agreement with the newly established Transmission System Operator … responsible for independently operating transmission assets, whether owned by the National Transmission Company of South Africa or private sector players under the envisioned Independent Transmission Projects programme.

This approach took some parts of government and major business and investment associations by surprise.

The objections by business stem from concerns about how the build-out of new energy capabilities will be financed. The US$25 billion plan on the table provides for a grid transmission build programme over the next 10 years to stabilise South Africa’s energy output.

But where will the money come from?

The money question

South African business and Enoch Godongwana, the Minister of Finance, argue that the only affordable and sustainable way to fund this kind of infrastructure build is to rope in the private sector. That there’s money available is not disputed. As a sustainable development scholar my own research for the National Planning Commission shows that there is a surplus of investment capital in South Africa to fund the just transition.

But there are concerns that investors will be reluctant to invest this capital in an Eskom subsidiary because Eskom’s balance sheet is compromised. And because of its track record and low ratings, Eskom is not regarded by some investors as trustworthy. And even if they do invest in Eskom, because of a perceived higher risk, this would raise the cost of capital and push up electricity prices.

Reportedly, Ramaphosa’s statement came after various consultations during December and January.

Why it matters

The widely supported government-approved Transmission Development Plan established by the National Transmission Company of South Africa makes provision for a R400 billion investment strategy over a 10-year period.

This will make it possible to build 14,400kms of new lines, 271 new
transformers and rehabilitate the existing infrastructure.

Given the state’s fiscal constraints, massive increases in public funding to achieve the plan’s targets are unlikely. It follows that the bulk will have to come from domestic
investors.

That means, if South Africa is truly committed to achieving the plan’s targets then it needs to make sure that the conditions are in place to unlock private capital for public infrastructures.

This is not privatisation. The aim is to mobilize South African capital to meet South Africa’s needs.

The danger of a return to loadshedding

If the conditions for increased private investment in this publicly-owned transmission infrastructure are not put in place, it is very likely that loadshedding will return in 2029.

Eskom’s Medium Term Adequacy Outlook makes clear the risks South Africa faces come 2029/30 when the three oldest power stations – Hendrina, Camden and Grootvlei – need to be decommissioned, and more after them.

The outlook also makes clear that if the much-needed 6GW of gas infrastructure does not come on-line in time to replace coal power, loadshedding is highly likely by 2029. But there is widespread doubt about this gas infrastructure materialising by 2029/30.

And so, if the National Transmission Company of South Africa cannot access the capital needed at the right price to massively expand the grid over the next five years, then the renewables (mainly wind) plus extensive backup that the country needs to prevent loadshedding by 2029/30 will not be able to connect into the national grid.

That will almost certainly result in the return of loadshedding.

Many analysts have raised doubts about whether Eskom has the headroom to raise the required debt against its own balance sheet. If they are correct, creating a “fully independent Transmission System Operator” that controls and owns its own assets is then presented as an easier way to raise debt at a lower price. In turn, this is supposed to have a beneficial impact on tariffs, and prevent loadshedding.

But this is a simplistic understanding of the solution.

The independent Transmission System Operator will take a few years to get established. The report the president wants will describe how the assets can be transferred over time without harming Eskom’s financial position. Sudden shifts should be avoided.

Furthermore, this report will have to deal with the details where the devils reside. In particular, if the Transmission System Operator is fully independent, then what matters is the full independence of the revenue system from Eskom, cost-reflective tariffs and revenue certainty (which includes a solution to the growing mountain of municipal arrears).

The call for a fully independent Transmission System Operator may give lenders the security they need, but the hidden threat is that the risk of revenue shortfalls gets transferred to the sovereign (and ultimately the tax payer).

In the meantime, the transmission build programme must be accelerated. Our research described how the energy transition can be accelerated. We also set out why a renewables-based economy enabled by the transmission build programme is not only the lowest-cost option compared to the alternatives, it is also central to “green growth” which the President described as “[t]he biggest opportunity of all… .”

To establish a fully independent state-owned Transmission System Operator within five years, alignment across three fronts will be required:

  • government-wide support for the policy direction described by the President,

  • managerial interests within the National Transmission Company of South Africa who see their futures beyond Eskom and act out accordingly over the medium- to long-term,and

  • a South African investment community prepared to make big ticket long-term investments in a pipeline of large-scale transmission projects over the next decade.

But this can only work if a revenue model can be designed that is independent of Eskom, guarantees cash flow discipline and ensures cost-reflective tariffs. No document to date addresses this crucial nexus.

With policy and revenue certainty, South African investors will be able to make 20-year investments to implement the Transmission Development Plan. By ensuring that the country avoids loadshedding, these policy-enabled investments will drive accelerated green growth.

The Conversation

Mark Swilling receives funding from National Research Foundation. He is affiliated with the National Transmission Company of South Africa in his capacity as a non-Executive Director. He writes in his academic capacity.

ref. Ramaphosa and a stable electricity system in South Africa: the devils are in the detail – https://theconversation.com/ramaphosa-and-a-stable-electricity-system-in-south-africa-the-devils-are-in-the-detail-276014

Le mouvement anti-CPE de 2006 : la dernière grande victoire étudiante de France ?

Source: The Conversation – in French – By Paolo Stuppia, Sociologue, membre du CESSP (Centre Européen de Sociologie et de Science Politique), Université Paris 1 Panthéon-Sorbonne

Il y a vingt ans, entre févier et avril 2006, une large mobilisation de la jeunesse étudiante et lycéenne, épaulée par les syndicats, enterrait le contrat première embauche. Alors que renaît l’idée d’un CDI résiliable pour les entrants sur le marché du travail, revenons sur cette contestation d’une ampleur sans précédent depuis 1968.


À l’heure où l’organisation patronale Medef reprend des propositions historiques de la droite pour « faciliter le recrutement de ceux qui entrent dans le monde du travail » via un nouveau CDI sous rémunéré et résiliable à tout moment, l’histoire montre les dangers que recouvre une telle démarche.

Il y a tout juste vingt ans, alors qu’était envisagée la mise en place d’un contrat première embauche (CPE), contrat précaire réservé aux jeunes de moins de 26 ans prévoyant une période d’essai de deux ans, le gouvernement avait fini par reculer sous la pression de la mobilisation des lycéens et des étudiants, rejoints dans la rue par les confédérations syndicales de salariés.

En quoi cette victoire a-t-elle été marquante dans l’histoire des mobilisations sociales ? Que dit-elle des cohésions et fractures au sein de la jeunesse et quelles traces a-t-elle laissées dans le monde politique ?

Mobilisation contre le CPE : une dynamique inégalée

En l’espace de deux mois, du 7 février au 10 avril 2006, la combinaison du blocage des trois quarts des établissements d’enseignement supérieur du pays, des actions « coup de poing » et de cinq journées nationales de manifestation réunissant jusqu’à trois millions de personnes mettait en échec une réforme emblématique. La victoire qui a suivi est restée dans les mémoires collectives comme la dernière victoire d’envergure d’un mouvement social en France.

Les effets de cette séquence demeurent toutefois plus ambivalents. Si tous les gouvernements successifs ont eu le sentiment d’avancer en terrain miné à chaque grande réforme touchant la jeunesse ou le marché de l’emploi, ni l’issue ni l’ampleur du mouvement contre le CPE n’ont été égalées depuis.

Certes, le spectre d’un « blocage généralisé » du pays a été agité à maintes reprises, de la lutte contre la « loi travail » en 2016 jusqu’à celle contre la réforme des retraites de 2023. Mais l’alliance inédite nouée dans l’intersyndicale anti-CPE entre organisations professionnelles, syndicats étudiants et coordination nationale étudiante, obtenant un recul public du gouvernement, demeure un cas rare et, à bien des égards, singulier depuis 1968.

Dans le même temps, la mobilisation anti-CPE a révélé des fractures durables au sein de la jeunesse, allant bien au-delà de l’hostilité, de l’indifférence ou du soutien aux piquets de grève lycéens et universitaires.

Le CPE, entre rendez-vous réussis et manqués

Rappelant pour certains aspects le contrat d’insertion professionnelle (CIP), déjà retiré face à une mobilisation étudiante en 1994, le contrat première embauche (CPE) est proposé dans un contexte particulier, deux mois à peine après les émeutes qui ont secoué les quartiers populaires à l’automne 2005.

Cette année 2005 a déjà été riche en rebondissements : d’abord, au printemps, un mouvement lycéen contre une réforme du baccalauréat ; puis la victoire du « Non » au référendum sur la Constitution européenne, le 29 mai, conduisant à la mise en place d’un exécutif où coexistaient malgré eux deux potentiels présidentiables pour 2007, le premier ministre Dominique de Villepin et le ministre de l’intérieur Nicolas Sarkozy. Enfin, en août, l’adoption par ordonnance du contrat nouvelle embauche (CNE), dispositif identique au CPE mais destiné aux petites entreprises, suscitant une mobilisation restée sans effet.

À l’automne, les « émeutes de banlieue » ont représenté une première épreuve politique pour le gouvernement. La stratégie d’apaisement défendue par Villepin l’a emporté sur la ligne dure de Sarkozy. Il n’en demeure pas moins qu’il faut alors répondre à la crise. C’est dans ce contexte qu’une « loi pour l’égalité des chances » (LEC), censée résorber la fracture sociale du pays, est proposée. Le CPE en constitue l’article 8.

L’adoption de la LEC débute en janvier, mais Villepin commet une faute majeure : il déclare l’urgence autour du CPE, puis recourt au 49.3, cristallisant l’opposition. Celle-ci s’exprime d’abord dans un collectif, Stop CPE, réunissant l’ensemble de la gauche et les syndicats. Il faut cependant attendre les premiers blocages universitaires, engagés de manière décentralisée et auto-organisée par des étudiants d’universités de province – Rennes 2, Toulouse-Rangueuil, Poitiers – pour qu’un véritable mouvement social émerge. Une coordination nationale étudiante d’un côté, une intersyndicale de l’autre, se mettent alors en place, prenant le relais de Stop CPE.

Contrairement à l’automne précédent, c’est donc la jeunesse scolarisée qui se présente au rendez-vous : si celui des syndicats et partis traditionnels commence à se dessiner, le rendez-vous avec la jeunesse des grands ensembles demeure largement manqué, un leitmotiv qui accompagnera l’ensemble du mouvement.

Une dynamique lente avec une accélération soudaine

C’est dans la semaine du 7 mars, au terme des vacances d’hiver, que le mouvement entre dans une séquence décisive, connaissant une accélération soudaine. Paradoxalement la mobilisation s’installe alors même que le CPE est voté, ce qui constitue, du point de vue des temporalités protestataires, une anomalie.

La journée d’action du 7 mars marque ce tournant. Rassemblant étudiants et salariés, elle est un succès quantitatif, avec près d’un million de manifestants selon les organisateurs. Dans le même temps, les blocages d’universités se multiplient, contribuant à installer un climat d’incertitude, tandis que tous les sondages confirment une opposition montante envers le CPE. Un symbole fort s’impose alors : l’occupation de la Sorbonne pendant trois jours, événement inédit depuis 1968 (à l’exclusion d’une brève parenthèse en 1986). L’idée d’une séquence exceptionnelle, voire d’une véritable crise politique et sociale, fait son chemin.

« La « saga » du CPE, passé au 49.3 puis enterré » (INA Politique, 2023).

À partir de là, tout s’accélère. Les blocages de facultés se généralisent, les lycéens entrent massivement dans la mobilisation et les formes d’action se radicalisent progressivement. Les journées d’action organisées par l’intersyndicale prennent une ampleur inédite depuis les grèves de 1995, rassemblant jusqu’à trois millions de participants les 28 mars et 4 avril. Toutefois, cette massification s’accompagne de tensions. À l’issue de certains cortèges, comme celui du 23 mars, surgissent des violences attribuées aux « casseurs des banlieues », ravivant la question sensible des rapports entre la mobilisation étudiante et une partie de la jeunesse des quartiers populaires.

Parallèlement, l’intersyndicale est contrainte d’intégrer des représentants de la coordination nationale étudiante, dont l’influence ne cesse de croître. Unis, et alors que des divisions manifestes apparaissent au sein même du gouvernement (Sarkozy, se déclarant hostile au CPE, offre une porte de sortie aux contestataires tout en fragilisant Villepin), les acteurs du mouvement refusent toute négociation.

Nouveau paradoxe le 31 mars : le président de la République promulgue la LEC, validée par le Conseil constitutionnel, tout en appelant à ne pas signer de CPE. Dix jours plus tard, après une nouvelle journée de manifestations et au début des vacances universitaires de printemps, Jacques Chirac annonce le « remplacement du CPE ».

Le CPE et ses vies ultérieures

Après l’annonce du 10 avril, la plupart des organisations syndicales et étudiantes proclament la victoire, mais elles peinent à s’accorder sur les suites à donner au mouvement. Si certains appellent à une démobilisation rapide, d’autres tentent de maintenir la pression autour de la LEC et du CNE, sans grand succès.

Dernière grande manifestation, les défilés du 1er mai 2006 voient apparaître des tensions entre des étudiants organisés derrière des banderoles proclamant la victoire, à l’image du syndicat étudiant l’Unef, et la fraction la plus mobilisée, partageant un sentiment de gain symbolique mais d’échec sur le reste des revendications.

Avec le recul, ni le récit d’un succès plein et entier ni celui d’un revers ne s’imposent. D’un côté, le retrait du CPE continue d’inquiéter les gouvernements et de faire figure de modèle pour les mouvements sociaux. De l’autre, la « génération CPE » renvoie moins à une cohorte homogène qu’à une expérience politique contrastée : simple parenthèse dans la vie universitaire pour les uns, véritable vecteur de politisation ou de consolidation militante pour les autres, comme en témoignent plusieurs figures publiques contemporaines, issues tant des rangs des opposants au CPE – la secrétaire générale de la CGT Sophie Binet, les députés LFI Danièle Obono et Adrien Quatennens, plus surprenant le commissaire européen Stéphane Séjourné – que de ceux qui l’ont soutenu (Gérald Darmanin).

Reste enfin la question du « rendez-vous manqué » entre jeunesses scolarisée et populaire. Si cette lecture a été nuancée depuis par certains travaux, rappelant que nombre d’étudiants mobilisés en 2006 résidaient aussi dans les grands ensembles, les protestations récentes de la Gen Z dans plusieurs pays du Sud global montrent qu’une convergence plus large entre jeunesses, scolarisées ou non, peut produire des effets bien plus significatifs que le seul retrait d’une mesure gouvernementale.

Dans un contexte mondialisé, où l’aggravation des inégalités s’articule à la circulation et à l’imitation des répertoires d’action et des symboles contestataires, cette question demeure centrale.

The Conversation

Paolo Stuppia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le mouvement anti-CPE de 2006 : la dernière grande victoire étudiante de France ? – https://theconversation.com/le-mouvement-anti-cpe-de-2006-la-derniere-grande-victoire-etudiante-de-france-274695

Indépendance du parquet : pourquoi une réforme est indispensable

Source: The Conversation – in French – By Vincent Sizaire, Maître de conférence associé, membre du centre de droit pénal et de criminologie, Université Paris Nanterre

Alors que s’annoncent plusieurs procès sensibles en 2026, la question de l’indépendance de la justice revient sur le devant de la scène. Les deux plus hauts magistrats de France ont récemment fait part de leurs préoccupations vis-à-vis du climat politique et plaidé pour l’adoption de la réforme de la nomination des procureurs. Enlisé depuis plusieurs années, le projet de loi constitutionnelle, voté en 2016 par les deux chambres, vient d’être remis à l’agenda par la présidente de l’Assemblée nationale. Que permettrait réellement cette réforme si elle voyait le jour ?


Le 13 janvier 2026, la présidente de l’Assemblée nationale Yaël Braun-Pivet a officiellement proposé de relancer la procédure d’adoption de la réforme constitutionnelle modifiant les règles de nomination des procureurs de la République. Actuellement, ceux-ci sont nommés par décret du président de la République sur proposition du ministre de la justice, après un avis simple, non contraignant, du Conseil supérieur de la magistrature (CSM).

Cette réforme prévoit d’aligner partiellement les modalités de nomination des magistrats du parquet sur celles des magistrats du siège, en soumettant les choix du ministre de la justice à l’avis conforme du CSM : concrètement, cela signifie qu’un procureur ne pourrait plus être nommé sans l’accord du CSM.

Cette réforme a été adoptée en termes identiques par l’Assemblée nationale et le Sénat en 2016, mais pour être définitivement consacrée, elle doit encore être approuvée par au moins deux tiers des parlementaires réunis en Congrès, sur convocation du président de la République. Or, à ce jour, rien n’indique que ce dernier entende mettre en œuvre cette procédure ni, surtout, que le texte puisse effectivement être adopté par un Parlement dont la composition a fortement changé en dix ans : alors que la gauche y était majoritaire, les forces de droite et d’extrême droite qui n’ont jamais caché leur hostilité à une telle évolution n’ont cessé de s’y renforcer.

Une dépendance statutaire maintenue

Même adoptée, cette évolution ne constituerait qu’une victoire essentiellement symbolique. Prévoir que les procureurs ne peuvent être nommés sans avis conforme du CSM ne modifie en rien les principaux facteurs de dépendance structurelle de ces magistrats au pouvoir exécutif. Une dépendance d’abord statutaire : même s’il devait désormais se plier à l’avis du CSM s’agissant des nominations des parquetiers, le ministre de la justice demeurerait seul compétent pour prononcer à leur encontre des sanctions disciplinaires. Il demeurerait aussi seul compétent pour proposer à la nomination tel ou tel magistrat, l’intervention du Conseil n’étant requise que pour valider – ou non – la proposition faite. Par ailleurs, la réforme ne modifierait en rien la stricte subordination hiérarchique des procureurs au garde des Sceaux, laquelle se traduit en particulier par l’obligation d’exécuter les instructions générales qu’il leur adresse – une prérogative dont les ministres ne se privent guère, multipliant les circulaires de politique pénale toujours plus détaillées et comminatoires.

L’enquête au quotidien : une autonomie théorique, une dépendance pratique

Cette dépendance statutaire se double en outre d’une dépendance fonctionnelle à l’égard de l’institution policière et, partant, du pouvoir exécutif. Certes, les agents et officiers de police judiciaire sont officiellement placés sous la direction du procureur de la République dans la conduite de leurs enquêtes. Mais les services de police et de gendarmerie n’en demeurent pas moins principalement placés sous l’autorité du ministre de l’intérieur, seul compétent pour décider de leur avancement, de leurs mutations et, plus largement, de leurs conditions générales de travail. C’est en particulier le ministère qui décide, seul, de l’affectation des agents à tel ou tel service d’enquête, du nombre d’enquêteurs affectés à tel service et des moyens matériels qui leur sont alloués. Autant de facteurs qui expliquent que, depuis 2008, la Cour européenne des droits de l’homme considère que les procureurs français ne peuvent être regardés comme une autorité judiciaire indépendante.

Cette dépendance fonctionnelle est encore aggravée par la mutation profonde de l’organisation du travail qu’ont connu les magistrats du parquet au tournant du siècle. Depuis la fin des années 1990, la très grande majorité des décisions qu’ils rendent sur le déclenchement de l’action publique, c’est-à-dire sur l’opportunité de poursuivre ou non une personne devant une juridiction répressive et, le cas échéant, le choix de ses modalités (simple convocation, saisine d’un juge d’instruction, comparution immédiate…), sont prises dans l’urgence, sur la base d’un simple compte-rendu téléphonique. Cette approche promue par les autorités comme un « traitement en temps réel [sic] » des procédures a certes eu pour effet de réduire le délai de traitement des dossiers par les magistrats du parquet.

Mais, alors que ces derniers connaissent une surcharge de travail chronique consécutive à l’insuffisance des moyens qui leur sont alloués, elle les rend particulièrement dépendants du compte-rendu de chaque situation faite par l’enquêteur, dont ils n’ont que très rarement le temps de contrôler le travail fait avant de prendre leur décision. Ce mode de traitement est en outre à l’origine de la montée en puissance d’une logique productiviste au sein des tribunaux : il ne s’agit moins de donner à chaque infraction signalée la réponse adaptée que de gérer au mieux les stocks et les flux de dossiers, au risque de confondre justice et précipitation. En contribuant ainsi à la perte de sens du métier, cette évolution est enfin à l’origine d’une indéniable souffrance au travail des magistrats du parquet.

Garantir les libertés face à un pouvoir répressif : le rôle décisif du procureur

Ainsi, ces derniers sont aujourd’hui loin d’être en mesure d’exercer leurs missions en pleine indépendance. Une telle indépendance répondrait pourtant à une exigence démocratique de première importance. Comme l’ont récemment rappelé les chefs de la Cour de cassation à l’occasion de leur audience solennelle, le procureur de la République constitue le premier garant des droits et libertés des citoyens, notamment quand ces derniers sont confrontés au pouvoir répressif.

Dans un contexte politique marqué, en France et en Europe, par la montée d’un autoritarisme se traduisant notamment par la criminalisation de l’opposition politique, conférer aux procureurs un statut plus protecteur permettrait de prévenir plus efficacement le risque de répression abusive. Plus largement, si l’on veut que ce soit la loi – et non la force – qui régisse effectivement les rapports sociaux et que chacun dispose du même degré de protection juridique, il est nécessaire que le ministère public, en tant qu’autorité chargée de demander l’application de la loi au nom de l’ensemble des citoyens, puisse exercer cette mission de façon totalement indépendante et impartiale. Qu’il puisse en particulier poursuivre les personnes indépendamment de leur statut social et de leur position de pouvoir au sein de la société.

Si le parquet national financier a pu sans entrave poursuivre d’anciens chefs d’État et des figures politiques de premier plan, c’est parce qu’il avait acquis, en pratique, une réelle indépendance. Mais qu’en sera-t-il demain si, comme la loi le lui permet, le pouvoir exécutif choisit de s’immiscer dans le cours des affaires qui lui sont confiées ?

À l’image de la rhétorique du gouvernement des juges, l’opposition à l’indépendance du parquet trahit nécessairement la volonté de contrôler le cours de la Justice et, au-delà, de conserver le plus longtemps possible le relatif privilège d’impunité dont ont longtemps bénéficié les classes dirigeantes. À cet égard, il est intéressant d’observer que la réforme du corps judiciaire que le gouvernement néofasciste italien veut aujourd’hui faire adopter par referendum pour remettre en cause le statut des procureurs a pour origine profonde les grands procès ayant régulièrement mis en cause les membres de l’élite dirigeante à partir du début des années 1990. Depuis l’opération « manu pulite » ayant abouti à la condamnation de nombreux politiciens ayant des liens avec la mafia jusqu’à la poursuite de l’ancien ministre de l’intérieur Mateo Salvini pour son refus de laisser débarquer un navire ayant recueilli des réfugiés, en passant bien sûr par les nombreux procès intentés à l’ancien président du conseil Silvio Berlusconi, l’indépendance des parquetiers italiens n’a jamais cessé d’irriter celles et ceux qui considèrent que le principe d’égalité devant la loi ne devrait pas s’appliquer à ceux qui la façonnent. Et c’est précisément pour cela que l’indépendance de leurs homologues français constitue une revendication de toute personne attachée à la construction d’une démocratie pleine et entière.

The Conversation

Vincent Sizaire est magistrat

ref. Indépendance du parquet : pourquoi une réforme est indispensable – https://theconversation.com/independance-du-parquet-pourquoi-une-reforme-est-indispensable-275152

Is teasing playful or harmful? It depends on a number of factors

Source: The Conversation – Canada – By Naomi Andrews, Associate Professor of Child and Youth Studies, Brock University

Picture this: a group of girls are sitting at a table in the lunchroom when a boy walks by. One girl turns to another girl and laughingly says: “Oh, isn’t that your boyfriend? You should go kiss him!”

A different girl chimes in: “Yeah, go give him a big kiss!” The girl in question responds: “Shh, stop that. I don’t want him to hear you!” and she smiles, but her face goes red. Her friends continue, making kissing noises and laughing. The others in the group join in laughing as well.

How should the girl interpret that behaviour? Were the teasers being playful — or taunting her in an aggressive way?

The answer to that question is: it depends. Teasing is a common but complex behaviour that can serve pro-social functions, such as bonding, signalling relational closeness. But it can also have anti-social functions and harm the targeted person.

Like all complex social behaviours, teasing interactions are influenced by a number of factors, like the relationship between teaser and target, the content of the tease and the local and broader context.

Study about harmful or playful teasing

In our recent study, we developed a model that organizes these various factors and the links between them.

The study used semi-structured interviews with 27 university students, who we asked to describe a teasing interaction from their adolescence that they experienced as harmful and playful.




Read more:
Too many kids face bullying rooted in social power imbalances — and educators can help prevent this


Based on the interviews with participants, we developed a model to capture the many dynamics involved in teasing (such as the relationship between parties) and profiles of both harmful and playful teasing that shows where these factors differ.

Power differences, motives

As described by research participants, harmful teasing often includes content that is sensitive to the target, and might include a power difference between teaser and target based on factors like gender or sexuality, culture or racialization, as well as wealth or popularity. Some harmful content expressed was about sexuality (more than one participant mentioned homophobia) and ethnicity or religion (one participant was teased about wearing her hijab).




Read more:
Girls in hijab experience overlapping forms of racial and gendered violence


Playful teasing, on the other hand, often happens between close friends and is based on positive motives (for example, to be friendly, for encouragement). However, there is also substantial overlap between playful and harmful teasing.

Teasing can also start out as playful but “cross the line” to become harmful. Our systematic review of existing research about peer teasing revealed that youth consider a few key factors to determine what “crosses the line.”

The teaser’s body language, facial expressions and tone of voice combine to indicate the meaning behind the tease. Intent is important, and a teaser whose intent is clearly playful is less likely to cross the line.

Changes across development

The interplay between relationships and teasing content is also important. Youth in our study indicated that friends should know what to say and what not to say. That is, given their closeness, friends should know what specific content would cross the line. That said, teasing from friends can still hurt, particularly because they can have intimate knowledge of the target’s vulnerabilities.

Other research also points to important changes across children’s development. For example, researchers have noted that teasing is almost always interpreted as harmful by younger children. It isn’t until adolescence that youth recognize the potential for teasing to be playful.

This suggests that advances in cognitive, social and emotional skills across the transition to adolescence may better help youth understand the complexity and nuance that can be a part of these interactions.

For adults working with youth — or thinking about their own lives — it’s important to remember a social interaction may look harmless from the outside, but can still have negative consequences for those involved.

As for the distinction between teasing and bullying, what our research shows is that some harmful teasing can be considered bullying as it meets the hallmarks of that negative behaviour (power differential, intent, repetition), but not always.

Limits of playful teasing

Based on findings from our review and across our multiple studies, we suggest some insights around the limits of playful teasing that could be relevant for youth or adults in their own lives — or adults supporting children and youth.

  1. A good starting place for playful teasing is when the teaser has a positive, close relationship with the person they are teasing. The person being teased should feel comfortable enough to ask for the teasing to stop if they want; and then the teasing should stop right away.

  2. Teasing shouldn’t involve part of the target’s identity or involve sensitive topics. This is why having a close, positive relationship is a good prerequisite, so that the teaser knows what topics are “off-limits.”

  3. We should always be careful about teasing around an audience, as this can amplify the harm — even when the audience involves other friends.

  4. Check in with the person you’re teasing and pay close attention to their reaction. Often playful teasing is reciprocal.

  5. Repeated teasing — even about seemingly benign topics — is more likely to feel harmful.

Lastly, even if a teaser means to be playful, being teased can still hurt. Be prepared to make amends and engage in relationship repair if the playful tease “crosses the line” and harms someone.

The Conversation

The authors do not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. Is teasing playful or harmful? It depends on a number of factors – https://theconversation.com/is-teasing-playful-or-harmful-it-depends-on-a-number-of-factors-273676

The IOC’s ban of a Ukrainian athlete over his helmet reveals troubling double standards

Source: The Conversation – Canada – By Adam Ali, Assistant Professor, School of Kinesiology, Western University

On Feb. 12, the International Olympic Committee (IOC) banned Ukrainian skeleton athlete Vladyslav Heraskevych from competition for wearing a helmet that featured images of fellow Ukrainian athletes who had been killed in Russia’s invasion of his home nation.

According to the Office of the United Nations High Commissioner for Human Rights, close to 15,000 Ukrainian civilians have been killed and 40,000 have been injured since Russia invaded Ukraine in February 2022.

Over the past four years, more than 450 Ukrainian athletes — including those adorned on Heraskevych’s helmet — have been killed, with many more injured or left with long-term disabilities.

The IOC’s decision has once again placed the Olympic movement at the centre of a longstanding debate over neutrality, political expression and human rights.

Neutrality and expression

The IOC stated that Heraskevych violated the athlete expression guidelines, saying:

“It is a fundamental principle that sport at the Olympic Games is neutral and must be separate from political, religious and any other type of interference. The focus at the Olympic Games must remain on athletes’ performances, sport and the harmony that the Games seek to advance.”

The IOC’s current rules on athlete expression stem from Rule 50 of the Olympic Charter, which doesn’t permit any kind of “demonstration or political, religious or racial propaganda” in Olympic areas.

The IOC’s decision has already been decried as unlawful and discriminatory by legal and human rights experts, who argue that it is inconsistent with the IOC’s application of its own policies in other instances.

For example, Italian snowboarder Roland Fischnaller displayed a Russian flag on his helmet, even though Russia’s national symbols were officially banned at the Games.

After Russia’s invasion of Ukraine, the IOC initially barred Russian athletes from competing under their national flag but later permitted some to participate as neutral athletes. This has drawn criticism, particularly in cases where Russian athletes have been linked to activity supporting the war in Ukraine.

While some might justifiably point to contradictions in the application of Olympic rules on athlete expression, as well within the policies themselves, the IOC’s decision illuminates a longer-standing concern.

As many scholars, activists and others have argued for decades, the IOC, with its current structure, is ill-equipped to provide global leadership in promoting peace and human rights through sport.

The limits of the Olympic Truce

This contradiction can be traced as far back as the Olympic Truce, first instituted in the 9th century BC in ancient Greece. In its contemporary form, the truce is intended to protect “as far as possible, the interests of the athletes and sport in general, and to harness the power of sport to promote peace, dialogue and reconciliation.”

In practice, however, peacemaking has been more of a rhetorical than actualized endeavour within the Olympic movement. The IOC frequently emphasizes sport’s perceived ability to help athletes and fans from different parts of the world overcome prejudice and discrimination through the Olympic Games.

Yet this key part of the Olympic mission is complicated by the IOC’s wish to maintain its image as an “essentially apolitical international organization, as political scientist Liam Stockdale has noted.

Maintaining a politically neutral stance while claiming to promote peace in global conflicts — such as the ongoing Russian invasion of Ukraine — is both contradictory and a purposeful form of naivete that allows the IOC to “sportswash” its way to further fill its financial coffers.

Although the IOC has often remained silent — and at times restricted athletes’ voices — on matters of social justice and human rights, its sanctions on Russia demonstrate that it is willing to take explicit positions when it deems necessary.

This stands in stark contrast to its banning of Heraskevych for highlighting the costs of Russia’s military adventure — Ukrainian lives.

Double standards at play

The debate over neutrality has also extended beyond Ukraine. The IOC has faced intense criticism over its continued silence towards Israel’s military campaign in Palestine following the Oct. 7, 2023 attacks by Hamas.

Israel’s actions have been described as constituting genocide by human rights organizations Amnesty International and Human Rights Watch, an independent United Nations commission and academic experts.

Hundreds of Palestinian athletes have been killed in Israeli attacks, according to the Palestine Olympic Committee and the Palestinian Football Association.

Committees, sport clubs, scholars and other advocates have called for Israel to be banned from the 2024 Paris Games and the current Winter Games in Italy.

To date, however, the IOC has not imposed restrictions on Israeli athletes or officials, maintaining its position that the Games must remain politically neutral. This reveals the IOC’s double standards in determining whose human rights and livelihoods are worth speaking up for, and whose they consider disposable.

Such actions mean it’s that much more imperative for athletes like Heraskevych to continue using one of global sport’s largest spectacles to shed light on atrocities taking place in Ukraine, Gaza and elsewhere, while athletic feats are celebrated on the ice, slopes and half-pipes in Italy.

The Conversation

Adam Ali does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. The IOC’s ban of a Ukrainian athlete over his helmet reveals troubling double standards – https://theconversation.com/the-iocs-ban-of-a-ukrainian-athlete-over-his-helmet-reveals-troubling-double-standards-275896

When norovirus hits the Olympics: The science behind the spread

Source: The Conversation – Canada – By Jennifer Guthrie, Assistant Professor of Microbiology and Immunology, Western University

Norovirus outbreaks have repeatedly shadowed major international events, and the Olympics are no exception. When thousands of athletes from around the world gather in one place, attention is usually on records broken and medals won. Yet the size and intensity of the Games can create conditions that allow infectious microbes to spread.

The outbreak at the 2026 Milan-Cortina Winter Games has already affected several teams, illustrating the real-world impact of such infections. Highly contagious and able to survive for days on surfaces, norovirus is one example of a pathogen that can move efficiently in these environments.

While norovirus outbreaks are often reported on cruise ships and in schools, global sporting events present additional challenges. Meals are served in centralized facilities, training and recreational spaces are shared and participants travel from countries around the world. In these environments, norovirus can spread rapidly through shared spaces and close contact.

Outbreaks at events like the Olympics are more than logistical setbacks. They reveal how the virus’s biology and the realities of mass gatherings make containment difficult.

What is norovirus?

Illustration of blue norovirus particles
Norovirus is the leading cause of food-borne illness worldwide, causing hundreds of millions of cases each year.
(CDC/ Jessica A. Allen)

Norovirus is a highly contagious virus that causes acute gastroenteritis, an inflammation of the stomach and intestines. It is the leading cause of food-borne illness worldwide, causing hundreds of millions of cases each year.

Although infections are often brief, typically lasting 24 to 72 hours, symptoms can be intense. Sudden onset vomiting, watery diarrhea, nausea, stomach cramps and sometimes low-grade fever or body aches are common. Most healthy adults recover quickly, but young children, older adults and people who become dehydrated can experience serious complications.

One reason norovirus spreads so efficiently is its extremely low infectious dose: fewer than 20 viral particles may be enough to cause illness. By comparison, many other viruses require far higher doses to trigger infection.

In practical terms, microscopic contamination on food, surfaces or hands can be enough to make someone sick. The virus spreads primarily through the fecal–oral route, via contaminated food or water, direct person-to-person contact or touching contaminated surfaces and then the mouth.

Norovirus is also remarkably resilient. It can survive on surfaces for days, withstand freezing temperatures and resist many common disinfectants. It is not reliably killed by alcohol-based hand sanitizers, making thorough hand-washing with soap and water essential. Adding to the challenge, infected individuals can spread the virus before symptoms appear and may continue shedding it for days after recovery.

These characteristics of high infectivity, environmental persistence, and the ability to spread before and after symptoms appear make norovirus particularly difficult to control, especially in settings where large numbers of people live, eat and interact in close proximity.

Why the Olympics are a perfect storm

The Olympic Games bring together thousands of athletes, coaches, support staff and spectators for several weeks of intense competition. With back-to-back events, team meetings and travel between venues, athletes are in near-constant contact with teammates, competitors and staff. In the shared spaces of the Olympic Village, even small exposures can allow infections to move quickly.

The rapid turnover of participants and the arrival of athletes from multiple countries further increase the risk. Different viral strains can be introduced, and those infected may unknowingly carry the virus to others or even back home.

In this environment, speed is everything: norovirus can cause illness within a day or two of exposure, allowing outbreaks to spread quickly and challenging even the most well-prepared health teams.

Containment challenges during major sporting events

Isolation, sanitation and rapid testing are critical but difficult at scale. Containing norovirus during a global event like the 2026 Winter Olympics highlights the practical hurdles organizers face. In early February, a norovirus cluster among the Finland women’s hockey team forced the postponement of their opening game against Canada, as more than a dozen players were either ill or quarantined, showing how quickly an infectious outbreak can disrupt competition plans.

Testing is a key limitation. Norovirus is often diagnosed based on symptoms, and although laboratory tests are available, results may be delayed and capacity strained during a massive event. Because people can spread the virus before symptoms appear, transmission may already be underway by the time cases are confirmed.

Sanitation must also intensify quickly. Norovirus survives on surfaces and requires chlorine-based disinfectants applied thoroughly to high-touch areas across venues and athlete housing. Scaling these measures across large facilities demands rapid co-ordination and staffing.

Isolation is another essential tool. Separating symptomatic or exposed athletes can interrupt transmission but may disrupt team routines. After one player on Switzerland’s women’s hockey team tested positive, the entire team entered precautionary isolation and missed the opening ceremony, showing how a single case can have wide-reaching effects.

Containment ultimately depends on co-ordination among organizers, medical teams and public health authorities, along with clear communication to safeguard both health and competition.

Beyond the Games

The Olympics showcase the best of global unity, but they also reveal how tightly interconnected our world has become.

Managing infectious diseases at events of this scale requires constant preparedness, reminding us that public health planning is as essential as athletic preparation.

The Conversation

Jennifer Guthrie receives funding from the Canada Research Chairs program, the Canadian Institutes of Health Research, and the Natural Sciences and Engineering Research Council of Canada.

ref. When norovirus hits the Olympics: The science behind the spread – https://theconversation.com/when-norovirus-hits-the-olympics-the-science-behind-the-spread-275782