Avec « Une bataille après l’autre », le format VistaVision fait son come-back

Source: The Conversation – France (in French) – By Ben McCann, Associate Professor of French Studies, University of Adelaide

Dans _Une bataille après l’autre_, DiCaprio incarne un ex-insurgé politique spécialisé en explosifs. IMDb

Tout comme la résurgence du vinyle dans le domaine musical et de l’argentique dans la photographie, le retour du procédé de prise de vues VistaVision reflète un désir de revenir à des formats analogiques qui semblent artisanaux dans un monde hypernumérisé.


Le nouveau film de Paul Thomas Anderson, Une bataille après l’autre, est actuellement en salles. Ce thriller d’action politique est le premier film du réalisateur depuis quatre ans, et sa première collaboration avec l’acteur Leonardo DiCaprio.

Anderson a décidé de le tourner en VistaVision, un format haute résolution des années 1950 qui fait son grand retour à Hollywood.

Rivaliser avec la télévision

Dans les années 1950, Hollywood est confronté à une menace existentielle : la télévision. Les dirigeants des studios comprennent que pour ramener les spectateurs dans les salles, il faut leur offrir des images spectaculaires sur des écrans plus grands, dans un format panoramique immersif. Les nouvelles technologies, telles que la 3D et la couleur, offraient quelque chose que les petits téléviseurs en noir et blanc ne pouvaient pas offrir.




À lire aussi :
Le retour du disque vinyle : entre nostalgie et renaissance culturelle


En 1953, la 20th Century Fox dépose le brevet du CinemaScope. Des films, tels que la Tunique (1953) et Vingt mille lieues sous les mers (1954), ont été tournés à l’aide d’objectifs spéciaux qui compressaient une image plus large sur un film 35 millimètres standard. Lorsqu’elle était projetée sur l’écran à l’aide d’un autre type d’objectif, l’image pouvait être étirée : le format grand écran était né.

Puis, en 1955, le producteur Mike Todd développe le Todd-AO, le premier écran large incurvé qui projette des films 70 millimètres sur des écrans géants. Oklahoma (1955) et le Tour du monde en 80 jours (1956) ont été tournés de cette manière.

La réponse de Paramount à cette demande d’écran large a été le VistaVision. Ce procédé utilise du film 35 millimètres, le format le plus couramment utilisé, mais avec un défilement horizontal et non vertical. L’image, plus grande, compte huit perforations au lieu de quatre sur le format 35 millimètres standard.

Un plus grand cadre équivaut à plus de lumière, et donc à une meilleure résolution et à plus de précision dans les couleurs et les détails de texture.

Une nouvelle référence pour le visionnage immersif

Comme le procédé du CinémaScope consiste à comprimer l’image (pendant le tournage) puis à la décomprimer (pendant la projection), il a tendance à déformer les bords de l’image » : sur l’écran, les gros plans, notamment ceux des visages des acteurs, apparaissaient étirés ou excessivement ronds.

Le VistaVision, lui, ne déforme pas les images. Il est donc devenu particulièrement intéressant pour les réalisateurs et les directeurs de la photographie souhaitant réaliser d’immenses plans larges ou panoramiques. Il permet également d’obtenir des images plus nettes, notamment pour les gros plans, les espaces architecturaux et les paysages naturels.

Le public était impatient de découvrir ce nouveau format. La comédie musicale de Bing Crosby, Noël blanc (1954), fut le premier film Paramount tourné en VistaVision. Un critique a alors salué la « qualité picturale exceptionnelle » du film :

« Les couleurs sur grand écran sont riches et lumineuses ; les images sont claires et nettes. »

D’autres succès tournés avec ce procédé lui ont succédé : l’épopée biblique les Dix Commandements (1956), de Cecil B. DeMille, ou le western classique de John Ford, la Prisonnière du désert (1956), dans lequel le VistaVision était idéal pour cadrer les reliefs si particuliers de Monument Valley.

Alfred Hitchcock a utilisé le format VistaVision pour certains de ses meilleurs films, notamment Vertigo (1958) et la Main au collet (1955).

Disparition et renaissance

Malgré son succès initial, le procédé VistaVision était rarement utilisé pour les longs métrages au début des années 1960 et fut progressivement remplacé par d’autres formats. La Vengeance aux deux visages (1961) fut le dernier grand film américain entièrement tourné en VistaVision à cette époque.

En effet, le Vistavision coûtait cher : le défilement horizontal du film impliquait une consommation de pellicule deux fois plus importante. De plus, au fil du temps la pellicule s’est améliorée, permettant de capturer le grain plus fin et les couleurs que seul le VistaVision permettait d’obtenir avant.

Les cinéastes américains ont commencé à s’intéresser de près à leurs homologues français qui utilisaient des caméras plus légères et des pellicules moins chères pour filmer facilement en extérieur – dans la rue, les cafés et les chambres d’hôtel. Le VistaVision fonctionnait mieux dans l’espace contrôlé du studio.

Cela dit, le format n’a jamais complètement disparu, et nous assistons aujourd’hui à son grand retour. The Brutalist (2024), de Brady Corbet, a été le premier film depuis des décennies à être entièrement tourné en VistaVision. Le directeur de la photographie oscarisé Lol Crawley en a parlé avec enthousiasme, vantant ses qualités, tant pour filmer en plan large que pour saisir des détails :

« Nous l’avons utilisé non seulement pour capturer des aspects architecturaux et paysagers, mais aussi pour réaliser les plus beaux portraits. En résumé, ce format offre deux avantages : la faible profondeur de champ d’un objectif plus long, et le champ de vision d’un objectif plus large. »

Un retour à l’artisanat d’antan

Depuis le tournage de The Brutalist, Paul Thomas Anderson et plusieurs autres réalisateurs de renom ont opté pour le procédé VistaVision, notamment Emerald Fennell pour sa version des Hauts de Hurlevent (2026), Alejandro González Iñárritu pour son prochain film avec Tom Cruise, dont le titre n’est pas encore connu, et Yorgos Lanthimos pour Bugonia (2025).

Pour Une bataille après l’autre, Anderson s’est appuyé sur ce procédé non seulement pour obtenir une image plus spectaculaire, mais aussi pour se démarquer sur le marché si concurrentiel du cinéma.

Le Vistavision est l’un des nombreux formats traditionnels qui font leur retour à l’ère de la lassitude numérique et de l’IA. Dune (2021) et Dune : Deuxième partie (2024) ont été tournés en IMAX 70 millimètres, et Christopher Nolan, pour son prochain film, l’Odyssée, fera de même. Sinners (2025), de Ryan Coogler, a été tourné en Ultra Panavision, une autre innovation tombée en désuétude dans les années 1960.

Depuis la pandémie de Covid-19, il s’agit d’inciter le public à retrouver le chemin des salles de cinéma.

À une époque où la plupart des contenus sont diffusés en ligne, l’utilisation d’un format unique et rétro est un signal fort. La mention « tourné en VistaVision » devient un signe distinctif de savoir-faire et de prestige.

Les critiques d’Une bataille après l’autre sont élogieuses pour Anderson et pour le directeur de la photographie, Michael Bauman. Cependant, très peu de salles disposent encore des projecteurs d’origine conçus pour le format VistaVision. Seuls les spectateurs de Los Angeles, de New York, de Boston (aux États-Unis) et de Londres (au Royaume-Uni) pourront donc profiter de l’expérience complète.

Mais ne désespérez pas, le film est toujours disponible en différentes versions 70 millimètres, IMAX et 4K numérique. Installez-vous confortablement et profitez du spectacle !

The Conversation

Ben McCann ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Avec « Une bataille après l’autre », le format VistaVision fait son come-back – https://theconversation.com/avec-une-bataille-apres-lautre-le-format-vistavision-fait-son-come-back-266802

Nicolas Sarkozy condamné à une incarcération sans attendre son appel : pourquoi cette « exécution provisoire » est banale

Source: The Conversation – France in French (3) – By Vincent Sizaire, Maître de conférence associé, membre du centre de droit pénal et de criminologie, Université Paris Nanterre – Alliance Paris Lumières

De nombreuses critiques ont été formulées à l’encontre du jugement condamnant Nicolas Sarkozy à une incarcération « avec mandat de dépôt à effet différé assorti d’une exécution provisoire », c’est-à-dire sans attendre l’issue de sa procédure d’appel. Cette exécution provisoire de la peine d’emprisonnement est pourtant banale. En 2022, 55 % des peines d’emprisonnement ferme prononcées par le tribunal correctionnel ont ainsi été mises à exécution immédiatement. En revanche, on peut considérer que les règles encadrant l’exécution provisoire en matière répressive posent question du point de vue de l’État de droit.


Parmi les polémiques relatives à la condamnation de l’ancien chef de l’État, le 25 septembre dernier, l’exécution provisoire de la peine d’emprisonnement (le fait qu’elle soit appliquée même en cas d’appel) qui lui a été infligée figure en très bonne place. Comme la plupart des commentaires à l’emporte-pièce qui saturent l’espace médiatique depuis le prononcé du jugement, ces critiques viennent généralement nourrir la thèse, sinon du complot, du moins de « l’acharnement judiciaire » plus ou moins idéologique dont serait victime l’ancien locataire de l’Élysée. Elles se distinguent néanmoins des autres en ce qu’elles ne s’appuient pas sur des spéculations plus ou moins délirantes sur le contenu d’un dossier que, par hypothèse, aucune des personnes extérieures à la procédure ne connaît, mais sur une réalité juridique et humaine indéniable : Nicolas Sarkozy va devoir exécuter sa peine sans attendre la décision de la Cour d’appel. Une réalité qui peut fort légitimement choquer toute personne un tant soit peu attachée à la présomption d’innocence et au droit au recours, favorisant ainsi la réception de la théorie d’une vengeance judiciaire, théorie qui permet d’occulter une opposition beaucoup plus profonde à l’idée même d’égalité devant la loi.

Pour en finir avec ce mythe, il est donc nécessaire d’apporter un éclairage particulier sur la question de l’exécution provisoire en montrant que, si son régime et son application sont porteuses de réelles difficultés d’un point de vue démocratique, ces difficultés sont loin de concerner spécifiquement les classes dirigeantes.

Ce que dit la loi de l’exécution provisoire

En premier lieu, rappelons que, contrairement à ce que laissent entendre les contempteurs les plus acharnés du prétendu « gouvernement des juges », la possibilité d’assortir un jugement de l’exécution provisoire est bien prévue par la loi et n’a pas été inventée pour les besoins de la cause par le tribunal correctionnel. Depuis le droit romain, notre ordre juridique a toujours ménagé la faculté, pour les juridictions, de rendre leur décision immédiatement exécutoire dans les hypothèses où le retard pris dans sa mise en application serait de nature à compromettre durablement les droits des justiciables, en particulier dans les situations d’urgence. C’est pourquoi, par exemple, les ordonnances de référé, qui visent à prévenir un dommage imminent (suspension de travaux dangereux, d’un licenciement abusif, injonction à exécuter un contrat affectant la pérennité d’une entreprise) sont, depuis le Code de procédure civile de 1806, exécutoires par provision.

En matière pénale, la question se pose cependant de façon différente en ce sens que l’exécution provisoire porte atteinte non seulement au droit au recours contre une décision de justice, mais également à la présomption d’innocence. Or, ces deux principes sont protégés tant par la Constitution – le Conseil constitutionnel les ayant respectivement consacrés en 1981 et en 1996 – que par la Convention européenne de sauvegarde des droits de l’homme et des libertés fondamentales. Ce qui ne signifie pas que ces garanties soient absolues, mais que le législateur ne peut y porter atteinte que de façon exceptionnelle, en fixant des critères précis et en veillant à ce que l’atteinte demeure nécessaire et proportionnée. C’est ainsi, par exemple, que la détention provisoire – ordonnée avant toute déclaration de culpabilité et avant même la phase d’audience – ne peut être prononcée que s’il est démontré qu’elle constitue l’unique moyen de sécuriser les investigations (éviter la destruction de preuves, des concertations entre auteurs) ou de s’assurer de la mise à disposition de la personne mise en examen (éviter le risque de fuite, de renouvellement des faits).

Or aucune garantie de cette nature n’est prévue par la loi quand l’exécution provisoire est prononcée par une juridiction pénale lorsqu’elle prononce une sanction à l’égard d’une personne. Le Code de procédure pénale ne fixe aucun critère pour déclarer immédiatement exécutoire telle ou telle sanction, qu’il s’agisse d’une peine d’amende, de probation ou d’emprisonnement, se bornant à exiger du tribunal qu’il motive spécifiquement sa décision sur ce point. C’est ce qu’a fait le tribunal dans la condamnation de Nicolas Sarkozy, en considérant que l’exécution provisoire s’imposait en raison de la particulière gravité des faits. La seule exception concerne le mandat de dépôt prononcé à l’audience (c’est-à-dire l’incarcération immédiate du condamné) assortissant une peine de prison inférieure à un an, dont le prononcé est subordonné aux mêmes conditions que la détention provisoire. En outre, alors qu’en matière civile, la personne peut toujours demander au premier président de la Cour d’appel de suspendre l’exécution provisoire du jugement de première instance, la loi pénale ne prévoit aucune possibilité similaire, la personne condamnée devant subir sa peine nonobstant l’exercice du recours. Ainsi, il est vrai de dire que les règles encadrant aujourd’hui le prononcé de l’exécution provisoire en matière répressive, en ce qu’elles ne garantissent pas suffisamment le caractère nécessaire et proportionné de cette mesure, posent question du point de vue des exigences de l’État de droit démocratique. Pour y remédier, il faudrait que la loi fixe de façon précise et limitative les conditions pour prononcer l’exécution provisoire, par exemple en prévoyant qu’elle n’est possible que si l’on peut légitimement craindre que la personne cherche à se soustraire à sa sanction.

Un recours massif lors des comparutions immédiates

En revanche, il est complètement faux d’affirmer que cette pratique ne concernerait que les membres de la classe politicienne. Le cadre juridique particulièrement permissif que nous venons d’évoquer favorise au contraire la généralisation du recours à l’exécution provisoire en matière pénale.

En 2022, 55 % des peines d’emprisonnement ferme prononcées par le tribunal correctionnel ont ainsi été mises à exécution immédiatement – ce taux monte à 87 % pour les personnes poursuivies en comparution immédiate. En d’autres termes, loin de constituer une mesure exceptionnelle qui trahirait une démarche vindicative ou un abus de pouvoir de la part des magistrats, l’exécution provisoire qui assortit la condamnation de l’ancien chef de l’État – comme celle de la présidente du Rassemblement national (RN) – constitue une mesure particulièrement commune, pour ne pas dire tristement banale.

C’est ainsi que, dans un communiqué du 27 septembre dernier, l’association des avocats pénalistes

« se réjouit de constater que politiques et médias prennent enfin conscience des difficultés posées par l’infraction d’association de malfaiteurs et par la contradiction inhérente à l’exécution provisoire d’une décision frappée d’appel »

(en ce qu’elle oblige le condamné à purger sa peine sans attendre l’issue du recours), mais

« rappelle cependant que ces modalités sont appliquées tous les jours à des centaines de justiciables sous l’œil courroucé des éditorialistes et gouvernants qui fustigeaient jusqu’alors une justice laxiste ».

Il s’agit là d’une autre vertu de l’exigence d’égalité juridique lorsqu’elle pleinement et véritablement appliquée. Plus les membres des classes dirigeantes et, en particulier, celles et ceux qui contribuent directement ou indirectement à l’écriture de la loi, auront conscience qu’elle peut potentiellement s’appliquer à leur personne, plus l’on peut espérer qu’ils se montrent sensibles, d’une façon générale, au respect des droits de la défense. Une raison supplémentaire de sanctionner, à sa juste mesure, la délinquance des puissants.

The Conversation

Vincent Sizaire ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Nicolas Sarkozy condamné à une incarcération sans attendre son appel : pourquoi cette « exécution provisoire » est banale – https://theconversation.com/nicolas-sarkozy-condamne-a-une-incarceration-sans-attendre-son-appel-pourquoi-cette-execution-provisoire-est-banale-266677

Accès au logement : la couleur de peau plus discriminante que le nom

Source: The Conversation – France in French (3) – By Élisabeth Tovar, Maîtresse de conférences en sciences économiques, Université Paris Nanterre – Alliance Paris Lumières

Contrairement à ce qu’on pourrait penser, avoir un nom à consonance étrangère pénalise moins qu’être visiblement noir sur une photo. StudioRomantic/Shutterstock

Locataire noir ou blanc : qui l’agent immobilier préférera-t-il ? Notre expérience révèle les ressorts méconnus de la discrimination dans la location de logements.


Chercher un logement peut vite tourner au parcours du combattant, surtout quand on s’appelle Mohamed ou Aïssata. En France, en 2017, 14 % des personnes ayant cherché un logement au cours des cinq années précédentes disaient avoir subi des discriminations, selon la dernière enquête sur la question, menée par le défenseur des droits.

Mais comment ces discriminations fonctionnent-elles concrètement ? Qu’est-ce qui pèse le plus : la couleur de peau, le nom, le salaire, ou encore les préjugés du propriétaire ?

Pour le découvrir, nous avons mené une expérience inédite avec 723 étudiants d’une école immobilière, confrontés à des dossiers de locataires fictifs. Les résultats bousculent plusieurs idées reçues.

Un appartement, trois candidats

Imaginez : vous êtes agent immobilier et devez évaluer trois candidats pour un appartement de trois pièces. Trois candidats se présentent :

  • Éric Pagant, un informaticien blanc, 3 400 euros nets mensuels ;

  • Mohamed Diop, un ambulancier en intérim noir, 1 800 euros nets mensuels ;

  • Kévin Cassin, un enseignant fonctionnaire blanc, célibataire, 1 845 euros nets mensuels.

Vous devez noter chaque candidat en le notant de 1 à 4, selon, d’une part, le degré de satisfaction de votre client, le propriétaire, en cas de location au candidat et, d’autre part, votre intention d’organiser une visite de l’appartement avec le candidat.

Dans notre expérience, nous avons fait varier les éléments des profils des candidats : parfois, c’est Mohamed Diop, un homme noir, qui est informaticien, parfois, il a un nom français (Philippe Rousseau), parfois, sa photo n’apparaît pas, parfois le propriétaire exprime des préférences discriminatoires… Ce protocole nous a permis de mesurer l’effet réel de chacune de ces caractéristiques sur les notes obtenues par les candidats.

La couleur de peau compte plus que le nom

Contrairement à ce qu’on pourrait penser, avoir un nom à consonance étrangère pénalise moins qu’être visiblement Noir sur une photo. Quand Mohamed Diop concourt sans photo, avec seulement son nom africain, son handicap face à Éric Pagant, le candidat blanc, est de 0,6 point sur 4. Mais quand sa photo révèle sa couleur de peau, même avec un nom français l’écart grimpe à 1,7 point !

Cette découverte est importante, car la plupart des études scientifiques sur la discrimination se basent sur les noms, pas sur les photos. Elles sous-estiment peut-être la réalité vécue par les personnes racisées qui se présentent physiquement aux visites.

Protection relative du statut social

Certes, avoir un bon salaire protège un peu les candidats noirs contre la discrimination. Nos répondants accordent une importance particulière au revenu des futurs locataires : indépendamment de leur couleur de peau, les informaticiens ont un avantage de 1,55 point (sur 4) par rapport aux ambulanciers. Cela veut dire qu’un candidat noir informaticien sera mieux noté que tous les candidats ambulanciers, Blancs comme Noirs.

C’est troublant : au sein des candidats aisés, la pénalité subie par les Noirs par rapport aux Blancs est plus forte (-0,32 point) qu’entre candidats modestes (-0,22 point), comme si certains répondants avaient du mal à accepter qu’une personne noire puisse être à égalité avec une personne blanche ayant un statut social élevé.

Propriétaires discriminants

L’expérience révèle aussi que les agents immobiliers amplifient les préjugés de leurs clients.

Quand le propriétaire ne manifeste aucune préférence ethnique, la discrimination disparaît complètement entre candidats blancs et noirs (-0,048 point sur 4). C’est une bonne nouvelle : les futurs professionnels de l’immobilier que nous avons testés ne montrent pas de racisme personnel.

Mais dès que le propriétaire exprime sa réticence à louer « à des gens issus de minorités ethniques », l’écart entre les candidats noirs et blancs se creuse (-0,48 point pour les candidats noirs) – même si une telle demande est tout à fait illégale ! C’est une illustration du mécanisme de « client-based discrimination », bien connu en théorie économique.

Effet de minorité

Dernier élément marquant : un candidat noir est moins bien noté (avec une pénalité de -0,34 point) quand il concourt contre deux candidats blancs (comme dans la première ligne de la figure ci-dessous) que quand il fait face à d’autres candidats noirs (comme dans la deuxième ligne de la figure ci-dessous). À l’inverse, être Blanc face à des candidats noirs ne procure aucun avantage particulier.

Ce résultat montre l’existence d’un « effet de minorité » jouant en défaveur des personnes racisées qui chercheraient à se loger hors de quartier ségrégé.

« Premier arrivé, premier servi »

Ces résultats pointent vers des solutions concrètes.

Plutôt que de miser uniquement sur la formation des professionnels, il faudrait s’attaquer aux préjugés des propriétaires et limiter leur influence, en protégeant les professionnels des attentes de leurs clients. Pour cela, certaines villes états-uniennes, comme Seattle et Portland, ont adopté le principe du « premier arrivé, premier servi » pour empêcher la sélection discriminatoire.

Sans aller jusque-là, l’anonymisation des dossiers de location ou l’obligation de motiver les refus, avec signature du propriétaire, pourraient être des pistes à explorer.

Une autre piste pourrait être l’utilisation systématique de mémentos listant les points d’attention pour louer sans discriminer, comme ceux qui sont proposés, en France, par le défenseur des droits à l’attention des propriétaires et des professionnels de l’immobilier.

Quoi qu’il en soit, ces leviers d’action ne sont pas coûteux à mettre en place, mais cela nécessite l’implication de tous les acteurs du secteur.

The Conversation

Élisabeth Tovar a reçu des financements de l’Agence Nationale de la Recherche.

Mathieu Bunel est membre de la Fédération de recherche Tepp Théories et évaluations des politiques publiques.

Laetitia Tuffery et Marie-Noëlle Lefebvre ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. Accès au logement : la couleur de peau plus discriminante que le nom – https://theconversation.com/acces-au-logement-la-couleur-de-peau-plus-discriminante-que-le-nom-260363

Impôt sécheresse : Pourquoi ce qui était possible en 1976… ne l’est plus en 2025 ?

Source: The Conversation – France (in French) – By Jean-Marc Daniel, Emeritus associate Professor, Law Economics & Humanities, ESCP Business School

En 1976, une canicule s’abat sur la France, mettant en péril les récoltes agricoles. Le gouvernement décide une aide conséquente, qui sera partiellement financée par un impôt « ad hoc ». Retour sur le contexte de l’époque et sur ce qui a changé depuis.


Il y a presque cinquante ans, durant l’été 1976, la France a connu une vague de chaleur mémorable dont le souvenir s’incarne dans la référence à « l’impôt sécheresse ». Cet « impôt » a été décidé pour financer des aides au monde agricole, alors victime de la canicule. Dans son bilan de l’année 1976, l’Insee écrit :

« Pour la troisième année consécutive, le volume de la production agricole totale marque une baisse : 0,8 % en 1974 ; 4,5 % en 1975 ; 1,8 % en 1976. »

Le gouvernement de l’époque, dirigé par Jacques Chirac et placé sous l’autorité du président Valéry Giscard d’Estaing, décide de réagir avec un double objectif :

  • maintenir le pouvoir d’achat d’un monde agricole qui représente encore une part importante de la population (en 1976, on compte un peu moins de 1,4 million de chefs d’exploitation alors qu’en 2024, ce nombre est descendu en dessous de 420 000) ;

  • éviter que pour maintenir leur niveau de vie les agriculteurs n’augmentent fortement leurs prix dans un contexte de forte inflation (11 % en 1976).

Une aide de 5,5 milliards de francs

Étrangement, le 25 août, l’annonce d’une aide de 2,2 milliards de francs, soit 1,6 milliard d’euros d’aujourd’hui, pour les agriculteurs est suivie immédiatement de celle de la démission du premier ministre. Le 27 août, son successeur Raymond Barre présente son équipe dans laquelle Christian Bonnet garde le portefeuille de l’agriculture. Néanmoins se pose la question de la pérennisation d’une action en faveur de l’agriculture qui, précédemment, était largement marquée par la personnalité de Jacques Chirac. Mais Raymond Barre confirme le principe d’une aide qui sera finalement de 5,5 milliards de francs (soit 0,3 % du PIB). Il précise que cette somme ne saurait être financée par un emprunt placé auprès des banques ou des épargnants.

La France de 1976 sort du plan de relance de 1975 et le souci de Raymond Barre est de revenir à une gestion budgétaire reposant sur l’équilibre. En 1975, la France connaît sa première récession depuis 1945. Son PIB se contracte de 1 %, ce qui conduit à l’adoption en septembre d’un plan de relance. Alors que le déficit budgétaire voté fin 1974 pour 1975 était de 4 milliards de francs, il est porté à 38,2 milliards de francs, soit 2,6 % du PIB. Le contenu de ce plan est partagé entre 15 milliards de francs de grands travaux dont le TGV sera le plus emblématique, 5 milliards de francs d’augmentation des allocations sociales et 18 milliards de francs de baisse d’impôts.

Une relance aux résultats mitigés

Une des originalités du financement de l’accroissement du déficit est de faire appel à la Banque de France, alors que la loi de janvier 1973 qui définit son rôle et son statut prévoit dans son article 25 qu’elle ne doit pas prêter directement à l’État – cet article stipule que « le Trésor public ne peut être présentateur de ses propres effets à l’escompte de la Banque de France ».

Pour contourner cette règle, il a été demandé à la Banque de France de verser par anticipation les dividendes des exercices suivants. Le résultat de la relance est mitigé. Bien qu’en 1976, le taux de croissance soit revenu à son niveau de 1974 (4,3 %), le doute s’installe.




À lire aussi :
Changement climatique : les plus grands investisseurs mondiaux restent moins engagés que les autres fonds


D’abord, le prix à payer a été un creusement sévère du déficit extérieur. Ensuite, malgré ce retour de la croissance, la situation des finances publiques ne s’améliore que lentement. En 1976, le déficit budgétaire atteint 23 milliards de francs, soit 1,3 % du PIB. Enfin et surtout, l’impact sur le chômage est faible. En novembre 1975, Lionel Stoleru, conseiller économique de Valéry Giscard d’Estaing, est interrogé à la télévision sur l’évolution de l’emploi alors que le nombre de chômeurs vient de dépasser le million. Il parle de la nécessité de réformer le marché du travail et ne cache pas qu’il est illusoire de croire que le retour au plein emploi puisse se faire simplement grâce à une augmentation de la demande publique.

Une aide, mais pas d’emprunt

Il se trouve que l’OCDE est sur la même ligne. En 1977, elle publie les conclusions d’un groupe de travail présidé par l’économiste américain Paul MacCracken. Ce rapport affirme qu’une reprise de la croissance de long terme exige une évolution des salaires conforme à celle de la productivité et une gestion budgétaire écartant tout déficit autre que lié au cycle. Or, jusqu’à sa nomination comme ministre du Commerce extérieur en janvier  1976, le représentant de la France au sein de ce groupe est Raymond Barre !

Pour financer les quelque 5 milliards de francs mobilisés pour l’agriculture, Raymond Barre refuse d’emprunter sur les marchés et de faire appel à la Banque de France. Il décide d’augmenter les prélèvements fiscaux. Pour les ménages, cette augmentation se fait selon un dispositif à troisétages. Ceux dont le revenu est inférieur à 70 000 francs (soit 57 000 € d’aujourd’hui) sont exonérés de contribution. Au-delà, l’impôt sur le revenu est majoré dans une première tranche de 4 %, puis dans une tranche supérieure de 8 %.

L’originalité du dispositif est que la première tranche n’est pas, en fait, un impôt mais un emprunt obligatoire, porteur d’un intérêt de 8,8 % qui sera remboursé en décembre 1981.

Tout – ou presque – a changé

Près de cinquante ans plus tard, l’opération de 1976 est souvent évoquée comme un exemple à suivre d’appel exceptionnel, face à des circonstances exceptionnelles, à un effort des Français. Pourtant, bien des choses ont changé.

Le premier constat est que le poids de la dette a considérablement augmenté, passant de 16 % du PIB en 1976 à 114 % aujourd’hui. Dès lors, la situation réclame une action de redressement de longue durée plutôt qu’une mesure ponctuelle. L’opération menée par Raymond Barre et Valéry Giscard d’Estaing s’inscrivait dans un contexte de taux d’intérêt élevés (ceux-ci ont atteint 13 % en 1976). Résultat, la charge de la dette représentait un poids du PIB du même niveau qu’aujourd’hui (2 %). Dès lors, les dirigeants de 1976 s’inquiétaient d’un présent très pénalisant alors que les dirigeants d’aujourd’hui, bercés par l’illusion d’un maintien des taux d’intérêt à de bas niveaux, minimisent, voire ignorent la menace que fait peser l’évolution possible voire probable de ces taux.

TF1 1976 (INA Actu).

Le deuxième est que la permanence d’un déficit public a conduit à revoir les techniques de financement de l’État. Après que la technique de l’emprunt obligatoire a été de nouveau utilisée en 1983 dans le cadre de la mise en place de la « politique de rigueur », les gouvernements qui ont suivi ont développé un système d’appel aux marchés financiers organisé autour de l’Agence France Trésor. Celle-ci a émis, en 2024, 340 milliards d’euros d’emprunts, loin des 10 milliards d’euros que rapporterait l’équivalent de « l’impôt sécheresse » de 1976.

Quoi qu’il en coûte… mais avec des limites

Le troisième constat est que si les acrobaties autour de la Banque de France pour le financement du plan de relance de 1975 ont pu trouver un répondant dans le « Whatever it takes » de la BCE de Mario Draghi, aujourd’hui nos partenaires de la zone euro se montrent de plus en plus irrités par nos arguties dépensières. Ce n’est pas un effort sur une année porté par des considérations climatiques comme la sécheresse, sanitaires comme la Covid ou géopolitiques comme la guerre en Ukraine qui les convaincront que nous n’avons pas à nous discipliner comme l’ont fait, par exemple, les Portugais qui ont dégagé en 2024 un excédent budgétaire de 0,7 % du PIB.

Maintenant que les étés dans les vallées du Rhône ou de la Garonne sont de plus en plus chauds, les canicules ne permettent pas de masquer la nécessité d’un redressement budgétaire durable alors que la hausse des taux d’intérêt se fait de plus en plus menaçante.

The Conversation

Jean-Marc Daniel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Impôt sécheresse : Pourquoi ce qui était possible en 1976… ne l’est plus en 2025 ? – https://theconversation.com/impot-secheresse-pourquoi-ce-qui-etait-possible-en-1976-ne-lest-plus-en-2025-265780

Les voitures restreignent le droit des enfants de profiter de la ville. Voici des projets qui font la différence

Source: The Conversation – in French – By Patricia Collins, Associate Professor, Queen’s University, Ontario

En fermant les rues à proximité des écoles pour qu’on puisse y déposer et y reprendre les enfants, une initiative innovante appelée « rue-école » permet aux enfants de se réapproprier la ville. (Unsplash), CC BY

De nombreux Canadiens de plus de 40 ans ont sans doute passé leur enfance à jouer dans la rue et à circuler seuls ou avec des amis dans leur quartier. Et, selon le onzième objectif de développement durable des Nations unies, les villes devraient être des lieux où tous les habitants, y compris les enfants, peuvent bien évoluer. Ils ont autant le droit d’occuper et d’utiliser les rues urbaines que les automobilistes.

Cependant, les enfants d’aujourd’hui sont moins actifs, moins autonomes dans leurs déplacements et participent moins à des jeux libres à l’extérieur.

Au Canada, l’une des principales causes de cette tendance est que nous avons privé les enfants de leur droit à la ville, notamment de la liberté de jouer et de circuler en toute sécurité dans les rues près de leur domicile et de leur école sans avoir besoin de la surveillance d’un adulte.

Des actions innovantes telles que « rue-école » sont nécessaires. Il s’agit d’instaurer des zones interdites aux voitures devant les écoles aux heures de pointe afin qu’on puisse y déposer et y reprendre les enfants en toute sécurité et de manière à encourager la marche et le vélo.

Toutefois, nos recherches montrent qu’elles se heurtent souvent à une forte résistance. En fermant les rues adjacentes aux écoles à la circulation automobile, on confronte les conducteurs à un espace public repensé et restructuré qu’ils ne sont pas toujours prêts à accepter.

Penser les villes pour les enfants plutôt que pour les voitures

En Amérique du Nord, la privation des enfants de leurs droits à la ville remonte à des décennies.

Avant la production industrielle des automobiles, il était courant de voir des jeunes jouer dans les rues. Mais à mesure que l’usage de la voiture augmentait, les accidents impliquant des enfants se multipliaient.

Au lieu de restreindre les zones où les voitures peuvent circuler, les urbanistes et les responsables de la santé publique ont préconisé la création d’autres lieux où les enfants peuvent jouer en toute sécurité, comme des parcs de quartier.

Cette approche de l’urbanisme axée sur l’automobile a entraîné un changement dans les mentalités quant aux espaces où les jeunes peuvent jouer et se déplacer. Nous considérons désormais comme normal de ne pas voir ni entendre d’enfants dans les rues des villes.

En limitant la mobilité des enfants en milieu urbain, notre société a fait croire que ces derniers n’étaient pas suffisamment responsables ou compétents pour circuler dans leur collectivité.

La mobilité des enfants dans des villes dominées par la voiture

Paradoxalement, plus la crainte de laisser les enfants se déplacer librement augmentait, plus on les conduisait en voiture. Désormais, les enfants circulent en ville principalement à bord d’un véhicule.

Nous voilà aujourd’hui confrontés à un immense défi sociétal : faire en sorte que les enfants puissent se déplacer de manière autonome dans leur quartier, notamment dans les espaces qui leur sont communément réservés, comme les abords des écoles primaires.

En ce qui concerne le trajet vers l’école, des études ont montré que les comportements dangereux des parents au volant le matin – laisser descendre leurs enfants dans des zones à risques, obstruer la visibilité, faire demi-tour et rouler à vive allure, etc. – sont monnaie courante.

Ces comportements augmentent le risque que des enfants soient renversés par des automobilistes. Les conditions dangereuses aux abords des écoles, associées à l’idée largement répandue que les enfants n’ont pas leur place dans la rue et qu’ils sont incapables d’aller à l’école par eux-mêmes, contribuent au faible taux de déplacements à pied ou à vélo pour se rendre à l’école au Canada.

Des villes innovantes pour les enfants

Les rues-écoles visent à répondre à ces deux problèmes en réduisant les dangers réels posés par les automobiles dans les espaces occupés par les enfants et en aidant tous les citoyens à redéfinir l’utilisation des rues.

Généralement mises en place par les municipalités ou des organismes à but non lucratif, les rues-écoles permettent aux enfants de se rendre à l’école et d’en revenir en toute sécurité. Bien qu’elles soient courantes dans de nombreuses villes européennes, leur adoption a été plus lente au Canada.

De 2020 à 2024, nous avons mené une étude intitulée Changer les règles du jeu, dans laquelle nous avons évalué de manière systématique les « rues-écoles » implantées à Kingston, en Ontario, et à Montréal. Les conclusions de cette étude ont contribué au lancement de l’Initiative nationale des rues-écoles actives.

Financé par l’Agence de la santé publique du Canada, ce programme aide les villes canadiennes à se familiariser avec les rues-écoles et à les mettre en œuvre. Ainsi, des rues-écoles ont été ouvertes en septembre 2025 pour une durée d’un an à Kingston et à Mississauga, en Ontario, ainsi qu’à Vancouver, en Colombie-Britannique.

En septembre 2026, d’autres rues-écoles devraient voir le jour pour une durée d’un an à Kingston, à Mississauga, à Vancouver et à Montréal, tandis que des projets pilotes de quatre semaines sont prévus en Ontario à Ottawa, à Peterborough, à Markham et à Toronto, ainsi qu’à Winnipeg, au Manitoba, et à Edmonton et Calgary, en Alberta.

Réactions aux projets d’innovation urbaine pour les enfants

La mise en place et le maintien de ces rues-écoles nécessitent le soutien d’un large éventail de personnes, notamment le personnel et les conseillers municipaux, les administrations scolaires, les enseignants, les parents, les résidents et les services de police.

Dans le cadre de notre travail à Kingston et à Montréal, nous avons rencontré de nombreux défenseurs des rues-écoles, dont le soutien a été déterminant pour lancer et perpétuer ces projets. Cependant, nous avons également été confrontés à divers degrés de résistance. Dans certains cas, la résistance est apparue après le lancement des initiatives, mais dans d’autres, elle a suffi à empêcher leur mise en place.

Plutôt que de reconnaître les avantages des rues-écoles, les personnes qui s’opposaient à ces projets étaient souvent motivées par les risques encourus par les enfants, soit précisément le problème que les rues-écoles visent à résoudre.

Certaines affirmaient que les rues-écoles réduiraient la vigilance des enfants, les exposeraient au risque d’être renversés par des automobilistes imprudents et qu’elles étaient par nature dangereuses, car les enfants n’ont pas leur place dans les rues. Nous soupçonnons qu’en réalité, il s’agissait moins des risques que d’une réticence à partager l’espace, le pouvoir et les opportunités avec les enfants en milieu urbain.

Nous avons également reçu toute une série d’arguments fondés sur ce qu’on appelle la « motonormativité », une forme de préjugé inconscient dans les sociétés centrées sur l’automobile qui considère l’utilisation de la voiture comme une norme universelle et oriente les solutions vers les besoins des automobilistes.

Ainsi, nous avons entendu dire que les rues-écoles excluaient les enfants dont les parents devaient les conduire à l’école, que les résidents et les visiteurs subiraient des retards inacceptables en raison de la fermeture des rues, que le personnel scolaire serait privé de places de stationnement à proximité, que les enfants marchant dans la rue seraient trop bruyants et causeraient des dommages aux véhicules stationnés, et que la congestion automobile serait déplacée vers d’autres rues.

L’argument le plus troublant avancé contre les rues-écoles était que des enfants d’autres quartiers en avaient davantage besoin, ce qui traduisait une attitude « pas dans ma cour » à peine voilée.

Les rues-écoles visent à permettre aux enfants de retrouver leur droit à la ville. Cependant, de nombreuses personnes ne sont pas prêtes à accorder ces droits aux enfants, car ils entrent en conflit avec des perceptions profondément ancrées quant aux lieux que les enfants sont censés occuper.

La Conversation Canada

Patricia Collins a reçu un financement des Instituts de recherche en santé du Canada (subvention de projet n° PJT-175153) pour l’étude Levelling the Playing Fields. Pour l’initiative nationale Active School Streets, elle reçoit un financement de l’Agence de la santé publique du Canada. Patricia Collins était auparavant affiliée à la Kingston Coalition for Active Transportation, un groupe à but non lucratif chargé de superviser la mise en œuvre du programme School Streets à Kingston. Elle n’est plus membre de ce groupe.

Katherine L. Frohlich a reçu un financement des Instituts de recherche en santé du Canada (numéro de subvention PJT175153) Pour le projet Levelling the Playing Fields. Pour le projet NASSI, elle reçoit un financement de l’Agence de la santé publique du Canada.

ref. Les voitures restreignent le droit des enfants de profiter de la ville. Voici des projets qui font la différence – https://theconversation.com/les-voitures-restreignent-le-droit-des-enfants-de-profiter-de-la-ville-voici-des-projets-qui-font-la-difference-266103

Pourquoi tant de labs d’innovation peinent-ils à trouver leur cap ?

Source: The Conversation – in French – By Ferney Osorio, Maître de Conférences en Génie Industriel et Management de l’Innovation, Université de Lorraine

Parés de bien des vertus, les fab labs, les living labs, les tiers-lieux et les labs d’innovation en général n’ont pas toujours été à la hauteur des promesses qui leur étaient associées. Dans ce domaine, le plus difficile est souvent de maintenir le projet de façon durable. Qu’est-ce qui fait la différence entre un lab qui réussit à créer à moyen terme et un autre qui échoue ?


Ils fleurissent partout : dans les universités, administrations, hôpitaux et entreprises. Équipés d’imprimantes 3D, couverts de post-its multicolores et porteurs d’une promesse séduisante : réinventer le monde grâce à l’innovation collaborative. Qu’on les appelle fab labs, makerspaces, tiers-lieux productifs ou encore living labs, tous partagent ce même élan d’ouverture. On recense aujourd’hui près de 1 900 fab labs dans le monde (fablabs.io), plus de 480 living labs labellisés dans 45 pays (ENoLL) et, rien qu’en France, plus de 4 100 tiers-lieux répartis sur tout le territoire (selon France Tiers-Lieux).

Pourtant, derrière l’enthousiasme initial, beaucoup de ces espaces finissent par tourner en rond. L’énergie s’essouffle, les résultats tardent à venir, le sens même du projet se brouille. Nos recherches récentes montrent que la raison de cet essoufflement réside souvent dans une dimension essentielle mais négligée : l’intention stratégique partagée.




À lire aussi :
Les tiers lieux : la fin d’une mode ou le début d’une nouvelle ère  ?


Comment garder le cap

Qu’entend-on exactement par intention stratégique ? C’est la capacité d’un collectif à définir clairement et durablement son objectif central : ce que le lab cherche réellement à transformer, pour qui, et avant tout pourquoi. Cette intention est loin d’être un slogan figé sur un mur. Elle est plutôt comme une boussole, qui guide les équipes dans leurs choix quotidiens, leurs ajustements face aux imprévus, et leur permet de rester fidèles à leur mission initiale.

Bien sûr, toutes les organisations ont besoin d’une telle boussole. Mais pour les labs d’innovation, l’enjeu est encore plus vital. Ces espaces hybrides – à la croisée du public et du privé, du social et du technologique – naissent souvent comme des expérimentations fragiles. Ils évoluent dans des environnements instables, avec des financements incertains et des parties prenantes aux intérêts parfois divergents. Sans intention stratégique claire et partagée, ils risquent de se transformer très vite en coquilles vides, malgré tout le battage autour de l’innovation.

ENSGSI 2023.

Or, nous avons observé dans plusieurs cas, en France mais aussi à l’international, que cette intention stratégique, si cruciale, est rarement définie clairement et encore moins revisitée régulièrement. Ces constats proviennent à la fois de ma recherche doctorale et de l’accompagnement d’initiatives de labs dans le cadre de projets européens et latino-américains (par exemple, Climate Labs ou, plus récemment, FabLabs4Innovation). Le résultat est souvent le même : un flou qui finit par provoquer frustration et perte de repères chez les membres du lab.

Intégrer ou protéger

Nos recherches ont permis de dégager deux grandes approches pour construire et maintenir cette intention stratégique dans un lab d’innovation : la posture « amalgam » – intégrer des intentions multiples dans un cadre commun – et la posture « shield » – protéger l’intention initiale contre les pressions extérieures. Ces termes, issus de nos travaux récents, permettent d’illustrer deux manières contrastées de maintenir une intention stratégique partagée.

  • La posture « amalgam » consiste à intégrer plusieurs ambitions dans un projet collectif cohérent. Un excellent exemple est celui du fabLab Héphaïstos, à l’hôpital du Kremlin-Bicêtre (Val-de-Marne). Ce lab hospitalier a réussi à harmoniser trois grandes intentions : améliorer le soin aux patients, faciliter le travail des soignants et optimiser les processus internes. La clé de ce succès ? Une démarche collective régulière pour clarifier, revisiter et articuler ces intentions multiples dans un cadre commun.

  • La posture « shield », elle, consiste à protéger activement l’intention stratégique initiale contre les pressions extérieures. C’est l’approche adoptée par le Lab101 (ancien ViveLab Bogotá), en Colombie, qui, malgré des contextes politiques fluctuants, a réussi à garder un objectif clair : renforcer les capacités numériques et d’innovation des citoyens. Cette « protection de son éthos » leur a permis de maintenir le sens de leurs actions sur le long terme malgré les turbulences. Mais ces deux postures ne suffisent pas toujours. Le vrai défi est de savoir quand et comment les activer.

Trouver des points communs

Fondamentalement, l’intention stratégique prend ses racines dans des motivations individuelles et personnelles. Chaque individu porte ses propres attentes et visions. Mais dès lors qu’on décide de travailler ensemble, il est essentiel de trouver des points communs qui donnent naissance à une intention collective et organisationnelle. Comment savoir quand intégrer différentes visions, quand accepter une certaine fragmentation, ou quand préserver jalousement l’intention initiale ? Pour répondre à ces questions, nous avons conçu un cadre dynamique, permettant aux équipes d’ajuster et de faire évoluer leur intention stratégique au quotidien. Ce cadre repose sur quatre modes clés :

  • « Purpose » (Créer du sens) : Au démarrage du lab, il est crucial d’expliciter clairement et collectivement ce qu’on veut transformer, pour qui et pourquoi. Cette étape permet à tous les acteurs impliqués de comprendre exactement pourquoi le lab existe, et comment chacun peut y contribuer.

  • « Switching perspective » (Changer de perspective) : Quand le contexte change brusquement (changements politiques, nouveaux directeurs, nouvelles priorités), les équipes doivent être capables de réajuster leur angle d’approche sans perdre leur identité. Le cas du SDU-MCI Innovation Lab au Danemark illustre bien cette tension. Ce lab universitaire a connu des visions successives portées par différents responsables, chacune porteuse de nouvelles orientations. La difficulté résidait alors dans la capacité individuelle à maintenir une intention stratégique partagée, face à cette succession de perspectives parfois difficiles à intégrer. Résultat : confusion et perte d’énergie collective malgré des ressources considérables.

Forte capacité d’adaptation

  • « Emphasizing context » (Mettre l’accent sur le contexte) : Les labs doivent régulièrement adapter leurs priorités en fonction des réalités locales, des besoins des usagers ou des signaux faibles du terrain. Le Lab101 à Bogotá est exemplaire sur ce point. Grâce à une forte capacité d’adaptation à son contexte local, ce lab a pu amplifier le périmètre de ses actions et répondre de manière efficace aux évolutions du territoire et aux attentes des citoyens, tout en gardant son intention initiale.

  • « Building consistency » (Construire la cohérence) : Il s’agit ici de créer des ponts réguliers entre les actions concrètes menées au quotidien et l’intention stratégique définie au départ. Le Lorraine Fab Living Lab (LF2L) illustre parfaitement ce mode. Grâce à des discussions régulières au sein de son équipe, le LF2L a réussi à préserver la cohérence entre ses projets quotidiens et sa vision stratégique initiale, même face aux changements des priorités de son écosystème.

Matrice des intentions stratégiques (Osorio et coll., 2025).
CC BY-NC-SA

Cette matrice simple (créer du sens, changer de perspective, insister sur le contexte, construire la cohérence) s’est révélée particulièrement utile pour permettre aux équipes d’innovation de ne pas se perdre en chemin, surtout dans des contextes changeants ou sous pression.

Des espaces vides de sens ?

Au-delà des résultats concrets immédiats, ce qui fait véritablement la force d’un lab d’innovation, c’est sa capacité à expliciter et à maintenir une intention partagée, claire et régulièrement actualisée. Sans cette intention stratégique, les labs risquent de devenir des espaces séduisants mais vides de sens, incapables d’engendrer une réelle transformation.

Finalement, le défi posé par ces labs d’innovation est avant tout un défi humain : il s’agit de construire et de maintenir une direction collective dans des environnements souvent complexes et mouvants. Ainsi, peut-être devrions-nous apprendre à mesurer l’innovation non seulement à travers les prototypes ou les succès immédiats, mais avant tout par la clarté et la solidité des intentions partagées par ceux qui l’incarnent au quotidien.

Redonner du sens à l’innovation collective est sans doute le meilleur moyen d’éviter que ces labs prometteurs ne perdent leur cap. Car une chose est sûre : pour innover profondément, il ne suffit pas d’avoir des ressources matérielles. Il faut savoir où l’on va, avec qui, et surtout pourquoi.

The Conversation

Ferney Osorio a reçu des financements de l’ANR et de MINCIENCIAS (Colombie). Il est également cofondateur du ViveLab Bogotá (aujourd’hui Lab101).

ref. Pourquoi tant de labs d’innovation peinent-ils à trouver leur cap ? – https://theconversation.com/pourquoi-tant-de-labs-dinnovation-peinent-ils-a-trouver-leur-cap-264595

Réparer, recycler, prédire : l’IA au cœur du design organisationnel des distributeurs « phygitaux »

Source: The Conversation – in French – By Hassiba Sadoune, Doctorante en science de gestion , Université de Caen Normandie

L’impact de l’intelligence artificielle sera plus profond qu’on ne l’anticipe parfois. En combinant points de vente physiques et canaux digitaux, la manière de concevoir le cycle de vie des produits va subir des évolutions. Dans la distribution, cela annonce un net changement de la façon de travailler.


L’intelligence artificielle (IA) constitue aujourd’hui un levier à fort potentiel de transformation pour les modèles économiques et organisationnels, notamment dans le secteur de la distribution. Comme le soulignent Belkadi et al., elle redéfinit les dynamiques organisationnelles et optimise la performance à travers la gestion intelligente des stocks, la personnalisation, et l’automatisation des processus.

D’après une étude publiée par IBM en 2025, les investissements en IA devraient progresser significativement dans les années à venir : +52 % à l’échelle mondiale et +62 % en France. Et si l’intelligence artificielle ne servait pas uniquement à automatiser ou à vendre plus ? Et si, dans l’ombre des algorithmes, se jouait une transition vers un commerce plus responsable ?

Une évolution du design organisationnel

Ce glissement des usages de l’IA, du pilotage de la performance à l’optimisation des flux, constitue l’objet d’une recherche doctorale en cours à l’Université de Caen au sein du Nimec, consacrée à l’évolution du design organisationnel dans les enseignes dites « phygitales » – ces entreprises qui combinent points de vente physiques et canaux digitaux.

Le design organisationnel, tel que défini par Jay Galbraith, représente un processus d’alignement de cinq dimensions clés d’une organisation : la stratégie, la structure, les processus, les récompenses et les individus, en vue d’atteindre efficacement les objectifs organisationnels. Cette approche englobe la conception des mécanismes de coordination, des flux décisionnels, des systèmes d’information, ainsi que des dynamiques comportementales qui permettent à l’organisation de fonctionner de manière cohérente, et adaptée à son environnement.




À lire aussi :
IA dans la vente : plus efficace, mais moins humaine ?


L’étude s’appuie sur une méthodologie qualitative d’étude de cas, mobilisant un corpus empirique composé d’entretiens semi-directifs et de podcasts professionnels de cadres du secteur de la distribution omnicanale. L’analyse adossée à une version actualisée du modèle de design organisationnel de Galbraith interroge la manière dont l’intelligence artificielle contribue à recomposer les organisations à l’intersection de l’agilité, de la sobriété et de l’innovation responsable.

Réparer : nouveaux usages pour nouvelles finalités

« Ce qu’on fait en SAV devient central : le reconditionné, les garanties prolongées… c’est là que la marge se rejoue »,

confie un cadre d’une enseigne de distribution de produits culturels et technologiques, lors d’un entretien récent consacré au service après-vente et à la durabilité. Cette observation, loin d’être anecdotique, signale un changement de paradigme économique fondamental. La création de valeur ne s’opère plus uniquement lors de l’acte d’achat, mais s’étend sur l’ensemble du cycle de vie du produit.

Concrètement, l’IA permet de prédire les pannes avant qu’elles ne surviennent, d’anticiper les besoins en pièces détachées, d’identifier les produits qu’il vaut mieux réparer plutôt que remplacer. Cette approche prédictive transforme radicalement la logique commerciale : plutôt que de maximiser les ventes, l’objectif devient d’optimiser la durée de vie et l’utilité des produits vendus.

Loin de l’image d’une IA « dopée à la performance », émergent ainsi les contours d’une intelligence artificielle d’entretien, de soin, de maîtrise des ressources. Cette évolution interroge nos représentations du progrès technologique et ouvre la voie à de nouveaux modèles économiques centrés sur la durabilité.

Recycler : des rôles redessinés

Ces transformations technologiques induisent des recompositions organisationnelles profondes. Comme l’explique un directeur digital :

« Avec la data, on peut mieux préparer les interventions et en éviter certaines. »

Cette optimisation des flux opérationnels s’accompagne d’un vaste chantier de formation humaine, comme le souligne un directeur de la transformation :

« Former 100 % de nos collaborateurs, au siège comme en magasin, à l’utilisation de l’IA. Nous imaginons même mettre en place des certifications IA pour nos vendeurs. »

Cette évolution dessine les contours d’organisations plus modulaires et moins hiérarchiques. Les techniciens SAV anticipent les réparations plutôt que de subir les pannes, les conseillers s’appuient sur l’IA générative pour automatiser les tâches répétitives, les vendeurs développent de nouvelles compétences digitales. L’organisation devient un dispositif vivant, caractérisé par des flux, des ajustements constants et des apprentissages partagés – configuration que Worley et Lawler (2010) qualifient d’agilité organisationnelle.

Le recyclage, traditionnellement relégué en fin de chaîne, devient ainsi un processus intégré dès la conception du parcours client. L’IA permet d’identifier instantanément le potentiel de valorisation de chaque produit retourné, transformant les espaces de stockage et développant de nouvelles expertises en évaluation produit.

Prédire : doser plutôt qu’automatiser

Ce repositionnement de l’IA dans les organisations exige une forme de lucidité technologique. L’IA reste une technologie énergivore, avec des effets ambivalents sur la durabilité. Comme l’explique un directeur de la transformation d’une enseigne de distribution spécialisée :

« La question n’est pas seulement d’intégrer l’IA pour des gains de performance, mais de l’inscrire comme un pilier de durabilité dans l’expérience client. »

L’enjeu n’est donc pas d’implémenter l’intelligence artificielle partout, mais de l’utiliser avec discernement : là où elle réduit réellement les gaspillages, améliore la qualité de service, optimise la maîtrise logistique et valorise les expertises terrain.

Un manager illustre cette approche par une métaphore éclairante :

« Le thermomètre indique la température. Ce n’est pas en disant “Je veux monter la température” qu’on va la faire monter. Il faut allumer le chauffage ».

Autrement dit : c’est l’organisation de l’action, pas la donnée, qui fait la différence.

Cette capacité prédictive restructure les processus décisionnels en permettant aux équipes de terrain d’accéder à des informations stratégiques en temps réel, aux managers d’ajuster les stocks selon des projections fiables, et aux directions de disposer d’une vision prospective pour orienter leurs investissements.

Arte 2024.

Vers une intelligence artificielle de la sobriété

Cette recherche doctorale montre que l’IA ne transforme pas l’organisation seule. Elle le fait à condition d’être portée par une structure agile, capable de décentraliser les décisions, de former, d’ajuster, de relier les objectifs à des pratiques concrètes – soit une véritable organisation lucide.

Les analyses empiriques convergent vers une conclusion stimulante : réparer, recycler et prédire ne constituent pas seulement trois fonctions opérationnelles, mais trois piliers d’une circularité servicielle émergente. Cette innovation organisationnelle, documentée dans les trois configurations étudiées, révèle que l’IA transforme la relation client en vecteur de durabilité : l’anticipation des pannes devient un service premium, le reconditionnement génère de la satisfaction client, l’accompagnement dans la durée de vie produit crée de la fidélisation.

Cette synthèse dépasse l’opposition traditionnelle entre rentabilité et responsabilité pour inventer un modèle où l’excellence « servicielle » devient le levier de l’économie circulaire.

Les distributeurs phygitaux, en tant qu’interfaces entre production et consommation, deviennent des laboratoires d’expérimentation où s’inventent de nouveaux équilibres entre efficacité opérationnelle et impact environnemental. De ces pratiques émerge l’idée d’une « IA de la sobriété » : non plus orientée vers l’accélération des flux, mais vers l’optimisation des ressources et la réduction des gaspillages.

Reste une question essentielle : sommes-nous prêts à penser l’IA comme un levier de sobriété, à revoir le design de nos organisations pour qu’elles servent moins à faire plus… qu’à faire mieux ? Tout porte à croire que la réponse dépend moins de la technologie elle-même que de notre capacité collective à transformer les modèles organisationnels qui l’accompagnent. La mutation est engagée : encore faut-il l’accompagner pour qu’elle contribue réellement à un commerce plus durable et plus responsable.

The Conversation

Hassiba Sadoune ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Réparer, recycler, prédire : l’IA au cœur du design organisationnel des distributeurs « phygitaux » – https://theconversation.com/reparer-recycler-predire-lia-au-coeur-du-design-organisationnel-des-distributeurs-phygitaux-259747

Les Family Offices en avant vers les marchés non cotés

Source: The Conversation – in French – By Mohamed Ouiakoub, Maître de conférences en Sciences de gesiton à l’Université de Lorraine, Université de Lorraine

Plus de 40 % des Family Offices disent consacrer 20 % ou plus de leur portefeuille au capital-risque, c’est-à-dire à des investissements dans des sociétés non cotées, comme Auchan ou les Galeries Lafayette. Mapo_Japan/Shutterstock

Les Family Offices, ces structures qui gèrent le patrimoine d’une famille fortunée, investissent de plus en plus dans les marchés privés (non cotés), perçus comme plus rémunérateurs à long terme que les marchés cotés comme le CAC 40. Pourquoi ? Avec quelles limites ?


En Europe, les grandes fortunes familiales s’appuient sur un « Family Office ». Leur patrimoine dépasse généralement les 100 millions d’euros, et atteint en moyenne 1,3 milliard selon l’étude mondiale UBS.

Ces familles se tournent massivement vers le capital-investissement ou private equity, qui consiste à prendre des participations au capital de sociétés non cotées, comme le distributeur Leclerc, le producteur laitier Lactalis ou Galeries Lafayette.

Comme nous l’analysons dans notre article à paraître dans la revue Vie et sciences de l’entreprise, « l’investissement à impact dans les Family Offices : entre héritage et quête de sens », les Family Offices cherchent à accroître leur présence dans le capital-investissement, mais leurs moyens humains et organisationnels restent limités.

Notre étude menée montre que certaines familles affectent plus de 20 % de leur patrimoine à ce type d’investissement. Pourtant, près de 70 % de ces structures comptent moins de dix collaborateurs et moins de la moitié disposent d’un comité d’investissement structuré.

Alors, comment ces grandes fortunes familiales structurent-elles cette nouvelle stratégie ?

Les différentes formes de Family Offices

Un Family Office est une structure privée consacrée à la gestion globale du patrimoine d’une famille fortunée. Il peut assurer des fonctions financières – investissements, fiscalité, transmission, etc. –, mais aussi juridiques, philanthropiques ou éducatives. Ces structures sont nées pour accompagner la pérennité du capital familial sur plusieurs générations, en intégrant des objectifs à la fois financiers, humains et émotionnels.

Ces enjeux sont au cœur de la littérature récente sur la création de valeur durable dans les entreprises familiales, en particulier lorsque les Family Offices participent activement aux décisions stratégiques du groupe familial. Il en existe plusieurs formes.

  • Les single family offices, entièrement consacrés à une seule famille.

  • Les multi-family offices, qui gèrent les patrimoines de plusieurs familles, parfois sans lien entre elles. D’autres structures, dites professionnalisées, sont intégrées à des institutions financières.

  • Les Family offices « intégrés » dans l’entreprise familiale.

  • Les Virtual Family Offices, lorsque la structure externalise la majorité de ses services.

Moins de dix personnes en moyenne

Les Family Offices renforcent progressivement leur exposition au capital-investissement, ou private equity, c’est-à-dire l’achat de parts dans des entreprises non cotées. Plus de 40 % des Family Offices interrogés y consacrent plus de 20 % de leur portefeuille, un niveau élevé pour des structures non institutionnelles. Ce choix traduit une confiance croissante dans les marchés privés, perçus comme plus rémunérateurs à long terme que les marchés boursiers traditionnels.

Cette ambition d’allocation se heurte toutefois à des moyens internes limités. La plupart des Family Offices emploient moins de dix personnes et moins de la moitié disposent d’un comité d’investissement structuré. Autrement dit, ils gèrent des portefeuilles complexes avec peu de personnel, souvent sans processus formalisé, ce qui fragilise leur capacité d’analyse, de sélection et de suivi des investissements.

Le principal frein cité par les répondants reste, d’ailleurs, le manque de ressources internes.

Relations humaines

Les investissements réalisés par les Family Offices passent avant tout par leur réseau direct. La majorité des opportunités provient de contacts personnels, loin devant les intermédiaires ou les événements professionnels. Cette approche repose sur la confiance et l’intuition. Mais en se limitant à leur cercle relationnel, ces familles risquent de passer à côté de projets plus innovants ou d’entreprises en dehors de leur environnement habituel.

Dans la répartition de leurs investissements, les familles privilégient les entreprises à fort potentiel de croissance, où elles peuvent mettre à profit leur expérience entrepreneuriale. Lorsqu’il s’agit d’opérations plus techniques, comme les rachats d’entreprises financés par l’endettement bancaire (appelés « Leveraged Buy-Out », ou LBO), elles préfèrent déléguer à des fonds spécialisés. Ces fonds disposent d’équipes nombreuses et aguerries capables de structurer des montages financiers complexes, ce que les petites équipes des Family Offices ne peuvent pas toujours assurer.

Cette complémentarité entre investissement direct et indirect traduit une certaine prudence stratégique. Les familles recherchent avant tout un fort alignement avec les porteurs de projet. Elles tiennent aussi à pouvoir jouer un rôle actif auprès des entreprises dans lesquelles elles investissent, en partageant leur réseau, leur expertise sectorielle ou leur expérience d’entrepreneurs, et pas seulement en apportant du capital.

Valeur durable des entreprises familiales

L’intégration de critères ESG dans les analyses reste minoritaire. Moins de 40 % des Family Offices déclarent prendre en compte les enjeux environnementaux, sociaux ou de gouvernance dans leurs décisions d’investissement selon les résultats de l’étude menée. Ce chiffre montre que la finance durable progresse lentement dans ce segment, malgré une forte montée en puissance dans les pays nordiques ou en Allemagne. Ces questions sont au cœur des réflexions actuelles sur la valeur durable en entreprise familiale.

La qualité des informations disponibles et le manque de marge de négociation avec les fonds constituent des sources de frustration. Concrètement, les Family Offices se plaignent d’un accès limité à des données fiables sur les performances passées des fonds ou sur la solidité des entreprises ciblées. Ils déplorent une faible transparence sur les frais facturés : commissions de gestion annuelles, frais de performance (ou carried interest) ou encore frais annexes liés aux transactions.

Fortes attentes

Malgré ces contraintes, les Family Offices restent confiants dans la trajectoire du capital risque ou private equity. Près de deux tiers se disent optimistes pour les douze mois à venir. Une majorité vise un rendement interne supérieur à 15 % d’après les résultats de l’étude réalisée.




À lire aussi :
Les start-ups « deep tech » : une réponse aux enjeux du XXIᵉ siècle ?


Cette confiance repose en grande partie sur la qualité perçue des projets technologiques, notamment dans la santé et le deep tech. Ces secteurs sont les plus plébiscités, loin devant l’agritech, l’éducation ou la défense.

Les investisseurs familiaux cherchent à soutenir des innovations porteuses de sens, en lien avec leurs valeurs et leurs expériences entrepreneuriales.

Structurer sans dénaturer

La professionnalisation des Family Office ne doit pas faire perdre ce qui fait leur force : proximité avec les entrepreneurs, liberté stratégique et vision de long terme. Ce sont des atouts précieux dans un écosystème financier souvent standardisé.

Leur gouvernance, leurs choix d’organisation et leur rapport à la durabilité sont au cœur d’une réflexion croissante sur l’investissement à impact dans les grandes fortunes familiales. En naviguant entre héritage, contrôle familial et quête de sens dans la gestion de leurs actifs, les Family Offices sont aujourd’hui à un tournant.


Cet article a été co-écrit avec Rajaa Mekouar, fondatrice et managing partner de Calista Direct Investors.

The Conversation

Mohamed Ouiakoub ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les Family Offices en avant vers les marchés non cotés – https://theconversation.com/les-family-offices-en-avant-vers-les-marches-non-cotes-261408

Les coûts d’emprunt de l’Afrique sont trop élevés : l’occasion manquée par le G20 de réformer les agences de notation

Source: The Conversation – in French – By Misheck Mutize, Post Doctoral Researcher, Graduate School of Business (GSB), University of Cape Town

Au début de l’année 2025, l’un des engagements pris par la présidence sud-africaine du G20 dans son document Priorités politiques était de promouvoir des notations de crédit souveraines plus équitables et plus transparentes. Elle voulait aussi remédier au coût élevé du capital, souvent justifié par une perception illusoire de risque élevé dans les économies en développement.

L’Afrique du Sud avait proposé de créer une commission chargée d’examiner le coût du capital. L’objectif était d’identifier les problèmes qui empêchent les pays à faible et moyen revenu d’accéder à des flux de capitaux suffisants, abordables et prévisibles pour financer leur développement.

Pour beaucoup en Afrique, il s’agissait de bien plus qu’un simple document administratif. Cela représentait la première véritable occasion pour les pays du Sud de remettre en cause le pouvoir bien établi des agences de notation internationales par l’intermédiaire du G20.

Les avis de Moody’s, S&P Global Ratings et Fitch Ratings sont en effet au cœur du problème du coût élevé de l’emprunt en Afrique.

Mais les possibilités de progrès dans ce domaine s’amenuisent. Le gouvernement sud-africain et le monde des affaires du pays n’ont pas profité de l’occasion offerte par la présidence du G20, de décembre 2024 à novembre 2025, pour faire pression en faveur de réformes susceptibles de réduire les coûts d’emprunt de l’Afrique et de renforcer sa souveraineté financière.

Qu’est-ce qui explique le poids des notations de crédit ?

Les agences de notation de crédit ne sont pas des observateurs neutres des marchés financiers. Leurs jugements influencent directement le sentiment des investisseurs, l’accès au financement et les taux d’intérêt que les pays paient lorsqu’ils émettent des obligations.

Pour les pays en développement, en particulier en Afrique, les notations vont déterminer l’allocation par le gouvernement de ses maigres ressources : soit au service de la dette, soit aux besoins en terme de développement tels que les écoles et les hôpitaux.

Le souci, ce n’est pas seulement les notations en elles-mêmes, mais aussi le fait qu’elles sont souvent imprécises et basées sur des jugements subjectifs.

Les pays dotés d’économies en développement dénoncent fréquemment les problèmes liés à ces notations.

D’abord, les États africains subissent plus souvent que d’autres des dégradations de note qui ne reposent pas sur des fondamentaux économiques solides.

Deuxièmement, les analystes qui évaluent les risques travaillent le plus souvent hors du continent et appliquent des critères subjectifs, souvent pessimistes.

Troisièmement, les économies en développement sont pénalisées en raison de l’impact supposé des chocs externes tels que les pandémies mondiales ou les catastrophes climatiques.

Enfin, on relève des variations importantes dans la manière dont les facteurs de risque sont évalués en Afrique par rapport à des pays similaires en Asie ou en Amérique latine, qui ont des profils de risque proches.

Une occasion manquée de leadership

Le G20 reste le principal forum mondial où se réunissent les principales économies avancées et les économies en développement les plus influentes. En tant que pays qui en assure la présidence, l’Afrique du Sud a le pouvoir de définir l’ordre du jour, de constituer des groupes de travail et de rédiger des communiqués qui influencent les débats au niveau mondial.

Mais à ce jour, la commission proposée sur le coût du capital n’a pas été mise en place. On peut dès lors affirmer sans se tromper que la présidence sud-africaine du G20 n’a pas utilisé cette plateforme pour régler la question du coût du capital. Ses engagements en matière de réforme de la notation de crédit se sont limités à réitérer les éléments de langage. Elle n’a pas fait de propositions structurées dédiées à cette question.

Cette inaction étonne d’autant plus que l’Afrique du Sud connaît bien les effets des décisions de notation. Au cours des huit dernières années, une série de déclassements par les agences de notation internationales a conféré le statut dit « junk » à la dette du pays. Ces décisions ont entraîné une augmentation des coûts d’emprunt et ébranlé la confiance des investisseurs. Pretoria dispose donc à la fois de l’expérience et de la légitimité nécessaires pour mener un débat sur la réforme des notations souveraines.

Par ailleurs, le secteur financier et des entreprises sud-africain (banques, assureurs et investisseurs institutionnels) est resté largement en retrait dans cette séquence.

Des plateformes telles que le Cost of Capital Summit, organisées par le groupe de travail Business (B20), la Standard Bank, Africa Practice et le Mécanisme africain d’évaluation par les pairs, ont été utiles. Mais le monde des affaires sud-africain n’a pas su tirer parti de la présidence de son pays au G20 pour faire pression en faveur de réformes qui profiteraient non seulement aux entreprises nationales, mais aussi aux partenaires africains.

La baisse des coûts d’emprunt souverains dans les pays hôtes, par exemple, réduirait directement les risques macroéconomiques pour les entreprises sud-africaines opérant sur le continent et élargirait leurs possibilités d’investissement.

Ce qui aurait pu être fait

Trois mesures concrètes pourraient remettre la question de la réforme des notations de crédit à l’ordre du jour:

Le coût de l’inaction

Selon la CNUCED, les pays en développement paient des taux d’intérêt jusqu’à trois points de pourcentage plus élevés que leurs homologues ayant des fondamentaux similaires, ce qui représente des milliards de dollars de coûts supplémentaires chaque année.

Cette « taxe cachée » sur le développement a des conséquences humaines directes: moins de ressources pour les infrastructures, l’adaptation au changement climatique, les systèmes de santé et l’éducation. Pour l’Afrique, où les besoins de financement sont immenses, des notations de crédit plus précises pourraient libérer un espace budgétaire vital.

L’Afrique du Sud ne peut se permettre de laisser sa présidence du G20 se réduire à un symbole. La promesse de notations de crédit souveraines « plus justes et plus transparentes » doit se traduire en action, par le biais de groupes de travail, de communiqués et d’alliances qui font avancer la réforme.

Pretoria a également besoin que son secteur privé se mobilise. Il ne s’agit pas seulement d’un impératif moral, mais aussi d’un impératif économique.

Une prime de risque plus faible et un accès plus équitable au capital élargiront les opportunités à travers le continent, y compris pour les investisseurs sud-africains. Le monde entier a les yeux rivés sur l’Afrique du Sud. Si le pays ne saisit pas cette chance, il renforcera l’idée que le discours sur la réforme de l’architecture financière mondiale ne se résume qu’à des paroles en l’air. Si l’Afrique du Sud agit, elle pourra laisser un héritage qui dépasse ses propres difficultés internes : l’ébauche d’un système de notation plus juste et plus responsable pour le Sud global.

The Conversation

Misheck Mutize does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Les coûts d’emprunt de l’Afrique sont trop élevés : l’occasion manquée par le G20 de réformer les agences de notation – https://theconversation.com/les-couts-demprunt-de-lafrique-sont-trop-eleves-loccasion-manquee-par-le-g20-de-reformer-les-agences-de-notation-266595

Démission de Sébastien Lecornu : Échec du présidentialisme, retour au parlementarisme ?

Source: The Conversation – France in French (3) – By Nicolas Rousselier, professeur d’histoire politique, Sciences Po

Alors que le Premier ministre Sébastien Lecornu vient de remettre sa démission, quelques heures à peine après la présentation de la première partie de son gouvernement, le régime français est plus que jamais en crise. La domination de l’exécutif sur le législatif, en place depuis le début de la Ve République, semble désormais dépassée. Un rééquilibrage entre ces deux pouvoirs, historiquement concurrents, est-il en cours ? Nous republions pour l’occasion cet article de Nicolas Rousselier écrit à l’occasion de la chute du gouvernement Bayrou.


Jamais les feux de l’actualité ne furent braqués à ce point sur le Parlement. L’épisode Bayrou en donne une illustration frappante : la chute de son gouvernement a placé l’exécutif en position de faiblesse et de renoncement face aux difficultés annoncées du débat budgétaire. À l’inverse, les députés, en refusant de voter la confiance, ont placé l’Assemblée nationale en position de force vis-à-vis du gouvernement. Celui-ci, pour la première fois (sous cette forme) depuis le début de la Ve République, était contraint à la démission. Le pouvoir exécutif, qui n’avait cessé de se renforcer et de se transformer depuis plus de soixante ans, trahissait ainsi une faiblesse inattendue.

Deux questions sont donc soulevées, l’une sur le caractère momentané ou profond de ce « trou d’air » que rencontre l’exécutif, l’autre sur la possible relance du parlementarisme.

Dès le Moyen Âge, le Parlement contre le prince

L’épisode s’inscrit dans la longue histoire du bras de fer qui a opposé l’exécutif et le législatif depuis plusieurs siècles. Philosophiquement et politiquement, l’opposition a placé la figure du prince – pour faire référence aux travaux de Harvey Mansfield – face à la forme prise par le Parlement depuis les XIIIe et XIVe siècles. L’histoire est ainsi beaucoup plus ancienne que celle de la démocratie moderne. La monarchie française avait été notamment marquée et affaiblie par des affrontements opposant le roi et le Parlement de Paris au cours du XVIIIe siècle. Pour le XIXe et le XXe siècle, l’ensemble de la modernité démocratique peut se définir comme un vaste aller-retour avec une première phase où la démocratie se définit comme la nécessité de contrôler et de circonscrire le plus possible le pouvoir exécutif, puis une seconde phase où la démocratie a progressivement accueilli un exécutif puissant, moderne et dominateur, tout en prenant le risque d’affaiblir le rôle des assemblées.

Cette lutte ancestrale a pris une allure particulièrement dramatique et prononcée dans le cas français. L’histoire politique française a ceci de particulier qu’elle a poussé beaucoup plus loin que les autres aussi bien la force du parlementarisme, dans un premier temps (IIIe puis IVe République), que la domination presque sans partage de l’exécutif, dans un deuxième temps (Ve République). Nous vivons dans ce deuxième temps depuis plus de soixante ans, une durée suffisante pour qu’un habitus se soit ancré dans les comportements des acteurs politiques comme dans les attentes des électeurs.

Historiquement, la domination de l’exécutif sur le législatif a donné à l’élection présidentielle une force d’attraction exceptionnelle puisque le corps électoral est invité à choisir un candidat qui, une fois élu, disposera de très larges pouvoirs pour mener à bien les réformes et les politiques annoncées lors de sa campagne électorale. Dans les faits, cette force du président était complétée par la victoire de son parti aux élections législatives (souvent avec des petits partis alliés et complémentaires). La cohabitation n’a pas modifié la domination de l’exécutif : la force du gouverner s’est alors concentrée sur le premier ministre qui disposait toujours d’un contrôle efficace du Parlement.

Par contraste avec cette « période heureuse » de la Ve République, la situation actuelle est donc très simple : ne disposant pas d’un fait majoritaire à l’Assemblée, l’exécutif se retrouve paralysé dans son pouvoir d’agir. Chaque premier ministre qui passe (Attal, Borne, Barnier, Bayrou, maintenant Lecornu) se retrouve encore un peu plus éloigné de toute légitimité électorale. Aussi la facilité avec laquelle le dispositif de la Ve République s’est démantelé sous nos yeux apparaît spectaculaire. Certes, en toute logique, l’ancien dispositif pourrait se reconstituer aussi vite qu’il a été brisé. Rien n’interdit de penser qu’une nouvelle élection présidentielle suivie de nouvelles élections législatives ne pourrait pas redonner au chef de l’État une assurance majoritaire. Rien n’interdit de penser, non plus, que de simples élections législatives intervenant après une dissolution pourraient conduire à un fait majoritaire au profit d’un seul parti ou d’un parti dominant qui rallierait à lui de petits partis satellitaires.

Tout ceci est possible et occupe visiblement l’esprit et l’espoir des acteurs politiques. Se replacer ainsi dans l’hypothèse du confort majoritaire sous-estime toutefois le caractère beaucoup plus profond des changements intervenus dans la période récente. La force de gouverner sous la Ve République reposait en effet sur un écosystème complexe dont il faut rappeler les deux principaux éléments.

Une domination de l’exécutif fondée sur l’expertise et sur le règne des partis

Tout d’abord, la domination de l’exécutif s’est jouée sur le terrain de l’expertise. Des organes de planification, de prospective et d’aides à la décision ont fleuri autour du gouvernement classique, surtout après 1945. Par comparaison, les assemblées parlementaires ont bénéficié d’une modernisation beaucoup plus limitée en termes de moyens. Elles ont développé la capacité d’évaluation des politiques publiques, mais ne disposent pas d’un organe public indépendant (ou suffisant) pour l’expertise du budget tel qu’il existe auprès du Congrès américain avec le Congressional Budget Office (CBO).

D’autre part, la force de l’exécutif a été historiquement dépendante du rôle de partis politiques modernes. Depuis les années 1960 et 1970, des partis politiques comme le Parti socialiste ou les différents partis gaullistes ont eu les moyens de jouer leur rôle de producteurs doctrinaux et de fidélisation de leur électorat. Ils étaient des « machines » capables d’exercer « une pression collective su la pensée de chacun » pour reprendre Simone Weil. Dans les assemblées, ils ont pu construire d’une main de fer la pratique de discipline de vote, des consignes de groupes et de contrôle des déclarations à la presse. Le parti majoritaire, parfois associé à de petits partis satellites ou alliés, était à même d’assurer au gouvernement une majorité connue d’avance, prête à faire voter en temps voulu le budget de l’exécutif ou les projets de loi sans modification importante. Les partis privilégiaient la cohésion collective et la verticalité de l’obéissance plutôt que le rôle d’espace de discussion. La répétition des élections présidentielles comme la fréquence du dispositif majoritaire avaient ancré les partis dans le rôle d’entrepreneurs de programmes. L’ambition de leurs plates-formes électorales était en proportion de la « force de gouverner » attendue : ce fut longtemps un atout indéniable pour que l’offre politique rencontre de fortes aspirations sociales.

Ces deux piliers de la force de l’exécutif sont aujourd’hui remis en cause. L’État planificateur de tradition jacobine s’est fortement transformé depuis les années 1990 avec la multiplication des agences et les réformes successives de décentralisation. L’âge d’or des grands serviteurs de l’État, qui offraient à l’exécutif une aide homogène à la décision, est passé. Aujourd’hui, un gouvernement est confronté à la diversité et parfois la contradiction des avis que lui fournissent les organes experts. L’expertise n’est donc plus enfermée dans le seul silo de la haute administration classique. Elle est devenue un secteur concurrentiel où des entrepreneurs d’expertise multiplient les avis et les alertes au risque d’ajouter à la confusion plutôt que d’aider à la prise de décision. La question concerne aussi bien les think tanks que des forums internationaux, tels que le Groupe d’experts intergouvernemental sur l’évolution du climat (Giec).

La « forme-parti » pour reprendre l’expression du politiste italien, Paol  Pombeni, a, elle aussi, profondément changé. L’appareil central a diminué en termes de moyens. Il n’est plus en mesure d’exercer le même contrôle sur les troupes et sur la mise en cohérence de l’ensemble. Au sein d’un même groupe parlementaire, certains membres jouent leur communication personnelle. L’affiliation par le haut étant en crise, il n’est pas étonnant de retrouver la même crise par le bas : les partis n’assurent plus de stabilité dans le lien entre leur offre politique et la demande sociale – leurs résultats d’un type d’élection à un autre sont devenus erratiques. Il est, par exemple, devenu impossible de savoir ce que représente réellement, à la fois politiquement et socialement, le Parti socialiste si l’on confronte le résultat de la dernière présidentielle (1,7 %) avec le score obtenu aux élections européennes (13 %). Comme le montrent les travaux de Rémi Lefebvre, les partis politiques ne réussissent plus à être des entrepreneurs stables d’identités qui fidélisent des sections de la société : une majorité politique est devenue introuvable parce qu’une majorité sociale est elle-même devenue impossible.

Au total, c’est toute la chaîne qui faisait la force de l’exécutif qui est démantelée, maillon par maillon. Un président n’est plus assuré de nommer un premier ministre qui sera à même de faire voter son programme électoral grâce à une majorité solide dans les assemblées.

Le parlementarisme a fonctionné sous la IIIᵉ et la IVᵉ République

Dans une telle situation, le Parlement retrouve une position centrale. Le retour à un vrai travail budgétaire ne serait d’ailleurs qu’un retour aux sources historiques des assemblées. Le « gouvernement parlementaire » avait su fonctionner de manière satisfaisante pendant la majeure partie de la IIIe République, y compris dans sa contribution essentielle à la victoire pendant la Première Guerre mondiale. Il a encore joué sa part dans la reconstruction du pays et l’établissement du modèle social sous la IVe République, de la Sécurité sociale jusqu’au salaire minimum. On commet donc une erreur quand on déclare la France « ingouvernable ». L’expression n’a de sens que si l’on réduit la notion de gouverner à la combinaison d’un exécutif dominant associé au fait majoritaire partisan.

L’art de la décision tel qu’il était pratiqué dans le « gouvernement parlementaire » conserve sa force d’inspiration : il a d’ailleurs été pratiqué dans la période récente pour certains parcours législatifs comme sur le droit à mourir. Il est donc loin d’avoir disparu. Des modifications du règlement de l’Assemblée nationale qui s’attaqueraient notamment à l’obstruction du débat par l’abus des amendements, pourraient accompagner le « reset » du parlementarisme. Transférer une part de l’expertise de l’exécutif vers le législatif aiderait aussi au redressement de la qualité du travail des commissions.




À lire aussi :
Loi Duplomb, A69 : Comment le gouvernement Bayrou a contourné l’Assemblée nationale pour faire passer ses projets. La démocratie malmenée ?


Certes, rien ne dit que cela soit suffisant. Mais la situation actuelle démontre que la « combinaison magique » d’un président fort associé à un fait majoritaire et à un esprit partisan exacerbé a produit des résultats financiers, économiques et sociaux négatifs.

La Ve République avait d’abord apporté la stabilité du pouvoir, la force d’entraînement vers la modernisation du pays et le progrès social. Ce n’est plus le cas. La disparition du fait majoritaire, combinée au dévoilement du caractère abyssal de la dette, nous plonge dans la désillusion des vertus attribuées à la Ve République. Pour la première fois depuis la création de la Vᵉ République en 1958, il n’y a donc pas d’autre choix que de refaire Parlement.

The Conversation

Nicolas Rousselier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Démission de Sébastien Lecornu : Échec du présidentialisme, retour au parlementarisme ? – https://theconversation.com/demission-de-sebastien-lecornu-echec-du-presidentialisme-retour-au-parlementarisme-264996