Entre la mode et le cinéma, une longue histoire d’amour… et de marketing

Source: The Conversation – in French – By Isabelle Chaboud, Professeur senior d’analyse financière, d’audit et de risk management – Directrice de Programme pour le MSc Fashion Design & Luxury Management- Responsable de la spécialisation MBA "Brand & Luxury Management", GEM

Dans *le Diable s’habille en Prada*, la mode est mise en scène comme instrument de pouvoir et de transformation. Allociné

Dès ses origines, le cinéma a utilisé le costume pour ancrer le récit dans une réalité historico-sociale. Mais à partir des années 1960, le vêtement dépasse sa fonction illustrative pour devenir un outil narratif et symbolique.


La robe noire d’Audrey Hepburn dans Diamants sur canapé (Blake Edwards, 1961), signée Hubert de Givenchy, est un exemple marquant du moment où le vêtement a acquis une toute nouvelle dimension à l’écran. Ce fourreau en satin, aux découpes minimalistes dans le dos, incarne l’élégance intemporelle et consacre l’alliance entre haute couture et septième art. La scène immortalisée devant les vitrines de Tiffany’s propulse au rang d’icône la « petite robe noire », popularisée par Coco Chanel dans les années 1920, et en fait un symbole d’élégance inégalée.

Quant à la robe portée par l’héroïne, elle deviendra l’un des costumes les plus chers de l’histoire du cinéma. Le seul exemplaire vendu sera adjugé 608 000 euros aux enchères en 2006.

L’âge d’or des collaborations

Les années 1980 marquent un tournant décisif avec l’arrivée de Giorgio Armani, dont les silhouettes minimalistes et déstructurées redéfinissent l’élégance masculine et féminine. C’est en créant la garde-robe de Richard Gere dans American Gigolo (Paul Schrader, 1980) qu’Armani se fait connaître du public américain. Ses costumes, épurés et sophistiqués, deviennent sa signature visuelle et lancent une mode qui demeure influente encore à ce jour. Le couturier milanais multiplie ensuite les collaborations marquantes : il habille Kevin Costner, Sean Connery et Robert De Niro dans les Incorruptibles (Brian De Palma, 1987), Lauren Bacall dans A Star for Two (Jim Kaufman, 1991), puis à nouveau Kevin Costner dans Bodyguard (Mick Jackson, 1992). Ces apparitions contribuent à forger l’image d’un style Armani synonyme de puissance discrète et d’élégance intemporelle.

Cette relation privilégiée entre Armani et Hollywood se poursuit avec George Clooney et Brad Pitt dans Ocean’s Thirteen (Steven Soderbergh, 2007) dont il signera les tenues tout comme celles de Tom Cruise dans Mission Impossible 4 (Brad Bird, 2011), ou encore celles de Leonardo DiCaprio dans Le Loup de Wall Street (Martin Scorsese, 2013), où le personnage de Jordan Belfort arbore des costumes trois-pièces qui symbolisent son ascension et sa démesure. Ces collaborations illustrent comment la mode peut servir la narration, renforcer la crédibilité des personnages et ancrer le spectateur dans une époque ou un milieu social précis.

Leonardo DiCaprio dans le Loup de Wall Street.
Allociné

La mode comme catalyseur de métamorphose

Le vêtement, au cinéma, est vecteur de transformation. Des chercheurs se sont penchés sur ce processus à travers Pretty Woman (Garry Marshall, 1990). Le film reprend de façon moderne le thème archétypal de la transformation présent dans trois contes classiques : Cendrillon, Pygmalion et La Belle et la Bête. Vivian Ward, interprétée par Julia Roberts, femme de la rue dépeinte comme naïve mais charmante, se métamorphose grâce à ses tenues, passant d’une image marginale à une élégance sophistiquée qui lui permet de conquérir l’attention d’Edward Lewis, riche homme d’affaires interprété par Richard Gere. Les chercheurs soulignent que Pretty Woman reflète une société en mutation, où l’identité personnelle est de plus en plus façonnée par l’image et le style. Les robes à pois, la robe blanche et le chapeau noir portés sur Rodeo Drive, ou encore la robe de soirée rouge à l’opéra, deviennent des symboles de cette métamorphose, popularisant des tendances qui marqueront la mode américaine des années 1990.

Quand la mode façonne l’ambition et l’identité professionnelle

Dans le Diable s’habille en Prada (David Frankel, 2006), adapté du roman de Lauren Weisberger, la mode n’est pas seulement un accessoire, mais un instrument de pouvoir et de transformation. Andrea Sachs, jeune journaliste fraîchement diplômée interprétée par Anne Hathaway, devient l’assistante de Miranda Priestly, rédactrice en chef tyrannique du magazine Runway (incarnée par Meryl Streep).

Initialement moquée pour son manque de style, Andrea subit une métamorphose vestimentaire qui renforce sa prise de confiance en elle. Le manteau blanc, le blazer vert et la jupe plissée, ou encore les bottes noires Chanel à hauteur de cuisse deviennent les marqueurs visuels de son évolution, illustrant comment l’adoption des codes de la mode peut ouvrir les portes d’un monde professionnel impitoyable. Vingt ans après, la sortie du second opus pose une question centrale : Andrea saura-t-elle s’affirmer davantage face à Miranda et aux autres femmes ambitieuses de l’industrie, notamment en adoptant des pièces empruntées au vestiaire masculin ? Quelles nouvelles silhouettes émergeront comme symboles de cette rivalité et de cette quête d’émancipation ?

Du placement produit à la création de tendances

Le cinéma et les séries, en exposant des marques de luxe, sont devenus des leviers marketing majeurs. Les années 2000, avec Sex and the City, systématisent cette pratique, transformant les écrans en vitrines pour Manolo Blahnik, Dolce & Gabbana, Prada ou Gucci. Les recherches de Sunita Kumar (2017) confirment que le placement produit dans les films est une excellente stratégie pour augmenter la notoriété d’une marque et pour atteindre facilement un segment de clientèle.

Dans un marché de luxe estimé à plus de 1,5 trilliard d’euros en 2024 avec près de 25 % de clients américains, rien de surprenant si les productions outre-Atlantique soient autant prisées par les marques. Pourtant, l’équilibre reste fragile : entre congruence narrative et saturation publicitaire, les marques doivent éviter de tomber dans la caricature, comme dans Emily in Paris, où l’exposition répétée de produits de luxe frôle parfois le théâtre parodique. Malgré cela, certaines apparitions plus discrètes comme celle de sacs produits par une maison iséroise dans la saison 5 de la série, ont entraîné une affluence de commandes, prouvant l’impact direct de ces placements.

Dans la série Emily in Paris, saison 4, épisode 3, un bal masqué très haute-couture.
Allociné

Quand la mode devient personnage principal

La série Love Story (2024), qui retrace la relation entre Carolyn Bessette et John F. Kennedy Jr des années 1990 à leur tragique disparition en 1999, offre une illustration frappante de l’influence de la mode à l’écran. Bien que la série explore avant tout la dimension psychologique de ce couple iconique, les tenues de Carolyn Bessette y occupent une place centrale. Son style minimaliste, épuré et élégant y devient un personnage à part entière, célébré sous le nom de « Carolyn Bessette Style ». Les réseaux sociaux s’emparent du phénomène, avec une explosion des recherches pour les pièces des années 1990 et le hashtag #CBK. Les plateformes de vente de seconde main voient leurs ventes de vêtements vintage bondir, tandis que Calvin Klein, marque emblématique de cette époque, bénéficie d’un regain d’intérêt inédit.

Ce succès démontre que la mode, lorsqu’elle est intégrée avec subtilité et pertinence, peut transcender son rôle d’accessoire pour devenir un véritable vecteur d’identification et d’aspiration. Le placement de marques de luxe n’a d’effet persuasif que lorsqu’il s’inscrit dans un contexte narratif cohérent. Love Story en est la preuve : en associant le style de Carolyn Bessette à une époque, une esthétique et une émotion, la série a su créer un phénomène culturel bien au-delà du simple placement de produit.

La mode à l’écran, entre miroir social et levier d’influence

Le costume cinématographique, d’abord simple accessoire, s’est imposé comme un langage universel, reflétant et anticipant les évolutions sociétales. Il transcende désormais sa fonction narrative pour devenir un outil de transformation identitaire et un levier marketing incontournable. À l’ère du numérique, où les frontières entre fiction et réalité s’estompent, les marques de luxe et le septième art entretiennent une relation symbiotique : l’un offre une scène, l’autre une histoire. Cette alliance, entre création artistique et stratégie commerciale, continue de captiver l’imaginaire collectif, tout en interrogeant les limites d’une exposition toujours plus intense. Les spectateurs, en quête d’identification et d’authenticité, voient-ils encore dans ces récits une promesse de métamorphose personnelle ?

Les influenceurs poussent désormais les créateurs de mode vers la production cinématographique pour réinventer leur storytelling, maîtriser leur image et toucher des audiences en quête de sens : la longue histoire d’amour et de marketing entre la mode et le cinéma n’est pas prête de s’essouffler, mais elle se réinvente sans cesse.

The Conversation

Isabelle Chaboud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Entre la mode et le cinéma, une longue histoire d’amour… et de marketing – https://theconversation.com/entre-la-mode-et-le-cinema-une-longue-histoire-damour-et-de-marketing-280379

Directive européenne sur les sols : pourquoi les suivis par ADN environnemental ne suffiront pas

Source: The Conversation – in French – By Mickaël Hedde, Directeur de recherche, Inrae

La directive européenne sur la surveillance des sols, adoptée par l’Union européenne fin 2025, ambitionne de parvenir à des sols en bonne santé d’ici à 2050. Ces derniers se situent, en effet, au carrefour de multiples enjeux : climat, biodiversité, alimentation, etc. Oui, mais avec quels outils de mesure ? Le texte décidé à Bruxelles n’impose, pour l’heure, que l’approche fondée sur l’ADN environnemental. La France dispose pourtant d’une forte expérience de mesure de la qualité des sols, qui pourrait être avantageusement mise à profit : les meilleurs outils de suivi sont ceux qui intègrent de façon simultanée plusieurs approches complémentaires.


Depuis novembre 2025, la Directive européenne sur la surveillance et la résilience des sols impose aux États membres d’évaluer régulièrement la biodiversité des sols. Pour la partie biologique, la directive prévoit le suivi, tous les six ans, de la diversité microbienne des sols (bactéries et champignons) à partir de l’ADN environnemental (ADNe).

Or, si l’ADNe constitue un outil puissant pour détecter la biodiversité à grande échelle, il est insuffisant, à lui seul, pour interpréter les changements observés et en identifier les causes. En effet, les communautés bactériennes et fongiques ne représentent qu’une partie de la biodiversité des sols, qui inclut également de nombreux organismes aux rôles écologiques cruciaux et variés.

Le fonctionnement des sols repose également sur l’abondance, la biomasse et l’activité des organismes vivants, dimensions qui ne peuvent être évaluées par la seule détection moléculaire. Une approche graduée combinant plusieurs protocoles complémentaires est donc nécessaire pour produire des indicateurs robustes et utiles pour l’action publique.

L’expérience française, notamment à travers le réseau de mesure de la qualité des sols (RMQS) et le GIS Sol, constitue, à ce titre, un référentiel d’interprétation des résultats et un cadre opérationnel déjà éprouvé pour la surveillance de la biodiversité des sols. Celui-ci pourrait avantageusement compléter le socle prévu par la législation européenne.

L’ADN environnemental, nécessaire mais pas suffisant

L’ADNe est une approche moléculaire et, à ce titre, présente des avantages en matière de surveillance environnementale : détection large – et a priori standardisée – de la biodiversité, forte comparabilité spatiale et temporelle… De telles méthodes constituent un outil particulièrement efficace pour détecter des changements dans la composition des communautés biologiques.

Cependant, les signatures moléculaires issues de l’ADNe ne permettent pas toujours d’identifier correctement les taxons présents dans les sols. Elles peuvent présenter des biais de représentativité. Elles sont, de plus, souvent peu corrélées à d’autres caractéristiques biologiques essentielles pour caractériser la biodiversité et le fonctionnement des sols, telles que l’abondance des organismes, leur biomasse, leur structure démographique ou encore leurs activités. Elles offriront donc une vision incomplète – voire parfois déformée – de la santé des sols.

Or, au-delà de la simple détection de changements de diversité, les dispositifs de surveillance doivent également permettre d’interpréter ces évolutions, c’est-à-dire, comprendre ce qu’elles impliquent pour la fonctionnalité de sols, par exemple pour l’agriculture, et d’en identifier les causes. C’est cela qui permettra d’évaluer l’efficacité des politiques publiques et des pratiques de gestion. Dans ce contexte, réduire la complexité biologique et écologique des sols à cette unique composante comporte un risque lié à ses difficultés d’interprétation.

La directive prévoit toutefois que les États membres puissent compléter les indicateurs obligatoires par d’autres indicateurs biologiques dans leurs dispositifs nationaux de surveillance, ouvrant ainsi la possibilité d’approches plus intégrées.

Un outil d’aide à la décision publique

La surveillance de l’environnement poursuit deux objectifs distincts et complémentaires : détecter des changements de l’état des écosystèmes et attribuer ces changements à des pressions environnementales, des usages des sols ou des pratiques de gestion. Ces deux dimensions sont étroitement liées par les processus biologiques et écologiques qui structurent le fonctionnement des écosystèmes.

Au-delà de leur portée scientifique, les indicateurs utilisés pour le suivi de la biodiversité des sols constituent un outil d’aide à la décision publique. Il ne s’agit pas seulement d’identifier les dynamiques des communautés biologiques, mais aussi d’en comprendre les causes. Cela concerne donc aussi, et d’abord, les décideurs publics. Il s’agit d’orienter les pratiques d’aménagement et de gestion durable, d’identifier les situations de dégradation, de mener des politiques pour remédier et de pouvoir en évaluer l’efficacité.

Un dispositif de surveillance qui se limiterait à la détection de changements de la biodiversité des sols sans permettre leur interprétation et leur attribution aux pressions environnementales offrirait une base limitée pour l’évaluation des politiques publiques et la mise en œuvre de stratégies de gestion adaptées.

La biodiversité ne se résume pas au seul nombre de taxons

Les fonctions écologiques du sol – telles que la régulation de l’eau et des contaminants, la fourniture des nutriments, le stockage de carbone, l’entretien de la structure ou le support de la biodiversité elle-même – ne sont pas des états statiques, mais des processus dynamiques. Elles reposent sur l’activité des organismes vivants, leur biomasse et leurs caractéristiques fonctionnelles (physiologie, comportement) ainsi que leurs interactions (compétition, symbiose, parasitisme). Elles s’expriment par des flux et des vitesses de renouvellement plutôt que par de simples stocks.

Dans ce cadre, les approches moléculaires fournissent une information précieuse sur la présence d’organismes, mais ne permettent pas, à elles seules, d’évaluer ces processus dynamiques ni leur intensité. Une interprétation correcte du fonctionnement des sols nécessite donc des mesures complémentaires ainsi que des référentiels d’interprétation permettant de relier les indicateurs biologiques aux différents contextes d’usage des sols et aux conditions environnementales.

Les données ADNe sont de plus en plus utilisées pour développer de nouvelles approches, par exemple celles fondées sur les réseaux d’interactions, qui permettent de représenter l’organisation des communautés biologiques du sol. Lorsque ces réseaux sont construits uniquement à partir de données de présence ou de co-occurrence, ils reflètent surtout le partage de conditions écologiques ou de niches environnementales par différentes espèces.

Cela ne fournit alors que des informations indirectes sur les activités biologiques à l’œuvre et sur les flux de matière et d’énergie, qui déterminent pourtant aussi le fonctionnement des sols. L’interprétation écologique nécessite des informations complémentaires, notamment sur l’abondance ou la biomasse des organismes. C’est ainsi que l’on peut relier les communautés biologiques aux processus écologiques qui soutiennent les fonctions du sol.

Une approche graduée et complémentaire

Afin de concilier efficacité opérationnelle et pertinence écologique, le suivi de la biodiversité des sols gagne à combiner plusieurs types d’approches, chacune apportant une information spécifique sur l’état et le fonctionnement des communautés biologiques.

Les approches fondées sur l’ADNe permettent une détection large et standardisée de la biodiversité microbienne, et pourraient être étendues à d’autres organismes comme les invertébrés.

D’autres méthodes reposent sur l’observation directe des organismes de la faune du sol, l’estimation de leur abondance ou de leur biomasse, ou encore l’analyse de leurs caractéristiques fonctionnelles. Elles apportent des informations essentielles sur la structure biologique et le rôle écologique des communautés du sol.

Ces approches ne doivent pas être considérées comme mutuellement exclusives, mais comme des outils complémentaires. Elles permettent de relier la composition des communautés biologiques (structure taxonomique et fonctionnelle) aux processus écologiques qui soutiennent les fonctions des sols. Leur combinaison est, à ce titre, particulièrement intéressante pour construire une stratégie de suivi présentant différents niveaux d’information.

Cette logique de complémentarité est déjà mise en œuvre dans certains dispositifs de suivi existants. Par exemple, dans le cadre du réseau français de surveillance des sols (RMQS) ou encore dans l’observatoire de biodiversité de montagne Orchamp. Ces approches n’ont pas vocation à être déployées partout, mais leur combinaison est indispensable pour interpréter correctement l’état et l’évolution de la biodiversité des sols.

Nos recommandations pour une mise en œuvre de la directive à l’échelle nationale

Préserver la capacité à comprendre, expliquer et agir suppose de reconnaître que la complexité biologique des sols appelle une diversité maîtrisée des approches de suivi.

Avec le soutien du GIS Sol, la France figure parmi les nations à la pointe du suivi de la biodiversité des sols. Elle a éprouvé cette approche, combinant plusieurs protocoles au sein du RMQS, depuis plusieurs années. Cette expérience, rare à l’échelle européenne, doit constituer la base sur laquelle construire le futur réseau national de surveillance des sols.

La directive prévoit, au-delà des indicateurs obligatoires, la possibilité pour les États membres de compléter leurs dispositifs par des indicateurs optionnels. Cette flexibilité offre l’opportunité de mettre en place un système de surveillance capable non seulement de détecter des tendances d’évolution de la biodiversité des sols, mais aussi d’en interpréter les causes et les possibilités de remédiation. Cela permet enfin d’évaluer les implications pour les politiques publiques.

Dans cette perspective, plusieurs principes devraient guider la déclinaison nationale de la directive européenne :

  • Ne pas restreindre la surveillance nationale de la biodiversité des sols à une mesure unique issue de l’ADNe, qui limite notre capacité à interpréter les changements observés.

  • Mettre en œuvre une combinaison de mesures complémentaires, permettant de relier la détection de la biodiversité à la structure des communautés et aux processus écologiques qui soutiennent les fonctions des sols, avec l’appui des des protocoles et des mesures qui seront développés dans les PEPR Dynabiod et SolsVivants.

  • Développer des référentiels d’interprétation ouverts et des cadres d’analyse permettant d’évaluer si les variations observées sont significatives, afin de relier les indicateurs biologiques aux usages des sols et aux pressions environnementales.

  • Tirer parti des dispositifs existants, notamment du RMQS soutenu par le GIS Sol, afin de garantir la cohérence, la comparabilité et la robustesse scientifique du futur système national de surveillance.


Cet article est une production conjointe du RMQS Biodiversité, des PEPR SolsVivants et Dynabiod et du RNEST, représentés par les co-auteurs. Ont également contribué à l’élaboration de ce document : Apolline Auclerc, Nolwenn Bougon, Miriam Buitrago, Philippe Hinsinger, Claudy Jolivet, Antoine Lévêque, Gwenaël Magne, Florence Maunoury-Danger, Jérôme Mathieu, Christian Mougin, Laurent Palka, Benjamin Pauget, Guénola Pérès, Sophie Pouzenc, Sophie Raous, Claire Salomon, Marie-Françoise Slack, Wilfried Thuiller, Cécile Villenave, Quentin Vincent.

The Conversation

Mickaël Hedde a reçu des financements de différents organismes français (OFB, ANR, ADEME) et de l’Union Européen (Horizon Europe) pour mener ses recherches au sein de l’INRAE.

Antonio Bispo est directeur de l’unité de recherche INRAE Info&Sols basée à Orléans. Il a reçu des financements de différents organismes français (Ministères, OFB, ANR, ADEME, Région Centre Val de Loire) et de l’Union Européen (Horizon Europe) pour mener ses recherches. L’unité de recherche pilote, pour le compte du GIS Sol (www.gissol.fr), les programmes nationaux d’inventaire et de surveillance des sols, elle gère également le système national d’information sur les sols.

Claire Chenu est membre de l’Association Française pour l’Etude des Sols (AFES), membre correspondant de l’Académie d’Agriculture et membre de l’Académie des Technologies. Elle co-préside le Comité Scientifique, Technique et d’Innovation du Réseau National d’Expertise Scientifique et Technique sur les Sols (CSTI RNEST). Elle a reçu des financements Européens (en particulier European Joint Programme SOIL) pour mener des recherches au sein d’INRAE et AgroParisTech

Flavien Poincot est ingénieur à l’Acta qui accompagne, anime et représentante le réseau des 19 instituts techniques agricoles, organismes de recherche appliquée travaillant pour l’ensemble des productions agricoles, animales et végétales.

Jérôme Cortet est membre de la Société française d’Écologie Évolution (SFE2) et de l’Association française pour l’Étude du Sol (AFES). Il co-préside actuellement le Comité Scientifique Technique et d’Innovation du Réseau National d’Expertise Scientifique et Technique sur les Sols (CSTI RNEST). Il a reçu des financements de différents organismes français (ANR, ADEME, Région Occitanie) pour mener ses recherches au sein du Centre d’Écologie Fonctionnelle et Évolutive, laboratoire rattaché à l’Université de Montpellier Paul-Valéry

ref. Directive européenne sur les sols : pourquoi les suivis par ADN environnemental ne suffiront pas – https://theconversation.com/directive-europeenne-sur-les-sols-pourquoi-les-suivis-par-adn-environnemental-ne-suffiront-pas-280098

« StravaLeaks » : quand les traces numériques deviennent un enjeu de sécurité

Source: The Conversation – in French – By Fabrice Lollia, Docteur en sciences de l’information et de la communication, chercheur associé laboratoire DICEN Ile de France, Université Gustave Eiffel

L’affaire « StravaLeaks » montre que, dans un monde saturé d’objets connectés et de données de localisation, les traces numériques ordinaires sont devenues un enjeu central de sécurité pour les environnements sensibles. De simples données de déplacement issues d’un footing, enregistrées et partagées par une application publique, ont pu être utilisées pour localiser des navires ou des bases militaires.


Un footing, en apparence, n’a rien de sensible. Pourtant, en mars 2026, une activité enregistrée sur Strava par un militaire français a permis de localiser en temps quasi réel le porte‑avions Charles-de-Gaulle en Méditerranée orientale. Dès 2018, la carte de chaleur mondiale de Strava – une visualisation agrégée des activités publiques enregistrées par ses utilisateurs – avait déjà révélé des bases militaires et des sites sensibles, et des enquêtes plus récentes ont montré que les pratiques sportives de gardes du corps pouvaient trahir des habitudes de déplacement de chefs d’État.

Le problème ne vient pas d’un piratage sophistiqué, mais d’un usage banal de montre connectée, compte public et trace GPS accessible en ligne. Ce cas illustre comment la sécurité d’aujourd’hui ne se limite plus à la protection physique, mais inclut aussi la maîtrise des traces numériques produites par nos comportements les plus ordinaires.

Quand une application déborde de son usage initial

Strava est une application conçue pour suivre et partager des performances sportives. Son usage premier relève du loisir, de la sociabilité numérique et du suivi de soi, non de la documentation d’activités sensibles. C’est pourtant là toute l’ambivalence de ce type d’outils car sans avoir été pensés pour la sécurité, ils peuvent produire des effets très concrets sur elle.

À mesure que les technologies de traçabilité s’installent dans les usages quotidiens, elles cessent d’apparaître comme des dispositifs de contrôle. Elles deviennent des outils familiers, associés au confort ou à l’optimisation des pratiques. Dès lors, une course, un itinéraire répété, un point de départ ou d’arrivée ou une activité enregistrée en mer peuvent révéler bien davantage qu’une simple pratique sportive. Une donnée de performance peut devenir un indice sur une routine, une présence ou une habitude de déplacement.

Le cas Strava n’est d’ailleurs pas isolé. À l’aéroport d’Heathrow (Londres), en 2014, des toilettes connectées ont été testées pour mesurer anonymement leur fréquentation, améliorer le nettoyage et mieux répartir les moyens de maintenance. L’exemple peut sembler éloigné, mais il montre que, au-delà des outils explicitement sécuritaires, des dispositifs connectés collectent eux aussi discrètement des traces numériques sur les comportements des usagers. En ce sens, la vulnérabilité ne naît plus seulement d’une attaque ou d’une fuite volontaire, mais aussi d’usages ordinaires dont les effets de visibilité sont souvent sous-estimés.

La sécurité ne se joue plus seulement sur le terrain

Longtemps, la sécurité a été pensée selon un modèle essentiellement physique. Il fallait protéger une personne, sécuriser un déplacement, contrôler un périmètre, anticiper une menace. Cette logique est toujours d’actualité mais, à l’ère numérique, elle ne suffit plus.

Dans un environnement saturé d’objets connectés, de plateformes et de données de localisation, la vulnérabilité peut désormais naître à la périphérie du dispositif de protection. Elle ne résulte plus forcément d’une intrusion ou d’une action malveillante. Elle peut venir d’un usage mal paramétré, d’une routine numérique non interrogée ou d’un outil utilisé sans conscience de ses effets de visibilité.

La sécurité d’un responsable politique, d’un chef d’entreprise, d’un diplomate ou d’un site sensible dépend donc aussi des traces numériques produites par son environnement humain et technique : assistants, chauffeurs, escortes, collaborateurs, militaires, objets connectés, applications de suivi ou réseaux de partage. Protéger une « personne sensible », une personnalité, aujourd’hui, ce n’est plus seulement protéger son corps ou son itinéraire. C’est aussi protéger l’écosystème informationnel qui l’entoure.

Cette évolution renvoie à une sécurité de plus en plus renforcée par la technologie via les capteurs, les données et les outils de suivi. Mais l’ajout de technologie ne supprime pas la vulnérabilité. C’est justement le problème d’une lecture technosolutionniste qui surestime la complémentarité humain-machine. Elle rappelle au contraire qu’une technologie n’est efficace qu’à condition d’être articulée à l’analyse humaine, à l’expérience de terrain et à une compréhension fine du contexte. Certes, la technologie renforce donc la vigilance, mais elle ne remplace ni le jugement, ni la formation, ni la culture du risque.

La vulnérabilité observée est également organisationnelle, culturelle et humaine. Elle naît d’une forme de non-concordance entre la banalité des usages numériques (courir avec une montre connectée, par exemple) et la sensibilité des environnements dans lesquels elles s’inscrivent (être dans un endroit classifié secret-défense). Un même outil peut être perçu comme un outil de confort ou de performance tout en produisant des effets d’exposition importants.

Former devient donc aussi important qu’équiper dans la mesure où il ne s’agit pas seulement d’interdire certains usages, mais plutôt de faire comprendre comment une trace numérique par définition invisible peut, par agrégation et recoupement, devenir une information sensible. La sécurité ne se joue donc plus dans le contrôle des outils, mais dans l’intelligence des pratiques.

Réintégrer l’humain au centre de la doctrine de sécurité

L’un des principaux enseignements de ces affaires est qu’aucune technologie ne protège à elle seule. Une application, une montre connectée ou un dispositif de géolocalisation ne sont ni bons ni mauvais en soi. Comme le montre la recherche, tout dépend du cadre dans lequel ils sont utilisés, des règles qui les entourent et de la capacité des acteurs à en comprendre les effets. Raison pour laquelle la réponse ne peut pas être juste « technique ».

Elle suppose aussi une doctrine d’usage, une formation adaptée et une culture sécuritaire partagée. À l’inverse la traçabilité peut aussi renforcer la protection, mais elle ne remplace ni l’analyse humaine, ni l’appréciation du contexte, ni les méthodes classiques de sécurité.

Autrement dit, la sécurité des environnements sensibles repose sur une complémentarité entre l’outil et l’humain. Il ne suffit pas de déployer des dispositifs ; encore faut-il que les utilisateurs comprennent ce qu’ils produisent, ce qu’ils exposent et les conséquences possibles de leurs usages entre une possible surveillance et une souveillance, c’est-à-dire une forme plus discrète de captation des traces intégrées aux gestes ordinaires et parfois à peine perçue par ceux qui y participent.

Dans le cas Strava, l’enjeu n’est donc pas seulement de mieux paramétrer une application. Il est de construire une culture du risque numérique, capable d’intégrer les gestes les plus ordinaires à la réflexion sécuritaire.

Ce que la recherche nous enseigne en lien avec ces cas est que la vraie leçon de ces affaires est peut-être là : dans un monde connecté, la menace ne réside pas seulement dans ce que l’on cherche à cacher, mais aussi dans ce que l’on produit sans y penser.

Ces affaires dites « StravaLeaks » montrent que la traçabilité numérique, loin d’être un simple confort d’usage, peut devenir un enjeu de sûreté dès lors qu’elle s’inscrit dans un environnement sensible. Protéger, aujourd’hui, ce n’est plus seulement verrouiller un périmètre ou escorter une personnalité. C’est aussi apprendre à gouverner les traces que produisent les usages les plus ordinaires.

The Conversation

Fabrice Lollia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. « StravaLeaks » : quand les traces numériques deviennent un enjeu de sécurité – https://theconversation.com/stravaleaks-quand-les-traces-numeriques-deviennent-un-enjeu-de-securite-279942

L’IA générative, première révolution cognitive de l’histoire du travail

Source: The Conversation – in French – By Hugo Spring-Ragain, Doctorant en économie / économie mathématique, Centre d’études diplomatiques et stratégiques (CEDS)

L’intelligence artificielle ne détruit pas tant des emplois qu’elle modifie profondément les compétences nécessaires pour les accomplir. De cette confusion entre emploi et compétences risquent de naître des erreurs dans les politiques d’accompagnement des mutations en cours.


Chaque grande vague technologique a produit son lot de prédictions contradictoires sur l’emploi. L’intelligence artificielle (IA) ne fait pas exception. Mais avant de savoir combien d’emplois l’IA va créer ou détruire, il faudrait s’accorder sur ce qu’elle automatise réellement. La réponse oblige à distinguer trois notions que le débat public confond régulièrement : l’emploi, la compétence et la tâche.

Les grandes vagues d’automatisation ont suivi une logique remarquablement stable en deux siècles : vapeur, électricité, robotique industrielle ont déplacé les tâches physiques répétitives et épargné le travail cognitif non routinier. Cette régularité empirique a été formalisée par Autor, Levy et Murnane dès 2003 sous le nom d’« hypothèse de polarisation des tâches ».

Une illusion persistante

L’automatisation ronge les emplois intermédiaires, ceux des cols bleus qualifiés et employés de bureau exécutant des tâches routinières, mais épargne les deux extrémités. D’un côté, les tâches manuelles non routinières, comme la plomberie ou les soins, de l’autre, les tâches cognitives non routinières, comme l’analyse, le conseil ou la rédaction experte. Ces dernières constituaient le cœur des professions du tertiaire qualifié, et la conviction s’était solidement installée qu’elles resteraient hors d’atteinte.




À lire aussi :
Pourquoi l’IA oblige les entreprises à repenser la valeur du travail


Cette conviction reposait sur une confusion conceptuelle qu’il faut dissiper avant tout. Ce n’est pas l’emploi de juriste ou d’analyste financier qui était protégé, c’est un ensemble de tâches précises qui composaient cet emploi et qui résistaient jusqu’ici à l’automatisation. La distinction entre ces trois niveaux est fondamentale.

Un emploi désigne un poste occupé dans une organisation, avec un contrat, un salaire, une fiche de poste. Une compétence est une capacité cognitive ou technique mobilisable dans plusieurs contextes professionnels. Une tâche est une action précise, délimitable, dont on peut évaluer si elle est ou non automatisable à un coût donné. C’est à ce troisième niveau que se joue réellement la transformation en cours, et c’est précisément ce niveau que le débat public ignore.

Rupture dans la longue histoire du capitalisme industriel

L’IA générative constitue une rupture dans cette longue histoire. Pour la première fois depuis l’industrialisation, les tâches cognitives qualifiées, rédaction, analyse documentaire, synthèse, production de premiers jets, se retrouvent directement exposées. Eloundou, Manning, Mishkin et Rock estiment qu’environ 80 % de la population active états-unienne pourrait voir au moins 10 % de ses tâches affectées par les grands modèles de langage, et que cette exposition croît avec le niveau de salaire. C’est l’exact inverse du schéma observé lors de toutes les vagues précédentes.

Le cadre analytique développé par Acemoglu et Restrepo permet d’aller plus loin. Leur modèle distingue deux effets opposés produits par toute vague d’automatisation :

  • l’effet de déplacement, d’abord : des travailleurs perdent des tâches au bénéfice de la machine, ce qui réduit mécaniquement la demande de travail et pèse sur les salaires des groupes affectés ;

  • l’effet de réintégration, ensuite : l’automatisation produit de nouvelles tâches où la valeur humaine est décisive, générant une demande compensatrice.

L’histoire longue du capitalisme industriel peut se lire comme une succession de ces deux effets, le second finissant généralement par compenser le premier.

Le cas de la traduction permet de voir très concrètement comment déplacement et réintégration se combinent, l’IA générative peut produire en quelques secondes un premier jet dans une autre langue, ce qui déplace une partie du travail auparavant effectué par des traducteurs humains vers la machine. Mais cette automatisation réintègre simultanément d’autres tâches ou renforce leur importance, telles que la vérification des contresens, l’adaptation au contexte culturel, l’harmonisation de la terminologie, le contrôle de la qualité et la validation finale.

Potentiel déséquilibre

Ce qui est préoccupant avec l’IA générative, c’est le déséquilibre potentiel entre ces deux dynamiques. Le déplacement s’opère à une vitesse que les marchés du travail et les institutions de formation peinent à absorber, tandis que la réintégration reste encore largement à construire.

Cependant, le phénomène le plus important n’est pas sectoriel, mais il est interne aux métiers eux-mêmes. Dans ses « Perspectives de l’emploi », l’OCDE met en évidence que les professions les plus exposées à l’IA générative sont précisément celles à forte densité cognitive : finance, droit, conseil, enseignement supérieur. Contrairement aux vagues précédentes qui frappaient les zones rurales et les bassins industriels, l’exposition est désormais plus forte dans les grandes métropoles et chez les travailleurs hautement qualifiés, un renversement géographique et social inédit.

Redistribuer les tâches

Ce renversement se joue concrètement au niveau de la tâche.

Dans un même poste d’analyste financier ou de juriste, certaines tâches migrent vers l’IA (produire un résumé exécutif, générer une première analyse de contrat, synthétiser une revue de littérature), tandis que d’autres se revalorisent mécaniquement : définir le cadre d’analyse pertinent, évaluer la qualité d’un raisonnement automatisé, détecter une erreur factuelle dans un output, assumer la responsabilité juridique ou éthique d’une décision. Ce ne sont pas des emplois qui disparaissent. Ce sont des bouquets de tâches qui se redistribuent entre humains et machines, transformant de l’intérieur ce qu’un employeur attend d’un salarié qualifié.

Cette redistribution des tâches a une implication directe sur les compétences qui seront réellement valorisées dans les années à venir, et elle renverse une partie des évidences habituelles sur la formation professionnelle.

Former les travailleurs à utiliser l’IA au sens instrumental, maîtriser un outil, rédiger des prompts efficaces, s’approprier une interface, est utile à court terme, mais c’est insuffisant si la compétence réellement demandée demain n’est pas de produire avec l’IA, mais de superviser et de critiquer ce qu’elle produit.

Un enjeu de formation

Or, superviser efficacement un output d’IA requiert exactement ce que les formations courtes et techniques peinent à développer : une culture générale solide permettant de détecter une erreur de fond, une capacité argumentative pour évaluer la cohérence d’un raisonnement, une connaissance des biais cognitifs pour identifier les angles morts d’une analyse automatisée. Ce sont des compétences que les sciences de l’éducation regroupent sous le terme de métacompétences : apprendre à apprendre, à exercer un jugement critique, à mobiliser des savoirs dans des situations inédites.

Arte, 2025.

Le paradoxe devient alors le suivant. À mesure que l’IA automatise les tâches routinières de la connaissance, elle valorise précisément ce que les formations généralistes et les cursus de sciences humaines cultivent de longue date et que les débats sur l’employabilité ont eu tendance à déconsidérer au profit de compétences techniques plus immédiatement mesurables.

Non par nostalgie des humanités, mais par logique économique pure. Si la machine produit le texte, l’analyse et la synthèse, la valeur marginale de l’humain réside dans sa capacité à juger si ce texte dit vrai, si cette analyse est pertinente au regard du contexte réel, si cette synthèse sert l’objectif poursuivi.

The Conversation

Hugo Spring-Ragain ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’IA générative, première révolution cognitive de l’histoire du travail – https://theconversation.com/lia-generative-premiere-revolution-cognitive-de-lhistoire-du-travail-279911

Pourquoi les souverainistes sont de faux libéraux

Source: The Conversation – in French – By Thierry Aimar, Maître de conférences en sciences économiques, Université de Lorraine

Jordan Bardella est reçu au Medef, ce lundi 20 avril. Comme de nombreux dirigeants européens de la droite souverainiste, il se réclame du libéralisme. Pourtant, le souverainisme économique s’oppose aux principes mêmes du libéralisme, fondés sur le libre-échange et l’universalisme. Sous le drapeau idéologique de l’intérêt national, le souverainisme, ou conservatisme, exprime les intérêts de propriétaires qui cherchent à transformer leurs revenus en rentes en se protégeant de la concurrence internationale.


Donald Trump, Giorgia Meloni, Javier Milei ou Viktor Orban à l’étranger, Sarah Knafo, Jordan Bardella ou Bruno Retailleau en France… Tous ces responsables politiques attèlent aujourd’hui le cheval du libéralisme à la charrette du souverainisme, de la protection nationale et de la lutte contre l’immigration. Personne dans la presse ne semble véritablement s’étonner de ce nouvel équipage, et surtout s’interroger sur les forces idéologiques qui se cachent derrière.

Nombre de ces dirigeants conservateurs évoquent des points communs avec le libéralisme, voire une complémentarité nécessaire. Ainsi, pour Bruno Retailleau, « le libéralisme authentique ne va pas sans un conservatisme assumé ». Certes, partout dans le monde occidental, la droite souverainiste incorpore dans son programme le principe libéral de l’abaissement de la fiscalité sur les revenus du travail et du capital, ainsi que l’allègement de la réglementation administrative. Mais, pour les libéraux, le combat contre la taxation et l’étouffoir des normes n’est pas destiné à protéger les intérêts corporatistes des propriétaires de ressources. Il s’inscrit à l’intérieur d’un ensemble plus large, profondément étranger à la droite souverainiste, qui est le respect du libre-échange et de la compétition internationale.

Ce qu’est vraiment le libéralisme

Il suffit de relire Adam Smith, Frédéric Bastiat ou Friedrich Hayek pour comprendre que la liberté défendue par le libéralisme est celle d’entrer sur le terrain du marché pour essayer de gagner le match de la concurrence ; pas celle de s’en affranchir en empêchant des adversaires de participer à la compétition. Un libéralisme qualifié de national, protégé par les douves du protectionnisme et des barrières tarifaires, comme le défend Donald Trump, est, de ce point de vue parfaitement contradictoire. Il revient à définir administrativement les frontières du marché et à permettre à certains capitalistes et salariés nationaux de transformer leurs revenus en rentes, au détriment d’autres producteurs domestiques et extérieurs. Et surtout de l’ensemble des consommateurs. Le libéralisme ne défend pas des privilégiés, il défend les créateurs de valeurs ; il ne défend pas les intérêts d’acteurs domestiques, il défend les intérêts des citoyens du monde ; le libéralisme n’est pas pro-business, il est pro-consommateur ; enfin, le libéralisme ne s’attache à aucune forme de communautarisme, national, racial, familial, religieux ou autre. Son ADN est constitué par un individualisme affranchi de toute idée de solidarités organiques. Celles-ci ne servent que d’habillage moral à des systèmes de rentes réservées aux membres de clubs arbitrairement définis par des stéréotypes et protégés par des barrières à l’entrée.

Le souverainisme est un protectionnisme

L’intérêt général que le souverainisme se targue d’incarner ne dépasse pas du tout le communautarisme. Il en est simplement une expression plus institutionnalisée, avec l’ambition de contrecarrer une mondialisation qui récompense l’efficacité des uns et révèle les faiblesses des autres. Si la mondialisation a parfois augmenté les inégalités de revenus à l’intérieur des nations, en retirant à certaines corporations le bénéfice d’une protection tarifaire, elle a permis une plus grande égalité des conditions de développement entre les pays. On comprend alors que le souverainisme serve de prétexte à des acteurs devenus incapables de s’assurer un revenu par l’échange pour prélever, grâce à la réglementation, une part du produit social supérieure à leur productivité.

C’est un protectionnisme mis au service d’intérêts particuliers, déguisé en solidarité nationale, qui s’organise en réalité pour préserver des féodalités économiques, regroupées autour d’un capitalisme illibéral, lequel est toujours prêt à sacrifier liberté politique et économique pour protéger de la concurrence les revenus des propriétaires nationaux de ressources. Les privilèges de ces castes se réclamant du conservatisme ne sauraient subsister sans une connivence avec l’État (« crony capitalism ») qui leur permet de s’approprier le territoire collectif, soumettre les individus qui s’y trouvent à ses diktats et exclure les autres lorsqu’ils menacent leurs rentes.

Comme l’a bien montré Hayek, le conservatisme est une langue aussi étrangère au libéralisme que peut l’être le socialisme. Ce sont les deux frères ennemis d’une même pensée, qui s’affrontent simplement pour savoir quels groupes vont bénéficier de la protection étatique. Caractériser des individus par une identité collective (nationale, religieuse, raciale, familiale) masque en réalité des privilèges et des discriminations qu’on n’ose pas reconnaître officiellement. Ce réflexe identitaire nourrit l’intolérance, génère des conflits à l’intérieur de la société et, sous le prétexte de les circonscrire, conduit finalement à l’autoritarisme. Les conservateurs veulent embrasser la liberté sur une joue et la protection économique de l’État sur l’autre joue, en feignant d’ignorer qu’elles ne se trouvent jamais sur un même visage.

Une lecture erronée qui associe extrême droite et libéralisme

Ainsi, Donald Trump n’est-il pas une dégénérescence du conservatisme, mais son expression la plus décomplexée. Il adapte sa politique en fonction des intérêts du moment de groupes qui le soutiennent en échange de sa protection. Beaucoup de commentateurs se sont alors engouffrés dans cette brèche pour considérer qu’extrême droite et libéralisme constituaient les deux faces d’une même médaille. En s’appuyant sur l’exemple de Viktor Orban en Hongrie, ils développent la thèse d’un libéralisme autoritaire, voire dictatorial, qui s’appliquerait aujourd’hui aux États-Unis. Cette thèse s’est vue confortée par les récentes déclarations antidémocratiques des autoproclamés libertariens de la tech, les Peter Thiel, Elon Musk, ou encore Larry Ellison, le PDG d’Oracle.

Pour l’avenir et la crédibilité du libéralisme, il est très important de démasquer ces associations fallacieuses propagées par des trafiquants de concepts qui surfent sur la crise des savoirs et la crédulité des esprits. Il ne faut pas tomber dans le piège de cette mythologie contemporaine d’un supermarché libéral, où chacun pourrait se servir ce qu’il veut, au gré de ses intérêts et préjugés. Ceux qui, en France, prônent une union de la droite et de l’extrême droite, demandent en fait aux militants libéraux d’assurer de leur soutien politique une idéologie protectionniste qui, en réalité, est la parfaite antithèse du libéralisme.


Cette contribution est publiée en partenariat avec le Printemps de l’économie qui s’est déroulé du 17 au 20 mars 2026. Retrouvez ici les replays de la 14ᵉ édition, « Le temps des rapports de force ».

The Conversation

Thierry Aimar ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Pourquoi les souverainistes sont de faux libéraux – https://theconversation.com/pourquoi-les-souverainistes-sont-de-faux-liberaux-276192

L’œil vieillit, lui aussi. Voici comment éviter les conséquences néfastes de quatre maladies oculaires courantes

Source: The Conversation – in French – By Langis Michaud, Professeur Titulaire. École d’optométrie. Expertise en santé oculaire et usage des lentilles cornéennes spécialisées, Université de Montréal

En tant qu’optométriste, je constate quotidiennement comment vieillir affecte le corps de mes patients, leurs yeux ne faisant pas exception. La perte de la vision, et par conséquent de leur autonomie, fait partie des plus grandes craintes des personnes âgées. Ceux qui la subissent sont lourdement affectés au plan psychologique.


Voici l’histoire d’un couple typique d’une partie de ma clientèle, qui cumule plusieurs pathologies à l’œil. Jacqueline et Henri. Ce dernier, ex-conducteur de camion lourd, souffre de diabète depuis plusieurs années. Il s’est oublié dans le travail et n’a pas consulté quand les points noirs et les lignes qu’ils voyaient déformées se sont multipliés avant que le rideau noir de la cécité ne tombe. Conséquence : il ne peut plus prendre soin de lui et a besoin d’aide au quotidien.

La vision de Jacqueline n’est pas top non plus. Elle souffre de cataractes avancées. Elle tarde à se faire opérer, car elle ne veut pas laisser Henri sans soins immédiats. Elle craint aussi le développement d’une dégénérescence maculaire. Ses parents en ont été atteints (forme humide), les laissant handicapés visuels à la fin de leur vie.


Cet article fait partie de notre série La Révolution grise. La Conversation vous propose d’analyser sous toutes ses facettes l’impact du vieillissement de l’imposante cohorte des boomers sur notre société. Manières de se loger, de travailler, de consommer la culture, de s’alimenter, de voyager, de se soigner, de vivre… découvrez avec nous les bouleversements en cours, et à venir.


Les personnes âgées en basse vision se sentent démunies. Et pourtant… il y a des ressources pour les supporter et optimiser leur vision. Des centres de réadaptation offrent du soutien et des services aux handicapés visuels. Des groupes de soutien permettent de parler à des gens qui vivent la même réalité.

Mais il y a surtout des moyens de prévenir les conséquences néfastes du vieillissement sur la santé oculaire. Allons-y voir.




À lire aussi :
On ne peut empêcher le vieillissement de l’oeil, mais l’apparition de problèmes, oui


La rétinopathie diabétique

Le diabète représente la première cause de cécité évitable. Les lésions apparaissent en moyenne 10 ans après le diagnostic (type 1 – juvénile) ou 20 ans (type 2 – adulte).

Au Canada, 18 % des personnes de 60-79 ans en souffrent. Au plan visuel, le diabète affecte la capacité à lire, les mouvements des muscles oculaires, et l’altération et/ou la prolifération de vaisseaux sanguins qui sont la cause principale de la perte visuelle associée au diabète.

Surviennent d’abord des anomalies légères des vaisseaux sanguins (veines boudinées, petites hémorragies localisées, suintement de lipides, etc.) puis, quand la maladie évolue, les nouveaux vaisseaux se brisent et entraînent des hémorragies plus sévères. C’est la forme proliférative, qui peut aussi générer un glaucome presqu’impossible à traiter.

La cécité est pourtant évitable. D’abord en consultant l’optométriste régulièrement après l’âge de 45 ans ou dès que l’on se sait diabétique. En effet, 20 % des patients présentent déjà des lésions rétiniennes au moment du diagnostic de la maladie.

Les symptômes visuels commencent par une vision parfois claire, parfois floue, et qui change de jour en jour. Des points noirs flottant de plus en plus nombreux, voire des taches noires plus stables, la présence de flashs lumineux, la difficulté à reconnaître les couleurs alors qu’on les avait toujours vues sont tous des manifestations associées au diabète. Henri les avait éprouvées, mais il n’a pas trouvé le temps de consulter en temps. Si il avait agi plus tôt, la maladie aurait pu être dépistée et stabilisée, réduisant les risques de complications.

En consultant à temps, plusieurs maladies oculaires peuvent être stabilisées, réduisant les risques de complications.
(Unsplash), CC BY-NC-ND

Le glaucome

Henri souffre également de glaucome, mais d’un type particulier, secondaire aux néovaisseaux de son diabète. Il ne s’agit pas du glaucome plus courant, dit à angle ouvert, lequel affecte 5 à 7 % des Canadiens de plus de 60 ans.

Ce glaucome, non lié au diabète, représente la seconde cause de cécité évitable au pays. Un fort lien héréditaire existe : les patients dont les parents souffraient de glaucome sont plus à risque de le développer eux-mêmes.




À lire aussi :
Le glaucome, tueur de vision silencieux


Comme le diabète, ou l’hypertension artérielle, le glaucome se développe sans que le patient ne s’en rende vraiment compte. Certes les contrastes peuvent être plus difficiles à voir, notamment le soir, en éclairage réduit, mais c’est l’étendue de ce que l’on voit de côté (champ visuel) qui se rétrécit lentement. La personne s’habitue à tourner la tête pour voir une chose qui pourtant se situe à côté d’elle. Les patients finissent par le remarquer en conduite, lors d’un accident évité de justesse.

Ici encore, les conséquences négatives sont évitables en consultant régulièrement l’optométriste. À l’examen, le glaucome sera visible par le nerf optique, qui pâlit et devient plus profond. La pression à l’intérieur de l’œil augmente. Les champs visuels mesurés de façon préventive présenteront des défauts. Le diagnostic du glaucome sera établi.

Pris en charge à temps, le glaucome peut être bien contrôlé. Certes il y aura toujours des pertes mineures de champ visuel, mais minimes par rapport à la condition non traitée, qui elle peut entraîner la cécité. Des médicaments (gouttes) peuvent être prescrits, bien que de plus en plus souvent, favoriser une meilleure circulation des liquides de l’œil se fait en traitant les canaux internes de l’œil au laser (trabéculectomie) ou par chirurgie micro-invasive faite par l’ophtalmologiste.

A l’examen, le glaucome sera visible par le nerf optique, qui pâlit et devient plus profond. La pression à l’intérieur de l’œil augmente. Les conséquences négatives sont évitables en consultant régulièrement l’optométriste.
(Unsplash), CC BY-NC-ND

Les cataractes

Tout le monde qui vieillit verra son cristallin, la lentille à l’intérieur de l’œil, devenir opaque avec l’âge. C’est la cataracte. La vision devient floue, comme une vitre qui se salit tranquillement. Tout d’abord la lecture et les détails sont vus brouillés, doubles parfois. Puis les visages qu’on reconnaît moins, les panneaux sur la route difficile à lire, l’éblouissement qui accompagne toute sortie de jour comme de nuit.

Les cataractes viennent du fait que le cristallin est responsable d’absorber les ultra-violets du soleil afin de protéger la rétine. À force de se faire bombarder, il change son métabolisme et perd sa transparence. La prévention relève d’abord de la personne, qui doit notamment veiller à protéger ses yeux contre les rayons UV. C’est d’ailleurs vrai dès l’enfance, soit la période où, en théorie, on est le plus dehors et donc le plus exposé aux rayons nocifs. Les enfants qui ne portent pas de verres solaires adéquates auront des cataractes hâtives.




À lire aussi :
Subir une chirurgie de la cataracte sans en avoir besoin ? Certains le font pour améliorer leur vue, mais ce n’est pas sans risque


Tout au long de notre vie, qu’il fasse soleil ou non, il faut donc se protéger avec des lunettes solaires, ou demander qu’un filtre contre les UV (transparent) soit ajouté à nos lunettes claires. De nombreuses lentilles cornéennes contiennent aussi des filtres UV. L’optométriste peut recommander les produits les plus appropriés. Manger sainement et maintenir une santé sous contrôle aide également.

Tout au long de notre vie, qu’il fasse soleil ou non, il faut se protéger avec des lunettes solaires.
(Unsplash), CC BY-NC-ND

Ces mesures retarderont la cataracte sans toutefois l’empêcher. Quand elle sera visuellement dérangeante, elle devient opérable. La chirurgie est rapide, bien maîtrisée et permet de restaurer la vision, en autant que la rétine (fond de l’œil) soit intacte. Les deux yeux peuvent être opérés durant la même procédure.

Une cataracte trop mature peut entraîner un temps de récupération post-chirurgie plus long et plus de complications. Dans un monde idéal, toute cataracte serait opérée avant qu’elle ne nuise à la vision. On garderait ainsi une qualité de vie inaltérée.

La dégénérescence maculaire

Jacqueline craint de développer la dégénérescence maculaire liée à l’âge (DMLA). Les facteurs de risque sont là : hérédité, sexe féminin, origine caucasienne, absence de protection contre les UV. Heureusement elle ne fume pas et Henri a cessé il y a quelques années. La fumée secondaire peut être aussi nocive que celle que l’on inhale.

Par contre, elle ne peut pas lutter contre la première cause de la DMLA, soit le vieillissement, la proportion augmentant avec l’âge. Plus de 2,5 millions de Canadiens en souffrent,

Jacqueline ne présentait pas de signes de DMLA sur la rétine, à son dernier examen optométrique. Donc pas de soucis immédiats. À long terme, que peut-elle faire ? La prise d’oméga 3 (sous forme de triglycérides, 800 mg EPA/DHA/jour) a été jugée utile dans l’étude AREDS 1.




À lire aussi :
La dégénérescence maculaire est la première cause de cécité au pays. Comment la prévenir ?


Récemment, des complexes de vitamine B (6-9-12) ont été jugés protecteurs. Une alimentation saine, le contrôle médical de l’hypertension artérielle, du diabète et du cholestérol, ainsi que l’absence de tabagisme contribuent également à protéger la vision.

De nouvelles approches thérapeutiques par micro-courant (électrodes transderminques) peuvent aider à maintenir la vision en cas de forme sèche de la dégénérescence, alors que l’ophtalmologiste la traitera via des médicaments injectés dans l’œil lorsque celle-ci évolue vers la forme dite humide, soit celle s’accompagnant d’hémorragies et des vaisseaux qui suintent.

Prendre soin de ses yeux tout au long de sa vie

Jacqueline et Henri nous rappellent qu’il ne faut pas prendre pour acquis le bon fonctionnement du sens vital qu’est la vision.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Le vieillissement joue un rôle important dans le développement de pathologies qui peuvent mener à la cécité. Mais la plupart peuvent être évitées ou retardées, en remarquant les symptômes qui apparaissent, en consultant son optométriste régulièrement, en maintenant une hygiène de vie et en contrôlant les problèmes de santé générale qui peuvent nous affecter.

La Conversation Canada

Langis Michaud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’œil vieillit, lui aussi. Voici comment éviter les conséquences néfastes de quatre maladies oculaires courantes – https://theconversation.com/loeil-vieillit-lui-aussi-voici-comment-eviter-les-consequences-nefastes-de-quatre-maladies-oculaires-courantes-277499

La Bulgarie a adopté l’euro pour oublier son trauma de l’hyperinflation

Source: The Conversation – in French – By Dominique Torre, Professeur de Sciences Economiques, Université Côte d’Azur

Depuis le 1<sup>er</sup>&nbsp;janvier 2026, la Bulgarie est le 21<sup>e</sup>&nbsp;pays à adopter l’euro. ZoomViewer/wikimediacommons

Après la Croatie admise en 2023, la Bulgarie est, depuis le 1er janvier 2026, le 21ᵉ pays membre de la zone euro. C’est le résultat d’un long cheminement qui a débuté à la chute du régime autocratique de Todor Jivkov, en 1989, et à la suite du traumatisme de l’hyperinflation à 1 058,4 %, en 1997. Pourquoi cette adoption a-t-elle pris autant de temps ? Avec quels enjeux ?


Dimanche 19 avril 2026, l’ancien président bulgare prorusse Roumen Radev remporte les élections législatives avec 130 sièges sur 240 au Parlement.

Il hérite d’un pays ayant adopté l’euro, le 1er février 2026. Le lev – 1,95583 lev équivalait à 1 euro –, la monnaie historique, a disparu. La Banque nationale de Bulgarie (Българска народна банка) est devenue membre de l’Eurosystème de la zone euro.

Pourquoi cette décision ? Retour historique de 1990 à nos jours.

Hyperinflation depuis la chute du mur de Berlin

En 1997, la Bulgarie traverse une période d’hyperinflation avec un pic à 1 058,4 %. Dans une telle situation, la tentation des salariés est de convertir immédiatement le montant de leur salaire en devise étrangère, ce qui déprécie la monnaie domestique. Pour les commerçants, la situation pousse à ajuster les prix en permanence pour ne pas risquer de vendre à perte.

Les autorités politiques et monétaires adoptent alors un Currency Board, régime monétaire très contraignant mais efficace pour combattre l’inflation. Concrètement, arrimer la valeur du lev à une autre monnaie, comme l’euro ou le deutschemark.

Si le résultat de cette stratégie est payante, avec une inflation tombée à 22 % en 1998, la Bulgarie perd les leviers de sa politique économique.


Banque mondiale

En parallèle, un taux de croissance moyen trop faible et surtout trop volatil (– 9,12 % de croissance annuelle du PIB en 1992, 5,21 % en 1996 ou – 8,40 % en 1999) décourage les élites, qui quittent peu à peu le pays. Entre 1992 et 2001, le nombre d’habitants chute de 6 %. Les décideurs réfractaires à une expatriation restent en attente des bienfaits de l’Union européenne, à laquelle la Bulgarie adhère en 2007.

Malgré une demande répétée des autorités bulgares, l’Union européenne fait tarder les choses pour intégrer le pays dans la zone euro. Si les indicateurs quantifiables – niveau d’inflation, taux d’intérêt – ne sont pas tous au vert, l’Union européenne pointe surtout le taux de change artificiellement stable, condition nécessaire du Currency Board. De façon plus informelle, l’Union européenne s’alarme de l’instabilité des institutions et de leur difficulté à maîtriser – parfois en leur sein même – un niveau préoccupant de corruption.

Rattrapage économique de la Bulgarie

En juillet 2020, la Bulgarie rejoint le Mécanisme de taux de change européen (l’antichambre de la zone euro) avec un objectif du passage à l’euro en 2024. Après des années d’hésitation, son admission est décidée en juillet 2025.

Des questions persistent : les institutions sont-elles assez solides ? Une crise économique ou financière bulgare pourrait-elle se produire et miner l’Union monétaire ?

La décision d’intégration à la zone euro revient à répondre positivement à la première question. Si une crise venait à se développer en Bulgarie, les Bulgares soutenus par leurs voisins sauraient, pense-t-on, la maîtriser localement.

En 2025, les 100 milliards d’euros de produit intérieur brut (PIB) de la Bulgarie ne représentent que 0,7 % à 0,8 % du PIB de la zone euro, ce qui limite la puissance d’éventuels d’effets de propagation. Le rattrapage de la Bulgarie en termes réels (prenant en compte l’inflation) est très tangible depuis 2007 : le produit intérieur brut par tête, évalué à 41 % de la moyenne de la zone euro lors de son admission dans l’Union européenne, s’affiche aujourd’hui à 67 % de cette moyenne.

Passage à l’euro vu de Bulgarie

La classe politique bulgare a été majoritairement pro-européenne pendant des décennies. Elle a soutenu le passage à l’euro, puisque la monnaie diminuait les coûts de transaction et rendait plus sûres les banques, désormais surveillées selon les normes de la Banque centrale européenne. Ces dernières éloignent la Bulgarie de la situation de 1996 quand plus de 60 % des prêts n’étaient pas remboursés.

En 2026, cette classe politique souhaite attirer de nouveaux capitaux créateurs d’emplois. Comme dans d’autres pays d’Europe centrale, le nationalisme et l’euroscepticisme gagnent du terrain dans la classe politique bulgare. Roumen Radev, le président du pays a démissionné en janvier dernier. Après une présidence pro-européenne, son discours est plus ambigu :

« La rupture définitive entre les Bulgares et la classe politique s’est produite avec le refus du Parlement d’organiser un référendum sur la date d’introduction de la monnaie unique européenne. Les représentants du peuple ont refusé au peuple son droit de choisir. »




À lire aussi :
Face à la dette publique, « trois » Europe et une seule monnaie


Les sondages effectués par l’institut bulgare Alpha Research indiquaient en mai 2026 que les électeurs favorables et défavorables à l’euro s’équilibrent – 49 % pour, 45,8 % contre. Selon le dernier Eurobaromètre de la Commission européenne, 49 % des Bulgares sont opposés à la monnaie unique en 2025. Les opinions défavorables l’emportaient largement en 2022, ce qui relativise l’impression mitigée de ces chiffres.

Bien sûr, les consommateurs craignent une perte de pouvoir d’achat, ce qui intervient toujours à la marge quand un pays passe à l’euro. Les dernières expériences ont montré que ce surcroît d’inflation est limité – de 0,2 % à 0,35 % – et temporaire.

On peut donc penser qu’il en sera de même en Bulgarie, et que ce passage sera bénéfique pour le pays.

Pourquoi les choses ont-elles tant traîné ?

En réalité, la Bulgarie revient de loin. Le Currency Board, ce régime monétaire qui l’a sauvée de l’hyperinflation en 1997, est à la fois une curiosité dans un monde de flottement généralisé des monnaies et un piège qui peut se refermer sur ceux qui l’adoptent… lorsqu’ils souhaitent rejoindre une union monétaire.

Ce système d’émission monétaire ressemble un peu à ce qu’était théoriquement l’étalon-or (une monnaie équivaut à un poids fixe d’or), assorti d’une convertibilité totale des billets en or. La Banque centrale bulgare, qu’on appelle dans ce cas la « caisse d’émission », ne peut apporter la liquidité en lev qu’en contrepartie d’une monnaie de réserve, à l’origine le deutchemark, puis l’euro, ou d’emprunts publics libellés dans cette monnaie de réserve.




À lire aussi :
La Croatie dans la zone euro, l’aboutissement de 30 ans de redressement économique


L’accès aux liquidités en lev devient contraignant, ce qui réduit mécaniquement l’inflation – les banques sont limitées dans leurs prêts, et par ricochet évitent une envolée des prix et des salaires. La littérature académique explique que, au-delà de cet « effet de discipline », le mécanisme engendre de lui-même la confiance du public qui accepte de détenir des leva, au lieu de les convertir immédiatement en devises « fortes », comme le deutschemark ou l’euro. C’est ce qui s’est produit au moment de la stabilisation bulgare en 1998-1999.

Ce système comporte des limites. La discipline s’applique aussi à l’État qui ne peut pas compter sur la caisse d’émission pour pratiquer une politique d’open market (achat et vente d’obligations publiques sur le marché monétaire) et l’aider à s’endetter à des coûts raisonnables. L’État bulgare emprunte ainsi en euros sur la place de Luxembourg à des prêteurs étrangers (la bourse de Luxembourg opère comme centre de cotation de valeurs internationales). Quant aux banques, elles ne peuvent compter sur un « prêteur en dernier ressort » en cas de coup dur, la caisse d’émission ne pouvant jouer ce rôle par définition.

En définitive

Les Bulgares se trouvent un peu plus liés au reste de l’Europe à laquelle ils fournissent depuis des années leurs médecins, leurs chercheurs et autres ingénieurs expatriés. L’État bulgare pourra bénéficier de meilleurs taux à Luxembourg qui restera sans doute le lieu d’émission de la dette bulgare, tant qu’il n’existe de marché local suffisamment développé.

En 2025, la Bulgarie se classe en 84ᵉ position du classement de l’indice de perception de la corruption.
Transparency international

La Banque centrale européenne pourra jouer un rôle de prêteur en dernier ressort aux banques locales. Les transferts de biens, de services et d’argent seront fluidifiés au bénéfice des exportateurs. Ces avantages pourraient accroître les prix et les salaires, et limiter de ce fait la compétitivité différée de l’économie bulgare. Elle devra, quoi qu’il en soit, améliorer son score au niveau de l’indice international de perception de la corruption.

The Conversation

Dominique Torre ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La Bulgarie a adopté l’euro pour oublier son trauma de l’hyperinflation – https://theconversation.com/la-bulgarie-a-adopte-leuro-pour-oublier-son-trauma-de-lhyperinflation-275754

La coopération internationale en crise ? Derrière la chute des budgets, une crise de légitimité

Source: The Conversation – in French – By Vincent Pradier Goeting, Docteur en sciences de gestion, Université Paris 1 Panthéon-Sorbonne

En 2025, l’aide publique au développement a connu sa plus forte contraction jamais enregistrée. Mais réduire la situation actuelle à une affaire de volumes budgétaires serait manquer l’essentiel. Ce que traverse la coopération internationale est avant tout une crise politique et paradigmatique – une crise multidimensionnelle qui, de façon révélatrice, affecte en premier lieu les ONG occidentales, aujourd’hui.


Les chiffres publiés par l’Organisation de coopération et de développement économiques (OCDE) en avril 2026 sont d’une rare brutalité. L’aide publique au développement (APD) des pays membres du Comité d’aide au développement (CAD) a chuté en 2025 de 23,1 % en termes réels, soit la plus forte contraction annuelle jamais mesurée depuis la création de l’indicateur en 1969. Les volumes sont revenus à leur niveau de 2015, effaçant ainsi dix années de progression et, avec elles, une partie des engagements pris au moment de l’adoption de l’Agenda 2030. Selon l’OCDE elle-même, une nouvelle baisse de près de 6 % est anticipée pour 2026.

Cette chute historique est très largement imputable à une décision politique unique : le démantèlement de l’United States Agency for International Development (USAID), engagé dès janvier 2025 par la seconde administration Trump. Selon l’OCDE, l’APD états-unienne a été divisée par plus de deux en un an (– 56,9 %), ce qui constitue la plus forte réduction jamais enregistrée par un pays donateur. À elle seule, cette décision américaine est à l’origine des trois quarts de la baisse mondiale de l’APD en 2025. Elle a, par ricochet, accéléré les arbitrages à la baisse déjà engagés par d’autres grands donateurs – Allemagne, Royaume-Uni, Japon et France. Pour la première fois depuis 1995, ces quatre pays ont réduit leur APD simultanément deux années consécutives.

La France participe ainsi à ce mouvement. Après une diminution de 11 % en 2023 et une coupe supplémentaire de 13 % en 2024, le budget français consacré à la solidarité internationale a fait l’objet, depuis début 2024, de cinq coupes consécutives. Selon les estimations de Coordination SUD, la plateforme nationale des ONG françaises, l’APD française pourrait être réduite de 58 % en deux ans – et jusqu’à 64 % pour les lignes budgétaires du ministère de l’Europe et des affaires étrangères qui financent directement les ONG. L’objectif d’atteindre 0,7 % du revenu national brut en 2025, inscrit dans la loi d’août 2021, à défaut d’être officiellement abandonné, semble devenir un horizon lointain.

Une crise qui n’est pas seulement financière

Il serait tentant, face à ces données, de conclure à une « crise de financement » de la coopération internationale. L’analyse serait pourtant insuffisante. Car ce qui frappe, à mesure que l’on observe la succession des coupes, c’est la régularité avec laquelle elles sont arbitrées politiquement, et la faiblesse des résistances qu’elles rencontrent dans l’espace public – y compris lorsque, comme c’est le cas en France, 66 % de la population déclare soutenir l’action internationale de solidarité.

Ce paradoxe – un soutien populaire au principe même de la solidarité, mais un rejet croissant des organisations qui l’incarnent – mérite d’être pris au sérieux. Il tient pour partie à la managérialisation et à la bureaucratisation progressives d’un secteur éloigné, à mesure qu’il se professionnalisait, de l’ancrage militant dont il tirait historiquement sa légitimité. Il ouvre surtout la voie à ce que Félicien Faury nomme une forme de politisation négative – celle qui nourrit les rhétoriques populistes en désignant les ONG comme des acteurs technocratiques, déconnectés, voire complices d’un système dont elles étaient censées être les aiguillons.

Autrement dit, ce n’est pas la décision budgétaire qui pose question en soi. C’est sa faisabilité politique. Pendant des décennies, l’APD a rempli simultanément trois fonctions : une fonction humanitaire et de développement assumée ; une fonction géopolitique, discrète mais réelle ; et une fonction de légitimation démocratique pour les États donateurs, en particulier dans l’espace occidental. Ces trois fonctions sont aujourd’hui particulièrement mises à mal. Dans un nombre croissant de pays, la solidarité internationale n’est plus perçue comme un bien politique valorisable – elle est devenue, dans certains segments du débat public, un argument contre les gouvernements qui la pratiquent.

La crise est donc d’abord celle d’un cadre de légitimation. Elle affecte en premier lieu les ONG occidentales, dont le modèle organisationnel est historiquement adossé à ce cadre.

Des ONG prises dans une triple contestation

Les ONG françaises de solidarité internationale, dont les ressources cumulées avaient connu une croissance de 43 % entre 2016 et 2020, voient aujourd’hui leurs modèles économiques vaciller, en particulier dans le secteur humanitaire. L’APD transitant par les organisations de la société civile représentait 27 milliards de dollars (plus de 22,9 milliards d’euros) à l’échelle mondiale en 2024, soit 12,9 % de l’APD bilatérale – un chiffre en recul de 2,3 %. Les restructurations se multiplient, les plans de licenciements aussi.

Mais la contraction budgétaire n’est qu’une des dimensions du problème. Les ONG occidentales – comme je l’avais analysé dans un précédent article – sont prises dans une triple contestation qui rend leur repositionnement particulièrement délicat.

Au Sud, d’abord, où des États revendiquent une souveraineté renouvelée sur les flux d’aide et les modalités d’intervention. Les reconfigurations en cours en Afrique de l’Ouest, notamment au Mali et au Burkina Faso, en sont l’illustration la plus visible, mais la dynamique est plus large. Elle s’accompagne d’une parole de plus en plus structurée d’organisations locales qui refusent de n’être que des sous-traitantes et portent une critique épistémique des catégories mêmes avec lesquelles le développement a été pensé.

Au Nord, ensuite, à travers deux critiques antagonistes qui, bien que non symétriques, convergent dans leurs effets. D’un côté, une critique populiste qui conteste le principe même d’une solidarité internationale financée sur fonds publics. De l’autre, une critique décoloniale qui interroge les rapports de pouvoir que l’aide perpétue et les formes de colonialité qu’elle véhicule. Ces deux critiques, à fronts renversés, participent conjointement à l’effritement de la légitimité publique des ONG. La première, plus agressive, se traduit par une offensive directe contre les libertés associatives elles-mêmes : plusieurs ONG de solidarité internationale – de SOS Méditerranée à La Cimade, en passant par France Terre d’Asile – ont fait l’objet d’entraves, de menaces de retrait de subventions ou de tentatives d’éviction de la commande publique, au nom d’un prétendu manquement à la neutralité politique.

À l’intérieur même des organisations, enfin, où des salariés contestent une inégalité devenue difficile à justifier : celle qui sépare, au sein d’une même organisation, les personnels recrutés localement dans les country offices des Suds et leurs homologues des sièges occidentaux – en termes de salaires, de perspectives de carrière, mais aussi de reconnaissance des savoirs et de l’expérience. À cela s’est ajoutée, depuis le mouvement Black Lives Matter de 2020 et plusieurs scandales publics, une prise de parole de personnels racisés au sein même des sièges occidentaux sur les cultures organisationnelles et les représentations dominantes. Documentée notamment par les rapports de Peace Direct (« Time to decolonise aid ») et les travaux de l’International Development Committee britannique, cette double critique interne constitue aujourd’hui l’une des remises en cause les plus structurées – et les plus difficiles à absorber – auxquelles le secteur ait été confronté.

Ce que le secteur privé ne pourra pas faire

Dans ce contexte, une partie du discours institutionnel s’est réfugiée dans une promesse : celle du secteur privé comme nouveau moteur du financement du développement. Philanthropie, blended finance, obligations à impact, partenariats public-privé. L’idée sous-jacente est qu’une architecture financière hybride pourrait compenser le retrait progressif des financements publics.

Une chose, pourtant, doit être dite clairement : le secteur privé ne remplacera pas l’APD en volume. Ce n’est pas une hypothèse politique, c’est une réalité arithmétique.

Les 32 grandes fondations philanthropiques qui rapportent leurs données à l’OCDE ont mobilisé 11,7 milliards de dollars en 2023, soit environ 5 % du total de l’APD des pays du CAD. Les fonds mobilisés par le secteur privé via les mécanismes de financement mixte, bien qu’en croissance, se concentrent pour l’essentiel sur les terrains où un modèle économique est viable– c’est-à-dire pas sur les contextes de fragilité extrême ni sur les biens publics mondiaux, qui restent entièrement dépendants de la solidarité publique.

Surtout, ces instruments opèrent une transformation de la grammaire de l’aide. Ils substituent progressivement une logique de retour sur investissement à une logique de droits ou d’intérêt général, orientent les priorités vers les contextes solvables, et déplacent le centre de gravité de la décision vers des acteurs dont les finalités ne sont pas (toujours) celles de la solidarité.

Vers une dégradation ou une refondation du secteur ?

Quelles sont les perspectives ? Trois trajectoires, combinables, semblent aujourd’hui envisageables pour le système d’aide.

La première est celle d’une continuité dégradée : le modèle actuel se maintient, sous perfusion, plus fragmenté et davantage dépendant de financements privés géopolitiquement orientés. Les ONG occidentales y survivent, mais au prix d’une réduction progressive de leur capacité transformatrice. C’est, à court terme, le scénario le plus probable.

La deuxième est celle d’une recomposition géopolitique déjà partiellement engagée. Les flux d’aide des pays non membres du CAD qui déclarent leurs données à l’OCDE sont passés de 1,1 milliard de dollars en 2000 à 17,7 milliards de dollars en 2022 – une multiplication par seize en deux décennies. La Chine a engagé 4 milliards de dollars (3,4 milliards d’euros) dans son Fonds de coopération Sud-Sud depuis 2015. La coopération Sud-Sud ne remplace pas, en volume, l’APD occidentale, mais elle construit peu à peu une architecture alternative, fondée sur d’autres présupposés normatifs – non-conditionnalité, réciprocité, non-ingérence – qui entrent directement en concurrence avec ceux du modèle occidental.

La troisième, plus exigeante, serait celle d’une refondation pluriverselle : l’émergence d’un nouveau cadre de légitimation, fondé sur la reconnaissance des savoirs situés, la co-construction des réponses et la remise en cause des asymétries historiques de pouvoir. Elle suppose, de la part des ONG occidentales, la capacité de se défaire de certaines évidences – évidences que leurs propres équipes, notamment dans les terrains d’intervention, questionnent déjà. Elle suppose aussi des acteurs publics capables de réinvestir une conception politique, et non seulement technique, de la solidarité internationale.

C’est à cette seule condition que l’on pourra parler, non pas d’un monde post-APD subi, mais d’un système de coopération véritablement recomposé. La question, au fond, n’est plus de savoir si le modèle actuel peut être sauvé dans sa forme. Elle est de savoir si, collectivement, les organisations de solidarité internationale – au sens large – sont capables d’en penser et d’en construire un autre.

The Conversation

Vincent Pradier Goeting ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La coopération internationale en crise ? Derrière la chute des budgets, une crise de légitimité – https://theconversation.com/la-cooperation-internationale-en-crise-derriere-la-chute-des-budgets-une-crise-de-legitimite-280948

Parler de la beauté des entreprises ? Pas si absurde que cela !

Source: The Conversation – France (in French) – By Pierre-Jean Benghozi, Professeur économie-gestion, École polytechnique

On dit d’une entreprise qu’elle est performante, rentable… et parfois qu’elle est toxique ou dangereuse. Mais il est plus rare que l’on porte un jugement esthétique. Et pourtant, certaines entreprises sont plus « belles » que d’autres.

Cet article est publié dans le cadre d’un partenariat avec la Revue française de gestion, qui a fêté ses 50 ans en 2025.


Comment ne pas être frappé par la séduction et le sentiment de « beauté formelle » qu’opèrent aujourd’hui – sur les analystes, les économistes, les managers et les observateurs – les nouvelles technologies, les modèles d’affaires inédits des plates-formes, les formes d’organisation étendues de certaines ONG ou entreprises à mission, les entreprises à la croissance fulgurante ou sachant se reconstruire, les écosystèmes d’Open innovation construits avec les parties prenantes et en mobilisant la production des consommateurs eux-mêmes ?

Rappeler que ces organisations sont vues sous un angle esthétique capte une dimension habituellement mal prise en compte par les travaux de gestion. C’est que la montée en puissance de la rationalisation à partir des révolutions industrielles a opéré un découplage qui semble aujourd’hui naturel entre beauté d’un côté, performance et rationalité de l’autre.

La coupure ne va pourtant pas de soi. Preuve en est donnée dans une des sciences pourtant apparemment la plus froide et logique : les mathématiques. Personne ne s’étonne qu’on y juge la qualité d’une démonstration non pas simplement à sa justesse, mais aussi à sa simplicité, sa brillance et son « élégance ».




À lire aussi :
La crise impose à chaque entreprise de réinventer son business model


Une question esthétique

Depuis près d’un demi-siècle, l’esthétique des organisations est ainsi un domaine de recherche en pleine expansion, qui a fait l’objet, partout dans le monde, de nombreux articles et de plusieurs numéros spéciaux des grandes revues de gestion. Ces travaux ont vite été au-delà de la seule mise en avant d’un aspect négligé – la beauté et/ou la laideur perçue d’une entreprise – en élargissant et en enrichissant la manière de rendre compte des organisations.




À lire aussi :
Ces start-up qui « jouent au flipper » pour affiner leur business model


Au-delà de leur seule performance, ces dernières constituent des structures complexes et formelles, qu’il faut analyser comme un ensemble d’éléments (ressources, acteurs, compétences, etc.) connectés par de multiples relations (procédures de gestion, hiérarchie, évaluation, dépendance financière, échanges marchands, dépendance technique…) entre groupes d’acteurs différents.

Dans cette perspective, un même objectif donne lieu partout à des structures de production infiniment variées : des grandes organisations bureaucratiques aux petites structures constituées de manière ad hoc pour la réalisation d’un projet. À ce titre, les formes organisationnelles qui se manifestent dans les entreprises comme sur les marchés peuvent être très différentes, à la fois dans leur efficience et leur performance, bien sûr, mais aussi par la vision, la compréhension – voire la séduction – par lesquelles elles se donnent spontanément à voir.

Une évolution stylistique

Au-delà de la caractérisation de telle ou telle organisation, l’approche par l’esthétique incite en outre à s’interroger sur la succession de leurs formes. Y lire une évolution stylistique en souligne les différentes dimensions cachées. Car les organisations, comme les œuvres d’art, s’articulent avec tous les registres sociopolitiques et culturels de la réalité sociale : émotion et caractère sensible de la réception des productions et de l’engagement dans le travail (comme dans les arts plastiques), simplicité et impact de la mise en forme d’une création en coopération (à l’image de l’architecture et du cinéma), importance de l’expressivité dans les interactions interpersonnelles (ce que montrent le théâtre et le spectacle vivant).

À l’heure de la fascination opérée par l’intelligence artificielle, le détour par l’esthétique permet, au-delà, d’interroger l’interaction entre technologie et modalités de production, en mettant en regard la séduction formelle des solutions techniques avec leurs impacts structurels et économiques.

Alors que la créativité et l’innovation ont aujourd’hui une place et un rôle omniprésents dans les stratégies organisationnelles (elles ont, d’ailleurs, fait l’objet du dernier Nobel d’économie), le détour par les théories esthétiques permet de mieux penser les tensions qu’elles génèrent : entre, d’une part, une vision de la créativité relevant de la remise en cause des solutions existantes et, d’autre part, la nécessité, pour s’imposer et être reconnue, de s’inscrire en grande partie dans les standards, normes ou pratiques en place.

Un double mouvement

Il s’opère ainsi un double mouvement : les entreprises pionnières dans l’adoption de nouveaux modes de gestion (pensons aux Gafam, à Airbnb, à des entreprises low cost telles qu’EasyJet ou Ryanair) s’appuient sur des marchés et des cadres existants, mais deviennent ensuite elles-mêmes des modèles managériaux influençant les formes émergentes d’organisations ou d’écosystèmes, tout comme les artistes de l’avant-garde suscitent des courants ou des écoles artistiques.

Le Monde, 2019.

De tels mouvements sont impossibles à expliquer avec une approche purement descriptive et classificatoire. En matière artistique, la capacité de renouvellement des formes esthétiques est déterminante : le beau et le moderne naissent explicitement de cette nouveauté. En matière de gestion, penser l’évolution des modes managériales revient aussi à penser la manière dont certains fondamentaux, tels que la performance ou l’optimisation des process, se redéfinissent régulièrement dans de nouvelles modalités d’organisation ou d’action qui séduisent sous l’action d’entrepreneurs, de chercheurs ou de consultants.

Nulle forme ne peut être donnée comme belle hors de l’exercice de la subjectivité de chacun… tout comme les jugements de performance, de rentabilité et d’évaluation des coûts n’existent pas dans l’absolu, mais se rattachent toujours à la position et aux objectifs des acteurs qui les portent. Le jugement de beauté est à la fois dans l’œil des artistes qui produisent et dans les yeux des spectateurs ou des consommateurs qui reçoivent.

La question de l’esthétique permet donc de repenser, dans l’approche des organisations, une alternative entre subjectivité contingente et objectivité intrinsèque qui traverse les enjeux de la gestion mais remonte aux origines des philosophies esthétiques, et à laquelle Kant lui-même s’était heurté.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Parler de la beauté des entreprises ? Pas si absurde que cela ! – https://theconversation.com/parler-de-la-beaute-des-entreprises-pas-si-absurde-que-cela-280177

Les salariés des associations sont dorénavant fiers de leur métier – moins de la grandeur de la cause

Source: The Conversation – France (in French) – By Jean-Claude Dupuis, Professeur à lGENSIA-RH (ex IGS-RH), Institut catholique de Lille (ICL)

L’attachement des salariés est moins lié à la vocation de l’organisation qui les emploie qu’aux métiers qu’ils exercent. Une révolution dans le milieu associatif. Lighthunter/Shutterstock

Nombre d’associations ne se considèrent pas comme des organisations militantes ou porteuses d’une mission, mais plutôt comme des organisations composées tout simplement de professionnels fiers de leur métier. Témoignage de directeurs généraux d’association dans le secteur social et médico-social – qui est un des grands employeurs privés à but non lucratif. Le management associatif ne serait-il plus une affaire de valeurs ?


Certains chercheurs, comme le sociologue Thomas Chevallier ou Julien Talpin et Pierre Bonnevalle, s’alarment d’une remise en question de l’autonomie politique et stratégique des associations par les pouvoirs publics. Cette actualité va de pair avec l’idée que les associations seraient par nature des « organisations missionnaires » au sens donné à cette expression par le gestiologue Henry Mintzberg : une organisation animée par une vision et un projet politiques en propre, pour ne pas dire portée par une idéologie.

Reste que l’analyse en pratique des associations invite à nuancer une telle représentation et, donc, une telle remise en question. En nous fondant sur une recherche inédite consacrée aux pratiques de directeurs généraux d’associations du secteur social et médico-social, nous soulignons que les associations concernées sont bien plus des organisations professionnelles que des organisations missionnaires.

Le secteur social et médico-social est un des grands employeurs de l’ensemble privé non lucratif en France, gage d’une certaine représentativité du monde associatif. En 2024, il comptait 39 350 structures employeuses (95 % d’associations et 5 % de fondations) et représentait environ 1 202 000 salariés.

Debout pour défendre son métier

En 1989, l’économiste et anthropologue Philippe d’Iribarne parlait de la logique d’honneur « aussi exigeante dans les devoirs qu’elle prescrit que dans les privilèges qu’elle permet de défendre ». Avec une histoire à la fois aristocratique et révolutionnaire, les Français seraient particulièrement attachés à la noblesse du métier qu’ils exercent. Avoir un métier permettrait d’appartenir à un groupe professionnel si ce n’est à un corps, de s’inscrire dans la grandeur d’une tradition porteuse d’une forme d’honorabilité que l’on aurait le devoir de maintenir, à la fois en étant digne et en s’opposant à ce quiconque manque de respect à son égard.

Cela semble être particulièrement le cas dans le secteur social et médico-social où les professionnels sont prompts à se lever vent debout pour défendre leurs métiers. Ceux et celles qui s’affairent sont, en effet, des travailleurs au service de leur métier : assistant du service social, éducateur spécialisé, auxiliaire de puériculture, infirmier, etc.

Cela se traduit par une mobilité horizontale bien plus importante que dans les champs où la professionnalisation est une force moins prépondérante. L’attachement est relatif non pas tant à l’organisation employeuse qu’au métier. Les mobilités professionnelles sont monnaie courante, d’une association à une autre, du privé non lucratif au public. L’important est de pouvoir continuer à exercer au mieux son métier avec honneur. Bref, la tonalité dominante et commune des organisations du champ n’est pas tant d’être missionnaires que d’être professionnelles.

« La vie associative n’existe pas »

Cette analyse est le fruit d’un des six binômes chercheur/directeur général qui ont participé à la recherche participative sur le métier de directeur général d’association. Il a pour cadre une association de taille moyenne du département des Alpes-Maritimes, gérant 18 établissements et services sociaux et médico-sociaux, et, employant 400 professionnels engagés au service de 700 personnes en situation de handicap.




À lire aussi :
Comment les organisations à but non lucratif se transforment face à la baisse des subventions publiques


Le statut associatif de cette organisation pourrait laisser à penser que nous serions en présence d’une organisation à dominante militante, ou missionnaire. L’analyse révèle que cela n’est pas le cas. La dimension associative n’y est pas centrale. Réponse à deux questions que nous leur avons posées.

« Quelle est la part de la dimension associative dans votre projet ? »

« Les gens adhèrent au projet. […] Mais on pourrait avoir un autre statut, cela ne changerait pas grand-chose. […] La vie associative n’existe pas », souligne le directeur général.

« On boit un coup de temps en temps, et c’est tout », ajoute le président de l’association. La tonalité organisationnelle qui domine est professionnelle, à tel point que ses dirigeants acceptent volontiers de parler d’« association de professionnels ».

« Vous êtes même une association de professionnels ? »

« C’est une bonne définition », estime le président interviewé. « C’est tout à fait ça », approuve le directeur général.

Les professionnels sont la partie centrale de l’association. Cela va de soi autant pour le président de l’association que pour le directeur général.

« Le président n’incarne pas l’association », affirme le président.

« Les professionnels se reconnaissent dans l’opérationnel. Ce sont les acteurs du terrain qui incarnent l’association », confirme le directeur général.

Du management artisanal

Parler de « management artisanal » ne signifie pas que les pratiques managériales seraient peu performantes. Cette notion fait référence au fait que les pratiques des directeurs généraux d’association du secteur social et médico-social, tout du moins, ceux qui ont participé à la recherche, apparaissent être avant tout pragmatiques, issues de « bricolages » au sens noble du terme.

Leurs pratiques stratégiques prennent appui sur le cours de l’action, dont ils n’hésitent pas à prendre l’initiative. C’est la mise en mouvement du réel qui leur permet fondamentalement de décider. Il s’agit de tester, d’expérimenter, pour savoir.

« J’engage et je vois (ce qui se passe alors) », affirme ainsi le directeur général de l’association.

Contrairement à l’image spontanément admise par le sens commun d’un dirigeant rationnel dans ses choix et ses actes, l’activité du directeur général d’association de l’action sociale et médico-sociale semble d’abord pragmatique. Elle suppose de composer avec des tendances différentes, des pressions contraires, de surfer sur les événements, de prendre appui sur des propriétés émergentes imprévues pour les optimiser, d’intervenir dans un horizon inconnu.

« Si on n’accepte pas un peu de risque et d’incertitude, une adaptabilité aux situations, on n’avance pas. C’est ce qui fait le sel de la fonction que j’occupe », souligne un autre directeur général ayant participé à la recherche participative.

Bricolage sophistiqué

Les situations d’activité sont caractérisées par une logique de « bricolage », fortement influencée par le patrimoine expérientiel du directeur général. L’improvisation dont ils paraîtraient faire preuve au quotidien relève en réalité d’une intuition très sophistiquée, car reposant sur une recomposition permanente de l’expérience. Il s’agit donc d’un « bricolage sophistiqué » dans lequel les directeurs généraux mettent beaucoup d’eux-mêmes.

Le management associatif n’est donc pas qu’une affaire de valeurs. Dans les associations de l’action sociale et médico-sociale étudiées, il prend plutôt la forme d’un management pragmatique, ancré dans l’action et le travail réel. Bien entendu, cela est en affinité avec le fait que les organisations fabriquées sont avant tout des organisations professionnelles et non pas des organisations missionnaires.

The Conversation

Jean-Claude Dupuis ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les salariés des associations sont dorénavant fiers de leur métier – moins de la grandeur de la cause – https://theconversation.com/les-salaries-des-associations-sont-dorenavant-fiers-de-leur-metier-moins-de-la-grandeur-de-la-cause-276820