« I Want You Back » : La postérité aseptisée (mais lucrative) du biopic musical

Source: The Conversation – in French – By Joan Le Goff, Professeur des universités en sciences de gestion, Université Paris-Est Créteil Val de Marne (UPEC)

Une image du film *Michael*, sorti en France le 22 avril 2026. Allociné

La sortie en salles de Michael, film biographique consacré au King of Pop décédé en 2009, s’inscrit dans un genre désormais bien installé. Lucratifs aussi bien pour Hollywood que pour l’industrie musicale, les biopics n’échappent pas à une certaine uniformité scénaristique et esthétique, malgré quelques tentatives de renouvellement audacieuses.


Comment oublier avec quelle fougue Bette Midler a incarné Janis Joplin en 1979 dans The Rose ou avec quel mimétisme troublant Val Kilmer joua Jim Morrison dans The Doors, d’Oliver Stone, en 1991 ? Mais abondance de biens peut nuire et, en janvier 2025, plusieurs critiques de cinéma se demandaient si l’on ne risque pas une « overdose de biopics ».

La sortie, mercredi 22 avril, du film consacré à Michael Jackson est une bonne raison de questionner ces œuvres inspirées de la vie de stars du rock, du rap et de la pop, voire de la chanson (Barbara, Charles Aznavour) ou de la musique classique (Maria Callas, Leonard Bernstein).

De « Superman » à « Rocketman » : une alternative rentable aux films de superhéros

Ces dix dernières années, confrontés à la concurrence des plateformes de streaming, les grands studios de cinéma ont capitalisé sur trois grands genres, très profitables : en tête, les films de superhéros, puis les licences d’aventures (de Mission Impossible à Fast & Furious) et, troisième source majeure de profit, l’animation (dominée par Disney/Pixar). Face à ce tiercé gagnant, les biopics s’affirment comme un filon tout aussi prometteur pour séduire les familles et les adolescents à une échelle internationale.

D’ailleurs, les chiffres suivent : Bohemian Rhapsody (2018, consacré à Queen et à Freddie Mercury) atteint presque le milliard de dollars de recettes, suivi par Elvis, de Baz Lhurmann (2022, 300 millions), Straight Outta Compton (2015, autour du groupe de rap N.W.A) et Rocketman (2019, sur Elton John). Ce succès public est agrémenté d’une reconnaissance critique puisque ces mêmes films ont obtenu des Oscars, des Golden Globes ou des Bafta. La conséquence de ce bilan favorable ne s’est pas fait attendre : l’enthousiasme généralisé pour cette nouvelle recette a suscité une avalanche de sorties. Parmi les biopics les plus marquants, outre ceux déjà cités, on se souvient de Love & Mercy (2015, sur le leader des Beach Boys, Brian Wilson), I Wanna Dance with Somebody (2022, consacré à Whitney Houston) ou Back to Black (2024, sur Amy Winehouse).

Et les projets annoncés sont tout aussi nombreux, que ce soit les quatre (!) films de Sam Mendes pour chacun des Beatles ou celui sur le mythe Johnny Hallyday, par Cédric Jimenez.

« Remember the time » : un genre en phase avec la mode nostalgique

Cette vague de films, qui retracent les heures de gloire de stars des années 1950 (Elvis Presley), 1960 (Bob Dylan), 1970 (Elton John), 1980 (Freddie Mercury), 1990 (Robbie Williams), s’inscrit dans une tendance de fond de la société de consommation actuelle, qui contemple avec tendresse un passé revisité. Cela concerne les séries, de Mad men (les années 1960) à Stranger Things (les années 1980) ou Tapie (de 1965 à 1995). Mais on pense aussi au secteur de l’édition, du best-seller de Pierre Lemaître sur les Trente Glorieuses aux numéros de la revue Schnock consacrés à Joe Dassin ou Sheila.

La musique n’est pas en reste, avec le retour du vinyle et de la cassette audio, l’affluence aux concerts des tribute bands, ces groupes qui remplissent les salles en reprenant les tubes de Queen ou d’Abba.




À lire aussi :
Qu’est-ce qui remplit les salles de concerts ?
La nostalgie, pardi !



Le biopic sur Michael Jackson est un regard nostalgique dans le rétroviseur qui accompagne la réédition de la Renault 5 ou le nouveau lancement du magazine Lui. Dans ce contexte, c’est sans surprise que l’album Thriller, paru en 1982, figurait encore dans le top 5 des ventes de disques au format 33 tours en France en 2025 !

Best of, remix ou reprises : relancer la machine à tubes

Pour l’industrie du disque justement, les biopics jouent un rôle bienvenu pour remettre au goût du jour des chansons de stars du passé. Parce que la musique doit se rentabiliser et, mieux, elle peut l’être plus encore que d’autres produits plus conventionnels. Cette perspective de profits a attiré les fonds d’investissement qui rachètent les catalogues des idoles des ex-fans des Sixties, de Bob Dylan à Bruce Springsteen ou Neil Young.




À lire aussi :
Bob Marley, chantre de l’émancipation


Désormais, face à de tels enjeux financiers, il ne s’agit plus seulement d’accompagner le film d’une bande originale qui ferait office de best of définitif (typiquement, comme celle du biopic sur Ray Charles, en 2004) mais il faut séduire un public néophyte, si possible en ayant recours aux talents contemporains, comme Doja Cat et Yola dans l’Elvis de Baz Luhrmann. Cet impact sur les ventes des titres du catalogue de la vedette explique d’ailleurs que certains biopics soient de purs produits de commande des ayants droit, comme celui sur Bob Marley : il faut rallumer le feu…

Et pourtant, les biopics, c’est toujours la même chanson

Succès populaires et produits lucratifs, les biopics sont-ils pour autant des films qui feront date dans l’histoire du cinéma ? En termes de scénarios, il n’y a que deux variantes : la première (et la plus fréquente) met en scène la grandeur et décadence de l’idole, comme le préfigurait en 1972 le titre du concept-album de David Bowie sur une rock star fictive, The Rise and Fall of Ziggy Stardust ; la seconde se focalise sur une crise de personnalité, un moment charnière, comme les films sur Bob Dylan ou Bruce Springsteen.

Qu’il s’agisse de la grande forme conquérante ou de la chronique intime d’un instant de bascule, tous ces films se ressemblent par leur usage immodéré du flash-back, plongeant dans l’enfance du héros comme si on ne devenait pas star mais qu’on y était prédestiné. Et à chaque fois les scénaristes se font un malin plaisir à disséminer des signes annonciateurs du miracle à venir – « C’était écrit », peut se dire le fan, dans une religiosité naïve.

La structure narrative présente un autre point commun inhérent à l’exercice : ces productions à grand budget qui doivent plaire à des spectateurs adeptes de Spiderman et de Jurassic Park ne peuvent se permettre de temps morts. Il faut de l’action, des rebondissements, des climax comme dans un blockbuster traditionnel. Accentuer les conflits, exagérer les faits pour accrocher l’attention d’une audience que l’on sait volatile devient une règle d’or. Il est significatif que le réalisateur choisi pour filmer la montée au zénith de Michael Jackson soit Antoine Fuqua, connu pour Training Day ou les trois Equalizer avec Denzel Washington, soit un archétype du spécialiste des thrillers violents à rebondissements multiples et cliffhangers efficaces.

L’ombre mise en lumière

Si le biopic musical reste donc grandement codé et stéréotypé, on peut cependant déceler quelques récentes innovations dans l’écriture qui apportent un renouveau bienvenu. En effet, après une série de films consacrés à une figure charismatique (Great Balls of Fire!, 1989 ; The Doors, 1991 ; Walk the Line, 2006), on constate que les biopics s’attardent désormais plus volontiers sur les héros discrets du business musical en décrivant avec gourmandise ces hommes et ces femmes de l’ombre qui œuvrent à la gloire de leur poulain. Malgré son échec, la série Vinyl, de Martin Scorsese (2016), a ainsi certainement marqué le modèle scénaristique des biopics contemporains par sa volonté d’ouvrir le spectre d’investigation d’une société du spectacle riche en figures truculentes et émouvantes.

Cette inflation très « sérielle » de personnages annexes compose un tissu scénaristique plus dense et plus complexe. Ainsi, le terrible colonel Parker (Elvis), l’empathique Jon Landau (Springsteen: Deliver Me From Nowhere) ou le roué Albert Grossman (Un parfait inconnu) offrent des représentations de managers permettant de comprendre comment on bâtit un mythe au prix de quelques pots-de-vin, menaces ou psychanalyses sauvages.

Le public n’est plus uniquement ébloui par le parcours christique d’une figure de pop star, il est invité à explorer les arcanes sordides et quelquefois burlesques d’un monde voué au capitalisme effréné et à la quête de gloire.

« Man in the Mirror » : incarner ou imiter, un défi pour les acteurs

Une autre question esthétique concerne la performance de l’acteur chargé de ressusciter la star disparue ou, pour de rares exceptions, de l’incarner dans sa prime jeunesse alors qu’elle continue sa carrière (Bob Dylan, Elton John). Faut-il s’effacer dans une imitation absolue ou incarner une idée plus qu’une apparence ?

Le jeu de sosie visuel et/ou vocal de Timothée Chalamet dans Un parfait inconnu raconte-t-il mieux Bob Dylan que le kaléidoscope d’incarnations d’ I’m Not There (Todd Haynes, 2007, avec notamment Heath Ledger, Christian Bale, Richard Gere et Cate Blanchett) ? Le biopic Michael mise sur la ressemblance du jeune Jaafar Jeremiah Jackson dont la faible expérience semble sans importance face à sa parenté avec l’auteur de « Billie Jean » : fils de Jermaine Jackson, il est le neveu de Michael ; il est donc qualifié de facto pour incarner son oncle, le lien généalogique faisant autorité sur ses talents d’acteur, tout en légitimant une œuvre qui devient une ode à la force de résilience de la famille Jackson.

On retrouve là le même problème que pour les tribute bands, dont certains poussent la similitude avec leur modèle à un haut degré de perfection et en font un argument commercial : endosser un déguisement vaut-il un prix d’interprétation ? Un procédé parodié par Jérôme Commandeur proposant aux Césars une fausse bande-annonce d’un biopic sur le chanteur comique Carlos.

La véritable histoire ? Non, une version édulcorée ou remontée

Le paradoxe des biopics est que, en dépit de la similitude entre l’acteur et son modèle, ces films passent souvent à côté de leur sujet. Le public assiste à des mélodrames mystiques, avec une ascension dans la douleur ou une rédemption salvatrice à grand renfort de larmes, mais il ne sait rien du processus de création musicale. Quand il n’est pas traité sous forme d’ellipse, voire totalement oublié, le sujet est abordé comme un éclair tombé du ciel, la star étant alors frappée du génie de la composition. Parmi les exceptions notables : le film sur Bruce Springsteen, focalisé sur l’écriture, et surtout celui sur N.W.A (Straight Outta Compton) du fait du caractère technique, presque tactile, de la création à base de samples.

De même, la chronologie de la carrière de l’artiste est souvent soumise à des anachronismes, des inexactitudes ou des chausse-trapes narratives au nom d’une efficacité toujours plus spectaculaire à l’écran. Bohemian Rhapsody est un parfait exemple de cette falsification chronologique, soit sur des détails (il est impossible que le titre « Fat Bottomed Girls » ait été joué lors de la tournée américaine de 1974, le titre ne sortant qu’en 1978), soit sur des éléments biographiques bien plus douloureux (l’annonce de la séropositivité de Freddie Mercury à ses collègues avant le concert du Live Aid… deux ans avant son diagnostic !). Autant de petits ou de grands arrangements avec la réalité qui accentuent le pathos et le prodigieux au détriment de l’exactitude documentaire.

Autre écart avec la réalité – même si l’histoire est présentée comme véridique – les biopics musicaux tendent à proposer une version socialement acceptable de leur héros alors qu’il s’agit souvent de rock stars aux vies dissolues ou aux comportements loin d’être exemplaires. Misogynie, violences sexistes et sexuelles, usage de stupéfiants sont atténués ou tus pour pouvoir être diffusés sans restriction d’âge et attirer des consommateurs en nombre, sans offenser qui que ce soit.

Les rugosités sont abolies, les écarts avec la morale ou la loi revus et corrigés à l’aune des questions contemporaines. Le Dylan incarné par Chalamet fait exception, antipathique au possible comme l’original. À une époque où les rebelles du rock sont intronisés au Rock and Roll Hall of Fame, les biopics contribuent à leur muséification. Dans cette quête d’honorabilité, l’entourage des stars prend désormais plus d’importance : le héros est forcément victime de son manager, des médias, du système.

Plus de sincérité dans la fiction ?

Quels sont finalement les meilleurs biopics sur les stars de la musique ? Ceux qui empruntent des chemins de traverse, comme Velvet Goldmine (de Todd Haynes, sur David Bowie) ou Aline (de Valérie Lemercier, sur Céline Dion) ? Ou bien les films de fiction joués par les rocks stars ?

En effet, tout David Bowie était déjà dans L’homme qui venait d’ailleurs (1976), Viva Las Vegas (1956) est une forme de prémonition du destin d’Elvis et l’ambivalence de Michael Jackson transparaît dans The Wiz (1978), adaptation du magicien d’Oz, avec Diana Ross et dont la musique fut supervisée par Quincy Jones, l’homme qui fera de Thriller un succès sans équivalent.


Alban Jamin, musicien et enseignant en cinéma (lycée Auguste-et-Louis-Lumière, Lyon) est coauteur de cet article. Il est l’un des contributeurs de Biopic, de la réalité à la fiction.

The Conversation

Joan Le Goff ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. « I Want You Back » : La postérité aseptisée (mais lucrative) du biopic musical – https://theconversation.com/i-want-you-back-la-posterite-aseptisee-mais-lucrative-du-biopic-musical-279576

L’utilisation de l’intelligence artificielle dans la guerre en Iran : que dit le droit international ?

Source: The Conversation – France in French (3) – By Louis Perez, Chercheur post-doctorant en droit international, Université Paris-Panthéon-Assas

Le conflit en cours en Iran montre la dépendance avancée des armées états-unienne et israélienne à l’IA militaire, notamment pour le ciblage et la planification des frappes. Le bombardement d’une école à Minab, le 28 févier, présenté comme une erreur de ciblage et ayant causé la mort de 168 civils, principalement des enfants, met en lumière les risques juridiques, les failles des systèmes et les problèmes de responsabilité.


Le conflit armé contre l’Iran lancé le 28 février dernier par Washington et Tel-Aviv a été rapidement qualifié de « première guerre de l’IA ». Une assertion en réalité trompeuse à divers égards. Non seulement l’IA a-t-elle déjà été utilisée de façon intensive dans des conflits récents, notamment par Israël à Gaza, mais, plus largement, l’IA, en tant que moyen numérique de traitement et d’analyse de données, entretient une longue histoire avec les conflits armés, dont les fondements techniques remontent à la Seconde Guerre mondiale.

Certes, la situation iranienne se distingue par le niveau de sophistication sans précédent de ces moyens et par la dépendance inédite des armées à leur égard. Elle diffère également du conflit à Gaza en ce que, cette fois, l’IA a été déployée contre un adversaire étatique dans le cadre d’une guerre de haute intensité. Enfin, jamais les États n’avaient aussi ouvertement communiqué sur leur recours à ces systèmes. C’est cette communication conjuguée aux conséquences dramatiques de certaines frappes qui invite à s’interroger sur la compatibilité de ces pratiques avec le droit international.

Les faits : l’utilisation de l’IA dans la guerre en Iran

L’utilisation de l’IA par Israël dans sa guerre contre le Hamas avait été révélée par le journal +972. Ce média avait exposé ce que bon nombre de spécialistes soupçonnaient depuis quelques années. Dans le cadre du conflit en Iran, en revanche, ce sont les autorités américaines elles-mêmes qui ont annoncé leur emploi de l’IA.

Effectivement, les forces militaires américaines ont admis avoir recouru à des systèmes d’IA pour établir et trier la liste des objectifs à une vitesse fulgurante. Ce procédé aurait entraîné plus de 1 000 frappes, qualifiées de très précises, durant les vingt-quatre premières heures du conflit. Elles se seraient notamment servies du système Maven Smart System, un projet conjoint utilisant un logiciel d’IA de surveillance et de collecte de données de Palantir, couplé au système d’IA générative Claude, développé par Anthropic.

Cependant, lors du premier jour de guerre, l’une des frappes américaines a visé une école de Minab, causant la mort d’environ 170 victimes civiles, principalement des enfants. Les États-Unis ont reconnu leur responsabilité dans cette frappe, présentée comme une erreur. L’école était en effet située à proximité d’une base navale des Gardiens de la révolution. Elle faisait autrefois partie intégrante du même complexe, avant d’en être séparée. C’est donc une information non actualisée qui aurait conduit à autoriser la frappe.

Une telle méprise n’est pas anodine. De nombreux médias et ONG ont rapidement établi le lien entre l’école et la base navale. Il a ainsi été avancé que l’armée américaine aurait probablement ciblé ce bâtiment sur la base de données obsolètes en suivant aveuglément une recommandation issue d’un système d’IA sans procéder à la vérification qui s’imposait.

La licéité de l’utilisation de l’IA

Dans quelle mesure l’utilisation de l’IA pour mener ces frappes, et l’erreur commise, sont-elles licites au regard du droit international ?

Il convient d’abord de préciser que l’IA n’est pas interdite en tant que telle par le droit des conflits armés (DCA, également appelé droit international humanitaire). Pour l’heure, aucune règle juridique n’envisage spécifiquement la question de sa licéité. Pour autant, la question n’évolue pas dans un vide juridique. Les règles générales du DCA s’appliquent à la conduite des hostilités, quels que soient les moyens et méthodes déployés.

L’une de ces règles est le principe de distinction selon lequel seules les cibles militaires peuvent faire l’objet d’attaques, les personnes civiles et les biens civils devant être préservés. Viser directement une école, comme celle de Minab, en l’absence de tout objectif militaire en son sein, constitue donc une violation manifeste de ce principe. Il est toutefois peu probable que l’armée américaine ait eu l’intention délibérée de détruire l’école en tant que telle. Comme indiqué, il s’agit plus vraisemblablement d’une erreur d’identification de la cible, possiblement liée à un système d’IA entraîné sur des données obsolètes, datant de l’époque où le bâtiment était encore rattaché à la base navale.

En conséquence, la violation est plutôt relative au principe de précaution. Ce dernier prescrit notamment que les parties au conflit doivent faire tout ce qui est pratiquement possible pour vérifier que les objectifs à attaquer sont bien des objectifs militaires. En l’espèce, l’armée américaine ne semble pas avoir procédé aux vérifications nécessaires pour s’assurer que la cible était une école. Une vérification élémentaire, comme celle effectuée par certains médias, aurait pu rapidement dissiper le moindre doute.

Il faut rappeler que, lors de la guerre à Gaza, il avait été rapporté que des soldats israéliens ne disposaient parfois que de vingt secondes pour valider une cible, ce qui interroge sur la possibilité matérielle de respecter effectivement ce principe. Les préoccupations relatives à l’IA militaire se cristallisent souvent autour de la question de l’autonomie et du risque qu’un système désigne et engage seul une cible ; c’est l’enjeu des systèmes d’armes létales autonomes. Cet exemple démontre toutefois qu’un contrôle humain formellement maintenu peut n’être que fictif si l’opérateur ne dispose ni du temps ni de l’esprit critique nécessaires pour évaluer une recommandation algorithmique.

Du côté iranien, il y a lieu de relever que le principe de précaution n’a pas davantage été respecté. Ce principe impose non seulement des obligations à l’attaquant, mais requiert également de l’attaqué qu’il prenne certaines précautions passives : les parties doivent notamment éloigner les personnes civiles et les biens de caractère civil des objectifs militaires. En l’espèce, transformer un bâtiment d’une base navale en école, tout en la maintenant à proximité immédiate du reste du complexe militaire, exposait délibérément cette installation civile aux risques liés à la conduite des hostilités.

Quelles responsabilités juridiques, politiques et morales ?

La responsabilité individuelle. L’attaque ne constitue pas un crime de guerre.

Si l’attaque constitue une violation du DCA, il est probable qu’aucun militaire américain ne soit condamné pour de tels faits. Outre les questions de compétence juridictionnelle, le principal obstacle tient à ce que ni la violation du principe de précaution ni les erreurs conduisant à des violations du DCA ne constituent des crimes de guerre au sens du droit international pénal.

L’acte matériel est bien caractérisé, mais l’élément intentionnel, c’est-à-dire la volonté de commettre l’infraction, fait défaut. Le régime de responsabilité pénale internationale actuel ne reconnaît pas la responsabilité pour négligence dans ce contexte. Cette approche pragmatique pourrait néanmoins évoluer. D’une part, si les erreurs algorithmiques de ciblage se multiplient, le caractère « raisonnable » de l’erreur sera de plus en plus difficile à invoquer et l’utilisation consciente d’un système connu pour ses défaillances pourrait induire une forme d’intention indirecte de cibler des civils. D’autre part, le droit pourrait à l’avenir se développer pour sanctionner les militaires qui, par leur négligence, causent la mort de civils.

La responsabilité des entreprises d’IA. Un bras de fer entre puissances économique et politique.

Un autre point de vigilance tient au rôle des entreprises privées spécialisées en IA qui détiennent aujourd’hui la majeure partie des compétences technologiques mobilisées sur le champ de bataille. Ces entreprises pourraient être tenues responsables lorsqu’elles développent des systèmes défaillants, mais, au-delà de cette responsabilité, une question morale et politique fondamentale se pose au regard de la vente de technologies d’IA à des fins militaires.

Juste avant l’entrée en guerre des États-Unis, Anthropic, qui produit le système Claude, s’était opposé à une coopération sans limite avec le Pentagone, notamment sur les armes autonomes, en invoquant ses engagements éthiques et les limites de fiabilité technique de ses systèmes pour les usages envisagés. Le Pentagone avait alors accusé Anthropic de trahison, bien que ses systèmes continuent d’être utilisés par l’armée.

D’autres entreprises du secteur, comme OpenAI, Google, Amazon ou Microsoft, semblent, quant à elles, collaborer sans réserve avec les armées, s’imposant de facto comme de véritables entreprises de défense. Il est intéressant de noter que des entreprises, normalement guidées par le profit, ont parfois plus d’états d’âme en la matière que certains États pourtant garants de l’intérêt général.

La responsabilité étatique. Répondre de ses actes et prévenir les prochaines violations.

Les États qui développent et utilisent l’IA militaire portent une responsabilité particulière. En l’espèce, les États-Unis engagent leur responsabilité internationale pour la commission d’un fait internationalement illicite. Cette responsabilité sera, certes, difficile à mettre en œuvre dans la pratique. Mais au-delà, il émerge une responsabilité tant juridique que politique. Aux termes de l’article 1 commun aux conventions de Genève, les États ont en effet l’obligation de respecter et de faire respecter le DCA. Or, le développement de l’IA militaire tend à miner ce respect, voire à favoriser et à dissimuler les violations du droit.

Divers mécanismes pourraient endiguer ce phénomène, comme la formation des militaires aux spécificités des systèmes d’IA, l’élaboration de règles d’engagement propres à l’IA, des garanties techniques de fiabilité et de transparence des systèmes ainsi que des tests et évaluations réguliers. Plusieurs initiatives internationales appellent à intégrer de telles mesures au sein de nouveaux instruments juridiques. Pourtant, la volonté politique fait défaut, notamment chez les États à l’avant-garde du développement et de l’utilisation de l’IA militaire.

Ainsi, Pete Hegseth, secrétaire à la défense des États-Unis, semble en réalité agir dans le sens contraire. Il a récemment limogé des conseillers juridiques militaires qu’il considérait comme des entraves à la bonne conduite des hostilités et a qualifié les règles d’engagement de stupides. Plus largement, les États-Unis s’opposent à toute réglementation juridique internationale de l’IA militaire. L’IA apparaît ainsi comme à la fois l’un des moteurs et le révélateur d’une érosion profonde du DCA.

Jacques Lacan disait : « Le réel, c’est quand on se cogne. » L’accident de Minab constitue un évènement dramatique qui confirme les risques sur lesquels les experts en IA militaire alertent depuis plusieurs années et qui aurait dû susciter bien davantage de réactions.

En réalité, cette information semble avoir été éclipsée par d’autres considérations perçues comme plus urgentes et plus visibles dans le cadre de cette guerre, à commencer par le risque nucléaire. L’accident de Minab n’aura pas été l’électrochoc attendu pour inciter les États à s’entendre sur un cadre juridique spécifique applicable à l’IA militaire. Il reste à savoir si un tel électrochoc est encore possible ou même souhaitable.

The Conversation

Louis Perez ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’utilisation de l’intelligence artificielle dans la guerre en Iran : que dit le droit international ? – https://theconversation.com/lutilisation-de-lintelligence-artificielle-dans-la-guerre-en-iran-que-dit-le-droit-international-280562

Le Liban n’arrive toujours pas à résorber le trou abyssal de son système bancaire

Source: The Conversation – France in French (3) – By Nizar Atrissi, Professeur associé, IAE Paris – Sorbonne Business School; Université Paris 1 Panthéon-Sorbonne

La singularité de la « Gap Law » : la garantie de l’argent placé sur un compte en banque ne s’effectue pas par établissement mais par déposant, à l’échelle du système bancaire. TexBr/Shutterstock

Le Liban traverse une crise bancaire sans précédent avec des dépôts bloqués, une baisse de 98 % de la valeur de la livre libanaise et un trou financier de 70 milliards de dollars états-uniens, soit plus de 59,4 milliards d’euros. Un projet de loi « Gap Law » vise à établir un nouveau cadre pour organiser la répartition entre l’État, la banque centrale, les banques commerciales et les déposants. Avec quels perdants ? Au cœur des débats : la confiance dans l’avenir du pays.


Le Liban traverse l’une des crises financières les plus graves observées au niveau mondial depuis plusieurs décennies. Avec l’effondrement de son système financier en 2019, les dépôts (dont les fonds peuvent être retirés partiellement ou totalement à tout instant) sont largement bloqués, la monnaie nationale a perdu l’essentiel de sa valeur et l’économie fonctionne sous un régime de restrictions informelles en l’absence de cadre légal.

Dans ce contexte, l’adoption par le gouvernement d’un projet de loi « Gap Law » visant à organiser la répartition des pertes bancaires le 26 décembre 2025, constitue une étape longtemps attendue, mais soulève de profondes questions quant à sa capacité à restaurer la confiance.

Alors comment le Liban peut restaurer cette confiance dans son système bancaire ?

Trou financier équivalent à trois fois le PIB du Liban

La crise financière libanaise est le résultat de déséquilibres économiques profonds accumulés pendant plusieurs décennies.

Le modèle économique reposait sur un endettement massif de l’État auprès des banques, elles-mêmes fortement exposées à la banque centrale, ou Banque du Liban. Ce système dépendait d’entrées continues de capitaux, notamment de la diaspora, facilitées par un régime de change maintenu « artificiellement » fixe entre la livre libanaise et le dollar – 1 507 livres libanaises pour un dollar états-unien de 1997 à octobre 2019.

Il favorisait de facto la circulation des flux de capitaux. Lorsque ces flux se sont taris, l’insolvabilité conjointe de l’État, de la Banque du Liban et du secteur bancaire est apparue, conduisant au défaut souverain de mars 2020.

Taux de change de la livre libanaise avec le dollar états-unien de 1960 à 2024. En 2024, 1 dollar états-unien = 89 500 livres libanaises.
Université de Sherbrooke

Depuis, la crise est gérée sans cadre légal de résolution bancaire ni contrôle des capitaux. Des restrictions sur les dépôts ont été imposées par des circulaires de la Banque du Liban. Parallèlement, la livre s’est effondrée sur le marché parallèle, perdant plus de 98 % de sa valeur, détruisant le pouvoir d’achat des Libanais et des Libanaises. Selon le FMI et d’autres organismes internationaux, le « trou financier » actuel du système bancaire dépasse 70 milliards de dollars, soit plus de trois fois le PIB annuel du pays.

« Gap Law » sur le « trou financier »

Le projet de loi « Gap Law » de la régularité financière et de la restitution des dépôts vise à établir un cadre légal pour traiter les pertes financières accumulées en devises. Il organise leur répartition entre l’État, la Banque du Liban, les banques commerciales et les déposants.

Il prévoit la protection des dépôts jusqu’à 100 000 dollars états-unien par déposant, avec remboursement sur quatre années. Ce plafond s’applique de manière consolidée à l’ensemble des comptes détenus par un même déposant dans le système bancaire, indépendamment du nombre d’établissements concernés.

Les dépôts consolidés excédant ce seuil seraient convertis en instruments financiers de long terme, essentiellement des obligations zéro-coupon (pas d’intérêts jusqu’à la fin de durée de l’obligation), émises par la Banque du Liban, avec des maturités de dix à vingt ans selon le montant.




À lire aussi :
La crise économique au Liban en 1966 a-t-elle été provoquée par les États-Unis ?


Le Conseil central de la Banque du Liban aurait un pouvoir étendu pour déterminer les modalités de remboursement, y compris la possibilité d’accélérer les échéances, sans critères prédéfinis, alors que le Conseil des ministres pourrait les rééchelonner en fonction de l’évolution de la situation économique.

Le texte évoque une restructuration du secteur bancaire, sans préciser les critères de viabilité des établissements, les modalités de recapitalisation, ni la séquence de mise en œuvre, renvoyés à des textes d’application ultérieurs.

Les déposants en première ligne

L’un des aspects les plus singuliers du dispositif réside dans la manière dont les pertes sont consolidées. Contrairement aux pratiques généralement observées, la garantie des dépôts et la répartition des pertes ne s’effectuent pas par établissement, mais par déposant, à l’échelle du système bancaire. Lors de la crise chypriote ou en Islande, les pertes ont été rapidement reconnues, explicitement chiffrées et appliquées dans un cadre institutionnel clair visant à restaurer la confiance.

Les mécanismes de résolution bancaire reposent principalement sur une hiérarchie claire des pertes, où les actionnaires et créanciers absorbent les chocs avant toute atteinte aux dépôts, et ce banque par banque.

En agrégeant les pertes, le projet ne procède à aucune différenciation entre banques, indépendamment de leur contribution à l’effondrement financier. Celui-ci a été largement alimenté par des opérations d’ingénierie financière complexes ayant encouragé une prise de risque démesurée. Sans critères économiques conditionnant la répartition des pertes, le dispositif privilégie une stabilisation globale du système sans traitement préalable de l’aléa moral issu de ces pratiques.

Un engagement au présent sans fondement

L’enjeu ne réside pas seulement dans la manière dont les pertes sont réparties ou différées. La crédibilité des engagements repose sur la capacité future de l’économie à générer des ressources suffisantes pour les honorer, largement incertaine. En l’absence de sources de financement identifiées ou de trajectoire macroéconomique crédible, les promesses de remboursement s’apparentent davantage à des engagements conditionnels qu’à des obligations fermes.

Produit intérieur brut (PIB) du Liban, de 1989 à 2023.
Banque Mondiale

L’expérience internationale montre que ce type de dispositifs – obligations issues de restructurations ou instruments indexés sur la croissance – ne peut fonctionner que s’il est adossé à des règles claires, une gouvernance crédible et une visibilité minimale sur les flux futurs. En Grèce, Argentine ou Chypre, la valeur réelle de ces instruments dépendait moins de leur valeur faciale que de la confiance dans les institutions et le cadre macroéconomique sous-jacent.

Les instruments de la loi risquent donc d’incarner une forme de dette différée, dont la soutenabilité dépend d’une reprise hypothétique et de décisions politiques incertaines.

Faire reposer sur l’épargne privée

Sans mécanismes clairs de responsabilisation, de hiérarchisation des pertes, de recapitalisation bancaire substantielle et de collatéraux définis, le projet fait reposer une part majeure de l’ajustement sur l’épargne privée.

Cette socialisation ex post des pertes érode la richesse des ménages, réduit leur capacité d’épargne future et contribue peu à restaurer la confiance. Or, la confiance est au cœur du fonctionnement bancaire et de l’intermédiation, indispensable à la reprise de l’investissement et de l’activité économique.

Le projet de loi rompt avec des années d’inaction, mais l’enjeu dépasse la simple répartition comptable des pertes, profondément arbitraire et opaque : il touche au cœur du contrat de confiance entre l’État, le système bancaire et les citoyens, condition indispensable à toute reprise économique durable.

The Conversation

Nizar Atrissi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le Liban n’arrive toujours pas à résorber le trou abyssal de son système bancaire – https://theconversation.com/le-liban-narrive-toujours-pas-a-resorber-le-trou-abyssal-de-son-systeme-bancaire-273401

Les femmes, les oubliées de la science sur l’accouchement et l’allaitement

Source: The Conversation – in French – By Thomas Delawarde-SaÏas, Professeur de psychologie, Université du Québec à Montréal (UQAM)

La médecine reproductive connait très bien la qualité du lait maternel, les indicateurs néonataux et les courbes de risque. Pourtant, lorsque 20 % des femmes québécoises décrivent des pressions coercitives, des gestes non consentis ou une douleur ignorée lors de l’allaitement ou de l’accouchement, ces savoirs-là – sur leur vécu, leur anxiété, leur autonomie décisionnelle – ne comptent presque pas dans la décision médicale. Il est peut-être temps que la médecine intègre pleinement leur vécu comme critère scientifique à part entière.


Professeur à l’UQAM et chercheur en psychologie communautaire, mes travaux portent sur la réduction des inégalités sociales de santé, les politiques publiques en périnatalité, et la transformation des institutions au service du bien-être des familles et des professionnels. Avec mes collègues universitaires et travaillant en obstétrique, nous avons récemment mené deux recherches empiriques qui étudient le vécu des femmes. Nos résultats montrent que les pratiques médicales en périnatalité, bien que visant la sécurité des mères et des enfants, peuvent parfois se faire au détriment de leur autonomie décisionnelle et de leur santé mentale.

Deux formes de savoirs

En santé reproductive, les décisions médicales s’appuient sur divers savoirs scientifiques, qui n’ont pas tous la même valeur. Ces savoirs décrivent notamment ce que le corps féminin devrait permettre, préserver ou optimiser : le développement de l’enfant, la continuité et la qualité de la reproduction, la gestion du risque obstétrical. Ces connaissances, abondamment étudiées, mesurées et financées, structurent l’essentiel des recommandations cliniques.

D’autres sources de connaissances portent pourtant sur les femmes elles-mêmes : leur santé mentale, leur capacité à décider, et leur vécu émotionnel. Ces travaux existent – mais ils sont moins nombreux, moins mobilisés dans les cadres décisionnels, et plus rarement érigés en priorité de santé publique. On sait ainsi beaucoup de choses sur la qualité du lait, les indicateurs néonataux ou les courbes de risque, mais on dispose de données nettement plus fragmentaires sur ce que vivent les femmes lorsqu’elles doivent composer avec ces recommandations.




À lire aussi :
De la dépression postnatale à la détresse relationnelle : repenser la santé mentale périnatale


Le problème apparaît lorsque ces deux formes de savoirs entrent en tension. Dans ces situations, ceux considérant le corps des femmes comme un moyen au service d’autres finalités tendent à s’imposer, reléguant au second plan ceux qui portent sur leur vécu et leur autonomie décisionnelle.

Quelle place pour les mères dans l’allaitement ?

Dans une étude menée en 2024 au Québec auprès de 944 femmes, nous avons voulu comprendre comment les politiques d’incitation à l’allaitement interagissaient avec les choix des femmes. Les résultats ont montré que, sans égard pour le choix d’allaiter et l’attitude des femmes par rapport à l’allaitement, 20 % des personnes rapportaient avoir reçu des messages jugeants, coercitifs, intrusifs ou en décalage avec leurs besoins.

Certaines expriment une absence totale de prise en compte de leur santé mentale : « Le message ne prend jamais en compte les besoins de la mère, physiques ou psychologiques ». D’autres décrivent des gestes non consentis, des pressions répétées pour continuer malgré la douleur, ou l’absence d’information sur les alternatives : « Ils me faisaient mal et je n’étais pas en état de refuser ».

L’étude montre aussi que les difficultés vécues – douleur, stress, anxiété, sentiment d’échec – sont souvent minimisées ou renvoyées à « un manque d’efforts ». Et lorsque les femmes choisissent de ne pas allaiter exclusivement, un nombre important rapportent n’avoir reçu aucun soutien, ou même avoir subi des jugements négatifs de la part du corps médical.

Dans le champ de l’allaitement, institutionnellement structuré par l’Initiative « Hôpitaux amis des bébés » (je souligne), les considérations sur les bénéfices pour l’enfant – immunité, prévention des infections, effets à long terme – occupent une place centrale et orientent largement les recommandations internationales.

En comparaison, les recherches portant sur les conséquences psychologiques et sociales des politiques d’incitation à l’allaitement pour les femmes sont beaucoup moins visibles dans les cadres décisionnels. Pourtant, ces travaux existent et documentent des liens entre pression normative, culpabilisation, défaut de consentement et détresse émotionnelle, incluant anxiété, perte de confiance et sentiment d’échec maternel.

Les deux corpus proviennent des mêmes espaces scientifiques. Mais dans la pratique clinique, les connaissances centrées sur les besoins de l’enfant s’imposent, tandis que celles portant sur la santé mentale, les limites et la capacité d’agir des mères (choisir d’allaiter ou ne pas allaiter) demeurent périphériques.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


En marge de son propre accouchement

Les travaux sur les violences obstétricales offrent un autre terrain particulièrement éclairant pour observer ces tensions entre savoirs. Dans une recherche récente menée au Québec auprès de 271 personnes ayant accouché dans les deux dernières années, nous avons documenté les formes que peuvent prendre ces violences ainsi que leurs conséquences émotionnelles.

Trois grands types d’expériences ressortent : des interactions non-soutenantes avec les professionnels, l’absence de consentement à certains actes médicaux et des défaillances organisationnelles des services. Plus largement, 78 % des participantes rapportent avoir vécu au moins une expérience désagréable lors de leur accouchement, souvent liée à la manière dont les soins étaient réalisés ou imposés.

Ces pratiques sont rarement nommées comme des violences. Elles s’inscrivent plutôt dans une logique de protocolisation et de sécurité : accélérer le travail, prévenir les complications, optimiser les issues périnatales. Autrement dit, elles s’appuient sur un corpus de connaissances biomédicales centré sur la gestion du risque obstétrical et la protection du fœtus.




À lire aussi :
Voici comment reconnaître et prévenir la violence obstétricale et gynécologique


Mais lorsque l’on examine leurs effets du point de vue des femmes, un autre savoir émerge. Les participantes décrivent un sentiment d’impuissance, d’humiliation, de dépossession de leur accouchement, certaines allant jusqu’à dire s’être senties « comme une expérience de laboratoire ». La douleur minimisée, les gestes pratiqués sans consentement ou les plans de naissance ignorés illustrent une disqualification récurrente de leur propre expertise corporelle.

Ici encore, deux registres de connaissances coexistent : l’un centré sur la sécurité obstétricale, l’autre sur l’intégrité psychique et l’autonomie décisionnelle des femmes. Et lorsque ces registres entrent en tension, ce sont le plus souvent les impératifs biomédicaux qui structurent la décision, reléguant au second plan les conséquences émotionnelles et subjectives des pratiques.

Concilier les enjeux biomédicaux et l’expérience vécue

Ces deux recherches montrent que les personnes dont le corps est objectifié ne manquent ni d’informations ni de capacité réflexive. C’est la valeur accordée à leur savoir qui manque. Quand les connaissances issues de leur vécu, de leur santé mentale ou de leur trajectoire de vie entrent en tension avec des savoirs biomédicaux centrés sur la fonction du corps (porter, accoucher, nourrir, conserver la possibilité de procréer), ce sont presque toujours ces derniers qui l’emportent.

Il est essentiel à cet égard de reconnaître que les preuves scientifiques sont toujours produites, sélectionnées et interprétées dans un cadre normatif. Lorsque le corps est principalement envisagé à travers ses fonctions reproductives, les connaissances qui s’y accordent tendent à structurer les décisions.

Interroger cette hiérarchie revient à élargir le cadre dans lequel elle est mobilisée. Cela suppose de considérer les effets des pratiques médicales non seulement en termes d’issues biomédicales, mais aussi en termes d’expérience vécue, de santé mentale et de capacité à décider.


L’auteur rapporte ici des résultats produits dans le cadre d’une programmation de recherche collaborative avec Cécile Delawarde-Saïas, Coralie Mercerat, Julie Poissant et Eloïse St-Denis.

L’auteur remercie Eloïse Lara Desrochers et Julie Zaky pour leur relecture de cet article et leurs commentaires critiques qui en ont augmenté la qualité.

La Conversation Canada

Thomas Delawarde-SaÏas ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les femmes, les oubliées de la science sur l’accouchement et l’allaitement – https://theconversation.com/les-femmes-les-oubliees-de-la-science-sur-laccouchement-et-lallaitement-270337

L’IA générative ne détruira pas votre emploi mais elle va changer profondément votre métier

Source: The Conversation – France (in French) – By Hugo Spring-Ragain, Doctorant en économie / économie mathématique, Centre d’études diplomatiques et stratégiques (CEDS)

L’intelligence artificielle ne détruit pas tant des emplois qu’elle modifie profondément les compétences nécessaires pour les accomplir. De cette confusion entre emploi et compétences risquent de naître des erreurs dans les politiques d’accompagnement des mutations en cours.


Chaque grande vague technologique a produit son lot de prédictions contradictoires sur l’emploi. L’intelligence artificielle (IA) ne fait pas exception. Mais avant de savoir combien d’emplois l’IA va créer ou détruire, il faudrait s’accorder sur ce qu’elle automatise réellement. La réponse oblige à distinguer trois notions que le débat public confond régulièrement : l’emploi, la compétence et la tâche.

Les grandes vagues d’automatisation ont suivi une logique remarquablement stable en deux siècles : vapeur, électricité, robotique industrielle ont déplacé les tâches physiques répétitives et épargné le travail cognitif non routinier. Cette régularité empirique a été formalisée par Autor, Levy et Murnane dès 2003 sous le nom d’« hypothèse de polarisation des tâches ».

Une illusion persistante

L’automatisation ronge les emplois intermédiaires, ceux des cols bleus qualifiés et employés de bureau exécutant des tâches routinières, mais épargne les deux extrémités. D’un côté, les tâches manuelles non routinières, comme la plomberie ou les soins, de l’autre, les tâches cognitives non routinières, comme l’analyse, le conseil ou la rédaction experte. Ces dernières constituaient le cœur des professions du tertiaire qualifié, et la conviction s’était solidement installée qu’elles resteraient hors d’atteinte.




À lire aussi :
Pourquoi l’IA oblige les entreprises à repenser la valeur du travail


Cette conviction reposait sur une confusion conceptuelle qu’il faut dissiper avant tout. Ce n’est pas l’emploi de juriste ou d’analyste financier qui était protégé, c’est un ensemble de tâches précises qui composaient cet emploi et qui résistaient jusqu’ici à l’automatisation. La distinction entre ces trois niveaux est fondamentale.

Un emploi désigne un poste occupé dans une organisation, avec un contrat, un salaire, une fiche de poste. Une compétence est une capacité cognitive ou technique mobilisable dans plusieurs contextes professionnels. Une tâche est une action précise, délimitable, dont on peut évaluer si elle est ou non automatisable à un coût donné. C’est à ce troisième niveau que se joue réellement la transformation en cours, et c’est précisément ce niveau que le débat public ignore.

Rupture dans la longue histoire du capitalisme industriel

L’IA générative constitue une rupture dans cette longue histoire. Pour la première fois depuis l’industrialisation, les tâches cognitives qualifiées, rédaction, analyse documentaire, synthèse, production de premiers jets, se retrouvent directement exposées. Eloundou, Manning, Mishkin et Rock estiment qu’environ 80 % de la population active états-unienne pourrait voir au moins 10 % de ses tâches affectées par les grands modèles de langage, et que cette exposition croît avec le niveau de salaire. C’est l’exact inverse du schéma observé lors de toutes les vagues précédentes.

Le cadre analytique développé par Acemoglu et Restrepo permet d’aller plus loin. Leur modèle distingue deux effets opposés produits par toute vague d’automatisation :

  • l’effet de déplacement, d’abord : des travailleurs perdent des tâches au bénéfice de la machine, ce qui réduit mécaniquement la demande de travail et pèse sur les salaires des groupes affectés ;

  • l’effet de réintégration, ensuite : l’automatisation produit de nouvelles tâches où la valeur humaine est décisive, générant une demande compensatrice.

L’histoire longue du capitalisme industriel peut se lire comme une succession de ces deux effets, le second finissant généralement par compenser le premier.

Le cas de la traduction permet de voir très concrètement comment déplacement et réintégration se combinent, l’IA générative peut produire en quelques secondes un premier jet dans une autre langue, ce qui déplace une partie du travail auparavant effectué par des traducteurs humains vers la machine. Mais cette automatisation réintègre simultanément d’autres tâches ou renforce leur importance, telles que la vérification des contresens, l’adaptation au contexte culturel, l’harmonisation de la terminologie, le contrôle de la qualité et la validation finale.

Potentiel déséquilibre

Ce qui est préoccupant avec l’IA générative, c’est le déséquilibre potentiel entre ces deux dynamiques. Le déplacement s’opère à une vitesse que les marchés du travail et les institutions de formation peinent à absorber, tandis que la réintégration reste encore largement à construire.

Cependant, le phénomène le plus important n’est pas sectoriel, mais il est interne aux métiers eux-mêmes. Dans ses « Perspectives de l’emploi », l’OCDE met en évidence que les professions les plus exposées à l’IA générative sont précisément celles à forte densité cognitive : finance, droit, conseil, enseignement supérieur. Contrairement aux vagues précédentes qui frappaient les zones rurales et les bassins industriels, l’exposition est désormais plus forte dans les grandes métropoles et chez les travailleurs hautement qualifiés, un renversement géographique et social inédit.

Redistribuer les tâches

Ce renversement se joue concrètement au niveau de la tâche.

Dans un même poste d’analyste financier ou de juriste, certaines tâches migrent vers l’IA (produire un résumé exécutif, générer une première analyse de contrat, synthétiser une revue de littérature), tandis que d’autres se revalorisent mécaniquement : définir le cadre d’analyse pertinent, évaluer la qualité d’un raisonnement automatisé, détecter une erreur factuelle dans un output, assumer la responsabilité juridique ou éthique d’une décision. Ce ne sont pas des emplois qui disparaissent. Ce sont des bouquets de tâches qui se redistribuent entre humains et machines, transformant de l’intérieur ce qu’un employeur attend d’un salarié qualifié.

Cette redistribution des tâches a une implication directe sur les compétences qui seront réellement valorisées dans les années à venir, et elle renverse une partie des évidences habituelles sur la formation professionnelle.

Former les travailleurs à utiliser l’IA au sens instrumental, maîtriser un outil, rédiger des prompts efficaces, s’approprier une interface, est utile à court terme, mais c’est insuffisant si la compétence réellement demandée demain n’est pas de produire avec l’IA, mais de superviser et de critiquer ce qu’elle produit.

Un enjeu de formation

Or, superviser efficacement un output d’IA requiert exactement ce que les formations courtes et techniques peinent à développer : une culture générale solide permettant de détecter une erreur de fond, une capacité argumentative pour évaluer la cohérence d’un raisonnement, une connaissance des biais cognitifs pour identifier les angles morts d’une analyse automatisée. Ce sont des compétences que les sciences de l’éducation regroupent sous le terme de métacompétences : apprendre à apprendre, à exercer un jugement critique, à mobiliser des savoirs dans des situations inédites.

Arte, 2025.

Le paradoxe devient alors le suivant. À mesure que l’IA automatise les tâches routinières de la connaissance, elle valorise précisément ce que les formations généralistes et les cursus de sciences humaines cultivent de longue date et que les débats sur l’employabilité ont eu tendance à déconsidérer au profit de compétences techniques plus immédiatement mesurables.

Non par nostalgie des humanités, mais par logique économique pure. Si la machine produit le texte, l’analyse et la synthèse, la valeur marginale de l’humain réside dans sa capacité à juger si ce texte dit vrai, si cette analyse est pertinente au regard du contexte réel, si cette synthèse sert l’objectif poursuivi.

The Conversation

Hugo Spring-Ragain ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’IA générative ne détruira pas votre emploi mais elle va changer profondément votre métier – https://theconversation.com/lia-generative-ne-detruira-pas-votre-emploi-mais-elle-va-changer-profondement-votre-metier-279911

Comment aider les enfants à passer de l’anxiété climatique à l’action ?

Source: The Conversation – France (in French) – By Sanae Okamoto, Senior Researcher in Behavioural Science and Psychology, United Nations University – Maastricht Economic and Social Research Institute on Innovation and Technology (UNU-MERIT), United Nations University

Les méthodes d’enseignement jouent un rôle essentiel pour aider les enfants à comprendre qu’ils peuvent agir et avoir une influence sur le monde qui les entoure. Rawpixel.com/Shutterstock

Plutôt que de se focaliser sur ce qui ne va pas, l’éducation au climat peut aider les enfants à se demander ce qu’ils peuvent faire. En cultivant leur agentivité, c’est-à-dire leur capacité à être maîtres de leur existence, et leur esprit critique, elle peut faire émerger une génération prête à agir pour un avenir plus durable.


Les enfants sont ceux qui ont le moins de prise sur l’avenir de la planète, mais ils seront aussi parmi les plus touchés par ses transformations. Ils peuvent ainsi ressentir le poids psychologique de ce que l’on appelle le « fossé de la futilité » : le sentiment que les actions individuelles n’ont guère de sens face à l’inaction plus large de la société face à la crise climatique.

Dans ce contexte, il est essentiel de favoriser une agentivité psychologique saine – c’est-à-dire la conviction que nous avons prise sur notre propre vie. Des leviers existent pour agir contre la crise climatique. Les enfants doivent être accompagnés afin qu’ils ne perdent pas espoir.

Avec notre collègue Kariũki Werũ, nous avons élaboré un guide expliquant comment les adultes peuvent soutenir le développement psychologique sain des enfants.

Notre approche reconnaît la gravité du changement climatique tout en ancrant les enfants dans l’espoir. L’objectif est de transformer les sentiments d’impuissance en sentiment d’efficacité personnelle – la conviction qu’ils peuvent agir.

À la maison

Pour protéger le bien-être émotionnel des enfants tout en abordant les réalités du climat, les adultes doivent aussi apprendre à parler du changement climatique avec les enfants. Cela suppose d’écouter les enfants, d’apprendre avec eux et d’utiliser un langage adapté à leur âge et à leur capacité de compréhension. Les écoles et les communautés pourraient également aider les parents en proposant des conseils pour mener ces conversations.

Surveiller l’activité en ligne d’un enfant peut aussi le protéger d’informations traumatisantes. Les parents peuvent mettre l’accent sur les progrès et les solutions, et aider leurs enfants à passer du temps à observer et apprécier l’évolution de la météo et de leur environnement.

En classe

Les écoles, les méthodes pédagogiques ainsi que les relations des enfants avec leurs enseignants et leurs camarades jouent un rôle central dans le développement de leur agentivité psychologique. Renforcer leur résilience face au changement climatique pourrait passer par un dépassement de l’apprentissage traditionnel fondé sur la mémorisation, au profit d’une « éducation critique au climat » adaptée à leur âge.

L’objectif est de donner aux élèves les moyens de questionner les systèmes existants et d’imaginer des transformations profondes, plutôt que de se sentir vaincus par l’ordre établi.

L’apprentissage en plein air, au contact de la nature, peut également renforcer ce développement. Il peut à la fois améliorer la santé mentale et transformer des notions abstraites liées au climat en expériences concrètes. Apprendre dehors peut favoriser des discussions plus constructives sur le climat et établir un lien direct entre les actions humaines, l’environnement et les solutions durables. Les observations sur le terrain et les projets d’enquête permettent ainsi de combler l’écart entre l’apprentissage et l’action.

Sur le Web

L’apprentissage du climat par l’intermédiaire des outils numériques constitue un puissant levier pour l’éducation contemporaine. Il offre des perspectives interactives et globales sur la crise climatique. Mais il doit être encadré afin de limiter les effets des « bulles de filtres » sur Internet – lorsque les algorithmes ne montrent aux utilisateurs que des informations correspondant à leurs intérêts passés. Ce phénomène peut isoler les enfants et les submerger de contenus répétitifs qui nuisent à leur bien-être.

Utilisés correctement, les outils numériques peuvent au contraire élargir la perspective des enfants sur les solutions face au changement climatique au-delà de leur environnement local.

En combinant les approches

Une éducation climatique efficace peut associer apprentissage numérique et expériences concrètes sur le terrain. Lorsqu’elle est accompagnée par des enseignants et des adultes qui jouent un rôle de guides – tout en laissant aux enfants l’espace nécessaire pour explorer et créer de manière autonome – ceux-ci peuvent bénéficier d’une éducation à la fois réaliste et équilibrée. Des programmes pionniers combinent déjà les sciences enseignées en classe, les outils numériques et des expérimentations en extérieur afin de transformer les idées des élèves en projets concrets au service de leur communauté.

À une échelle plus large, l’éducation au climat doit aussi combler l’écart entre responsabilité individuelle et pouvoir collectif. Le récit autour du climat devrait passer de la question « Qu’est-ce qui ne va pas ? » à « Que pouvons-nous faire ? » Ce changement peut donner aux enfants un sentiment d’agir sur le monde plutôt que de nourrir leur anxiété climatique. Les réseaux sociaux constituent un espace clé où cette évolution peut se produire.

Lorsqu’ils sont utilisés avec l’accompagnement d’adultes et une bonne éducation aux médias numériques, ces outils peuvent favoriser des dialogues constructifs et des actions fondées sur des données. Un usage modéré et positif des outils numériques peut aider les enfants à relier leur propre prise de conscience au monde qui les entoure et à encourager des actions à une échelle plus large pour réellement faire face à la crise climatique.

À terme, cela peut permettre aux enfants de partager leurs connaissances sur le changement climatique et d’inspirer des actions au sein de leur famille et de leur entourage. Ils peuvent ainsi devenir des acteurs influents à l’école et dans leur communauté.

Pour faire face à la crise climatique tout en préservant le bien-être des jeunes, il est essentiel d’aider les enfants à reconnaître leur capacité d’agir. Ils peuvent devenir des acteurs du changement, capables de lutter contre la désinformation et de développer une résilience psychologique durable.

Les écoles peuvent travailler avec les familles, les communautés et les responsables publics pour créer un environnement favorable à l’apprentissage du climat. Une telle approche pourrait combler l’écart entre les connaissances scientifiques sur le climat et les expériences vécues, en apportant le soutien émotionnel et les compétences pratiques nécessaires pour donner aux générations du climat les moyens de construire ensemble un avenir durable.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Comment aider les enfants à passer de l’anxiété climatique à l’action ? – https://theconversation.com/comment-aider-les-enfants-a-passer-de-lanxiete-climatique-a-laction-280294

L’alimentation de la mère pendant l’allaitement pourrait jouer un rôle clé pour la santé future de son bébé

Source: The Conversation – France in French (3) – By Ivette Caldelas, Investigadora Senior, UDIT – Universidad de Diseño, Innovación y Tecnología

À l’heure actuelle, il n’existe pas encore de recommandations cliniques fondées sur le microbiome du lait. Natalia Deriabina/Shutterstock

Des données récentes suggèrent que le bébé reçoit, par le lait maternel, un écosystème microbien, et notamment certaines bactéries bénéfiques qui s’avèrent essentielles à son développement en particulier au niveau immunitaire. Plutôt que de faire peser la responsabilité sur les seules mères, ces recherches doivent inspirer des politiques publiques pour les accompagner, au bénéfice des nourrissons.


Nous savons que le lait maternel est l’aliment idéal pour les nouveau-nés grâce à l’équilibre subtil de ses composants : il contient des micro et macronutriments, des facteurs immunitaires et de croissance, ainsi que des hormones indispensables au bon développement des nourrissons à chaque étape de leur croissance.




À lire aussi :
Le colostrum, premier lait maternel : bénéfices, méconnaissance et croyances


Cependant, des études récentes révèlent quelque chose de bien plus profond : le lait ne se contente pas de nourrir, il transmet également un écosystème vivant au bébé. Il contient des bactéries, des métabolites et des composés bioactifs qui peuvent façonner la santé du nouveau-né dès ses premiers jours de vie. Ces découvertes pourraient transformer notre compréhension de la pédiatrie moderne.

Le lait n’est pas stérile : il est biologiquement actif

Il y a encore un peu plus d’une décennie, selon l’idée dominante, le lait maternel était considéré comme un aliment stérile ; toute présence bactérienne était considérée comme une contamination. Cependant, des études de séquençage à grande échelle menées sur des échantillons de lait provenant de diverses espèces ont démontré que le lait contient des communautés microbiennes complexes. Parmi celles-ci, on peut citer les bactéries appartenant aux genres Bifidobacterium sp., Lactobacillus sp. et Streptococcus sp., qui sont étroitement liées à la colonisation saine de l’intestin néonatal.

Ce transfert bactérien intervient à un moment critique, quand le développement du système immunitaire du nouveau-né dépend en grande partie de la modulation immunitaire apportée par le lait maternel. Ce microbiote apporté par la mère joue un rôle important dans la maturation de la barrière intestinale, la régulation de l’inflammation et la programmation métabolique du nouveau-né.

En d’autres termes, le lait maternel n’apporte pas seulement des calories : il contribue également au développement du système immunitaire.

Un dialogue biologique entre l’intestin et le sein

Des données récentes mettent en évidence un phénomène fascinant, que les scientifiques ont baptisé « voie entéro-mammaire ». Grâce à ce mécanisme, certaines bactéries présentes dans l’intestin maternel seraient capables de migrer vers la glande mammaire, où les cellules immunitaires joueraient le rôle de transporteurs.




À lire aussi :
Dialogue autour du microbiote : comment la mère et le bébé communiquent à travers le lait maternel


Si cela venait à être pleinement confirmé – les résultats obtenus dans les modèles animaux et les études chez l’humain soutiennent de plus en plus cette hypothèse-, cela signifierait que le microbiome intestinal maternel serait capable d’influencer directement celui présent dans le lait maternel. Et cela soulève une question inévitable : quel rôle joue réellement l’alimentation maternelle ?

L’alimentation, modulateur du premier écosystème du bébé

Il ne fait aucun doute que la composition du microbiome intestinal est étroitement liée à l’alimentation. Plusieurs études ont démontré qu’une alimentation riche en fibres, en fruits, en légumes et en légumineuses favorise une plus grande diversité microbienne et la production d’acides gras à chaîne courte. Ces derniers favorisent la perméabilité intestinale et ont des effets anti-inflammatoires.

À l’inverse, les régimes riches en sucres raffinés ou en graisses sont associés à une moindre diversité bactérienne, à une présence réduite de bactéries bénéfiques ou à une augmentation des bactéries pathogènes. Cela entraîne un déséquilibre dans la production de métabolites, ce qui favorise le développement d’inflammations et de complications métaboliques.

Certaines études scientifiques indiquent une corrélation entre la qualité de l’alimentation de la mère et la composition bactérienne du lait, ainsi qu’avec la présence de certains métabolites lipidiques et immunomodulateurs. Il a également été établi que la consommation d’acides gras oméga-3 peut influencer le profil inflammatoire et, éventuellement, la communauté microbienne transmise au nourrisson.

Effets à long terme

À l’heure actuelle, il n’existe pas encore de recommandations cliniques fondées sur le microbiome du lait. Cependant, le consensus scientifique tend à indiquer que l’alimentation maternelle peut avoir des effets qui vont au-delà des aspects nutritionnels, car elle pourrait également moduler le premier écosystème intestinal du bébé et influencer son développement et sa santé tout au long de sa vie.

Plus précisément, la colonisation intestinale précoce peut avoir un impact sur le risque ultérieur d’allergies, d’obésité, de maladies métaboliques et même de troubles neurocomportementales.

Des études longitudinales (menées sur la durée) suggèrent que les premiers mois de vie constituent une période critique de programmation biologique. Cela ne signifie pas que l’allaitement est le seul facteur déterminant : d’autres facteurs tels que le type d’accouchement, le recours à des d’antibiotiques, l’environnement familial et les déterminants sociaux de santé ont également une influence décisive. Néanmoins, cela implique le fait que nous sommes face à un aspect de l’allaitement qui, jusqu’à présent, avait été clairement sous-estimé.

Des données scientifiques aux politiques publiques

La pédiatrie moderne qui, traditionnellement, se concentrait uniquement sur des aspects tels que la nutrition et la croissance, commence à intégrer une perspective écologique. Selon cette approche, le bébé n’est plus un organisme isolé : il doit désormais être considéré comme un métaorganisme qui cohabite avec des milliards de microorganismes. Il existe un dialogue bidirectionnel entre le nouveau-né et le microbiote grâce à la production de molécules spécifiques qui ont un impact sur son développement et sur le fait que le bébé soit en bonne santé ou déclare une maladie. Et ce mécanisme commence à peine à être élucidé.

Ces nouvelles données autour de la composition du microbiote dans le lait maternel ne doivent pas devenir une nouvelle source de pression sur les mères : toutes ne peuvent pas allaiter et toutes n’ont pas accès à une alimentation équilibrée. Si la science confirme que la qualité nutritionnelle de la mère influence directement la colonisation microbienne du nouveau-né, la réponse ne peut être une responsabilité individuelle. Elle doit plutôt se traduire par des politiques facilitant l’accès des femmes en âge de procréer à une alimentation saine, ainsi que par un soutien à l’allaitement et des environnements de travail compatibles avec la maternité.

Sans aucun doute, investir dans la santé maternelle, c’est aussi investir dans la santé infantile. Et désormais, nous savons que cet investissement doit également tenir compte de l’alimentation de la mère. L’invisible – c’est-à-dire les bactéries, les métabolites et l’interaction entre l’alimentation et le microbiome – pourrait bien redéfinir la médecine de demain.

The Conversation

Juan Pablo Ochoa Romo a reçu des financements du secrétariat dédié aux sciences, aux sciences humaines, à la technologie et à l’innovation (SECITHI/Mexique).

Ana María Salazar Martínez, Erika Navarrete Monroy et Ivette Caldelas ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. L’alimentation de la mère pendant l’allaitement pourrait jouer un rôle clé pour la santé future de son bébé – https://theconversation.com/lalimentation-de-la-mere-pendant-lallaitement-pourrait-jouer-un-role-cle-pour-la-sante-future-de-son-bebe-280878

Dans une guerre asymétrique, le puissant est-il condamné à perdre ?

Source: The Conversation – France in French (3) – By Barthélémy Courmont, Directeur du master Histoire — Relations internationales, Institut catholique de Lille (ICL)

Cet article, qui constitue la suite d’une première réflexion publiée récemment et intitulée « “Guerre asymétrique” : une formule récente pour un phénomène plurimillénaire », présente les deux principales visions qui s’opposent sur la notion de « guerre asymétrique ». L’une y voit un effort du plus faible pour égaler le plus fort ; l’autre, une tentative de l’affaiblir. Un débat qui, en tout état de cause, oblige à repenser la guerre.


Dès lors que la guerre asymétrique ne se résume plus au seul constat que le rapport de force entre deux belligérants est déséquilibré, mais implique des stratégies de contournement, elle s’impose comme un concept employé par les états-majors, par les gouvernements, et par les observateurs. Mais tous ne définissent pas ce concept de la même façon, loin de là. Les déboires de Washington au Moyen-Orient depuis fin février nous le rappellent. Deux grandes définitions radicalement différentes se sont de fait imposées dans le débat.

Toutes deux partent du principe que la guerre asymétrique est une stratégie du faible au fort. La première, cependant, tend à considérer qu’elle traduit une tentative du faible de hausser son niveau de nuisance pour se mettre au niveau du fort. La seconde, quant à elle, estime qu’il convient de parler de guerre asymétrique lorsque le faible cherche à accentuer le décalage qui le sépare du fort pour en tirer un avantage. L’intérêt de ces deux approches est qu’elles tirent des conclusions presque opposées de leur perception d’un conflit opposant le fort et le faible.

Deux approches distinctes

Dans les cercles stratégiques aux États-Unis, l’asymétrie est généralement considérée comme un effort du faible afin d’accroître à moindres frais sa capacité de nuisance, au point de se positionner comme l’égal du puissant. Les armes de destruction massive (ADM) entre les mains d’États faibles, ou éventuellement de groupes armés non étatiques, sont ainsi perçues comme une composante asymétrique de l’arsenal dont disposent ces États, puisqu’elles leur permettent d’accéder à un niveau de dangerosité qu’ils ne sauraient atteindre en se contentant des moyens conventionnels.

Cette approche de la guerre asymétrique, décrite dans de nombreux travaux qui nous ramènent aux fameux États voyous et à « l’Axe du Mal » désigné par Washington au début des années 2000, s’est développée en marge des interrogations sur les risques liés à la prolifération des ADM et s’applique parfaitement à ces États comme la Corée du Nord, qui disposent de ressources très limitées mais qui cherchent, en se procurant des capacités nucléaires, à hausser leur niveau de puissance de manière disproportionnée. Dans le cas des acteurs non étatiques, le scénario d’un terrorisme par ADM est le plus souvent évoqué pour illustrer ce risque. Dans ce cas, la guerre asymétrique se traduirait par un effort du faible en vue de se mettre au niveau du fort et d’équilibrer par le haut les capacités dont il dispose.

À l’opposé de cette réflexion s’impose l’idée selon laquelle l’asymétrie, quelle que soit sa forme, est le privilège du faible, qui cherche à vaincre le plus puissant en contournant les moyens qui assurent sa supériorité.

Selon Steven Metz et Douglas Johnson, les acteurs asymétriques « agissent, s’organisent et pensent différemment afin de maximiser leurs propres avantages, exploiter les faiblesses de l’adversaire, détenir l’initiative ou gagner une liberté d’action plus importante. L’asymétrie peut inclure des méthodes, des technologies, des valeurs, des modes d’organisation, des échéanciers différents ou une combinaison de ces derniers ».

Face aux puissances qui ne peuvent outrepasser un ensemble de règles morales et d’engagements internationaux qu’elles ont cautionnés et qui, d’une certaine manière, interdisent certaines pratiques, les États faibles et, plus encore, les groupes armés non étatiques bénéficient d’une plus grande liberté d’action. Ce qui n’est pas permis aux démocraties l’est aux dictatures, et ce que ne peuvent faire des forces armées organisées, des groupes dispersés se le permettent sans états d’âme. Ainsi, dans le cas du conflit en Iran, les dirigeants des États-Unis ne peuvent pas se permettre d’ignorer l’hostilité croissante de leur opinion publique à l’égard de la guerre, tandis que leurs homologues iraniens ne se préoccupent pas de ce que pensent leurs propres citoyens.

Cette marge de manœuvre du faible, plus ou moins importante, définit la faille dans laquelle il peut déployer sa stratégie de contournement. Cette stratégie, qui s’appuie sur une multitude de tactiques, consiste à empêcher le fort de faire usage de sa puissance, ou rendre cette dernière inefficace. L’utilisation systématique de leurres, la guerre en milieu urbain, les attaques par surprise ou l’impossible identification de forces armées (par exemple en semant la confusion entre militaires et civils) sont autant de techniques de guerre asymétrique qui permettent au faible d’optimiser ses chances de succès à la fois en semant la confusion chez le fort et en réduisant au maximum les capacités de riposte de ce dernier.

Cette approche de la guerre asymétrique trouve également un écho dans les travaux sur la cyberguerre et la possibilité pour le faible de paralyser le fort à l’aide de moyens limités. Ici, la guerre asymétrique se traduit donc par un effort visant à affaiblir le fort, et donc à équilibrer le rapport de forces par le bas.

Si elles sont totalement différentes dans la méthode, ces deux approches de la guerre asymétrique peuvent être menées conjointement, ce qui est d’ailleurs souvent le cas. On relève ainsi de la part du faible une tendance à vouloir se faire plus puissant et dans le même temps un effort visant à affaiblir le fort.

Asymétrie du faible, ou pathologies du puissant ?

Si l’asymétrie est clairement identifiée comme une stratégie du faible au fort, celle-ci ne peut se développer que dans un contexte particulier, une situation adéquate résultant des agissements du fort. La marge de manœuvre du faible est ainsi étroitement associée à l’attitude du fort qui porte, en certaines circonstances, une grande responsabilité de par ses mauvais choix et de ses certitudes mises à mal et exploitées par le faible. Ce sont ses actions qui délimitent les contours de la guerre asymétrique, et ses erreurs qui en déterminent le plus souvent l’issue. L’absence de stratégie clairement définie, comme c’est le cas dans la campagne militaire américaine contre l’Iran, en offre une démonstration saisissante.

Le politologue américain Christopher J. Fettweis identifie dans son livre The Pathologies of Power quatre pathologies, qui, selon lui, sont à l’origine des croyances qui poussent les dirigeants des grandes puissances (son étude est consacrée aux États-Unis) à prendre des décisions irrationnelles : la peur, l’honneur, la gloire et l’hubris.

Inscrites dans la lignée des travaux sur la perception de Robert Jervis, ces pathologies aveuglent les grandes puissances dans leur appréciation des enjeux sécuritaires. L’hubris, qui est une manifestation d’arrogance, est pour Fettweis, à la fois la plus prévisible et la plus importante des pathologies du fort.

À différentes périodes de l’histoire des États-Unis, des études poussées sur l’arrogance du pouvoir furent publiées comme une mise en garde face au risque d’unilatéralisme, à un excès de confiance parfois inapproprié, et à un messianisme que Barry Buzan qualifiait en 2004 dans The United States and the Great Powers de « syndrome de l’empire du milieu ». Fettweis juge que l’hubris est inquiétant, car il « peut s’imposer face à ce qui semble être les signes les plus évidents ». Il n’est également pas inscrit dans un courant de pensée en particulier, et menace tous ceux qui croient en un messianisme.

L’arrogance du puissant est alimentée par ses succès passés et par un sentiment de supériorité que lui offrent des moyens techniques et des capacités d’entraînement très largement supérieurs à ceux de ses adversaires potentiels. Cela peut faire croire à un chef des armées peu au fait de l’hubris que la victoire est facilitée par le déséquilibre des forces en présence, et se résume à une « excursion ». On pourrait ajouter à ces pathologies la difficulté pour le fort de reculer une fois qu’il est engagé dans un conflit, au risque de perdre toute crédibilité. Là encore, le cas américain est très éclairant.

Quels peuvent être les remèdes à ces pathologies, s’interroge Fettweis ? D’abord que le patient accepte le diagnostic, car « s’il ne fait aucun doute que les États-Unis sont un bon pays, il fait occasionnellement de mauvais choix ». Prendre la mesure des erreurs de jugement, de la réalité de la puissance américaine (et non de sa vision fantasmée), faire preuve de patience et à l’instar des recommandations d’Hans Morgenthau dans Politics Among Nations, se souvenir que la prudence est « la vertu suprême en politique ».

Les conseils de Fettweis s’inscrivent dans la tradition de l’école réaliste et privilégient un plus grand pragmatisme. Ils sonnent également contre une nécessaire mise en garde contre un sentiment de supériorité qui s’appuie sur les avantages matériels dont le fort bénéficie face au faible, mais qui ne doivent pas être jugés suffisants en toute circonstance.

Reste une question trop souvent occultée dans les réflexions sur la guerre asymétrique : peut-on, dans la position du faible, remporter une guerre contre un plus puissant ? Si les acteurs asymétriques sont en mesure de perturber la puissance, à tel point qu’il est possible de les assimiler à des « armes de perturbation massive », tant leur complexité rend difficile leur neutralisation, la question est de savoir s’ils ont la capacité de porter un coup fatal dont le puissant ne pourrait se relever.

A priori, cette hypothèse est exclue. Le plus grand danger pour le puissant viendrait plutôt de la réponse à apporter aux attaques des acteurs asymétriques, sans faire montre d’arrogance, sans se reposer de manière systématique sur la supériorité des arsenaux, et sans oublier le décalage qui distingue le fort du faible dans les objectifs d’un conflit.

Si les déséquilibres capacitaires sont au cœur des travaux sur la guerre asymétrique, la différence entre le fort et le faible dans les objectifs dans un conflit armé doit ainsi être prise en compte pour comprendre le décalage, et en tirer les conclusions qui s’imposent.

La survie du fort étant rarement en jeu – a fortiori quand il est opposé au faible – les conflits dans lesquels il est généralement engagé sont de faible intensité, sur des théâtres extérieurs, avec des objectifs relativement limités, à tel point qu’on parle souvent d’opérations plus que de guerre. Le faible est de son côté confronté à sa propre survie, au point que tout conflit armé devient pour lui une guerre totale.

Ce décalage dans les objectifs est particulièrement éclairant pour comprendre l’engagement des forces de part et d’autre, la mobilisation sociétale ou encore l’accent mis sur certaines pratiques, qui sont parfois sans limite du côté du faible. Conséquence de ce décalage, la définition de la victoire varie très fortement entre le fort et le faible, tout autant que la mise en œuvre des moyens permettant d’y parvenir.

Guerres d’hier, d’aujourd’hui et de demain

Profondément inscrite dans l’histoire, la guerre asymétrique offre une autre lecture des conflits. Sa place dans les guerres contemporaines est la conséquence directe de la recherche de dissymétrie par les puissances. À partir du moment où les grandes puissances se reposent quasi exclusivement sur la technologie, et cherchent à obtenir un avantage sur leurs adversaires avant même le début des hostilités, ceux qui leur sont hostiles ont le choix entre accepter la défaite – en se lançant dans une confrontation directe dont ils ne peuvent sortir vainqueurs – ou au contraire faire usage de stratégies de contournement afin de résister, et ainsi perturber les plus puissants.

La multiplication des acteurs asymétriques au cours des dernières années s’explique par ailleurs tant par un sentiment de frustration perceptible dans la plupart des régions du globe – ce sentiment convergeant généralement vers Washington et l’Occident – que par le vide laissé par des innovations technologiques trop rapides et mal adaptées aux conflits contemporains.

Les capacités d’aujourd’hui sont le résultat de programmes souvent engagés dans les années 1960, c’est-à-dire à une époque où mettre l’accent sur les capacités technologiques était nécessaire afin de ne pas être en désavantage face à la puissance de l’autre. D’autant que cet « autre » était alors le reflet du miroir, la guerre froide étant sans doute la période la plus symétrique en termes de rapports de forces, méritant pleinement le qualificatif d’« équilibre de la terreur » que les capacités nucléaires assuraient.

Avec la fin de la bipolarité, un tel postulat doit être corrigé, car il n’offre pas de réponse appropriée aux acteurs asymétriques, ni au nécessaire appel au génie pour compenser la faiblesse des nouveaux adversaires. On voit notamment que l’usage de plus en plus répété des drones, plus rudimentaires et surtout beaucoup moins chers que les missiles perfectionnés, perturbe les plans stratégiques.

En ce sens, la guerre asymétrique est un rappel à l’ordre pour le fort, qui doit comprendre que les conflits ne sont jamais gagnés à l’avance. La supériorité logistique ne se traduit par la victoire que si elle sait s’adapter aux spécificités propres à chaque conflit, et au profil des acteurs identifiés comme faibles. La guerre asymétrique impose tout simplement de repenser la guerre, sans quoi elle s’imposera comme la norme dans les conflits futurs.

The Conversation

Barthélémy Courmont ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Dans une guerre asymétrique, le puissant est-il condamné à perdre ? – https://theconversation.com/dans-une-guerre-asymetrique-le-puissant-est-il-condamne-a-perdre-279896

L’IA générative ne détruira pas votre emploi mais elle va le changer profondément votre métier

Source: The Conversation – France (in French) – By Hugo Spring-Ragain, Doctorant en économie / économie mathématique, Centre d’études diplomatiques et stratégiques (CEDS)

L’intelligence artificielle ne détruit pas tant des emplois qu’elle modifie profondément les compétences nécessaires pour les accomplir. De cette confusion entre emploi et compétences risquent de naître des erreurs dans les politiques d’accompagnement des mutations en cours.


Chaque grande vague technologique a produit son lot de prédictions contradictoires sur l’emploi. L’intelligence artificielle (IA) ne fait pas exception. Mais avant de savoir combien d’emplois l’IA va créer ou détruire, il faudrait s’accorder sur ce qu’elle automatise réellement. La réponse oblige à distinguer trois notions que le débat public confond régulièrement : l’emploi, la compétence et la tâche.

Les grandes vagues d’automatisation ont suivi une logique remarquablement stable en deux siècles : vapeur, électricité, robotique industrielle ont déplacé les tâches physiques répétitives et épargné le travail cognitif non routinier. Cette régularité empirique a été formalisée par Autor, Levy et Murnane dès 2003 sous le nom d’« hypothèse de polarisation des tâches ».

Une illusion persistante

L’automatisation ronge les emplois intermédiaires, ceux des cols bleus qualifiés et employés de bureau exécutant des tâches routinières, mais épargne les deux extrémités. D’un côté, les tâches manuelles non routinières, comme la plomberie ou les soins, de l’autre, les tâches cognitives non routinières, comme l’analyse, le conseil ou la rédaction experte. Ces dernières constituaient le cœur des professions du tertiaire qualifié, et la conviction s’était solidement installée qu’elles resteraient hors d’atteinte.




À lire aussi :
Pourquoi l’IA oblige les entreprises à repenser la valeur du travail


Cette conviction reposait sur une confusion conceptuelle qu’il faut dissiper avant tout. Ce n’est pas l’emploi de juriste ou d’analyste financier qui était protégé, c’est un ensemble de tâches précises qui composaient cet emploi et qui résistaient jusqu’ici à l’automatisation. La distinction entre ces trois niveaux est fondamentale.

Un emploi désigne un poste occupé dans une organisation, avec un contrat, un salaire, une fiche de poste. Une compétence est une capacité cognitive ou technique mobilisable dans plusieurs contextes professionnels. Une tâche est une action précise, délimitable, dont on peut évaluer si elle est ou non automatisable à un coût donné. C’est à ce troisième niveau que se joue réellement la transformation en cours, et c’est précisément ce niveau que le débat public ignore.

Rupture dans la longue histoire du capitalisme industriel

L’IA générative constitue une rupture dans cette longue histoire. Pour la première fois depuis l’industrialisation, les tâches cognitives qualifiées, rédaction, analyse documentaire, synthèse, production de premiers jets, se retrouvent directement exposées. Eloundou, Manning, Mishkin et Rock estiment qu’environ 80 % de la population active états-unienne pourrait voir au moins 10 % de ses tâches affectées par les grands modèles de langage, et que cette exposition croît avec le niveau de salaire. C’est l’exact inverse du schéma observé lors de toutes les vagues précédentes.

Le cadre analytique développé par Acemoglu et Restrepo permet d’aller plus loin. Leur modèle distingue deux effets opposés produits par toute vague d’automatisation :

  • l’effet de déplacement, d’abord : des travailleurs perdent des tâches au bénéfice de la machine, ce qui réduit mécaniquement la demande de travail et pèse sur les salaires des groupes affectés ;

  • l’effet de réintégration, ensuite : l’automatisation produit de nouvelles tâches où la valeur humaine est décisive, générant une demande compensatrice.

L’histoire longue du capitalisme industriel peut se lire comme une succession de ces deux effets, le second finissant généralement par compenser le premier.

Le cas de la traduction permet de voir très concrètement comment déplacement et réintégration se combinent, l’IA générative peut produire en quelques secondes un premier jet dans une autre langue, ce qui déplace une partie du travail auparavant effectué par des traducteurs humains vers la machine. Mais cette automatisation réintègre simultanément d’autres tâches ou renforce leur importance, telles que la vérification des contresens, l’adaptation au contexte culturel, l’harmonisation de la terminologie, le contrôle de la qualité et la validation finale.

Potentiel déséquilibre

Ce qui est préoccupant avec l’IA générative, c’est le déséquilibre potentiel entre ces deux dynamiques. Le déplacement s’opère à une vitesse que les marchés du travail et les institutions de formation peinent à absorber, tandis que la réintégration reste encore largement à construire.

Cependant, le phénomène le plus important n’est pas sectoriel, mais il est interne aux métiers eux-mêmes. Dans ses « Perspectives de l’emploi », l’OCDE met en évidence que les professions les plus exposées à l’IA générative sont précisément celles à forte densité cognitive : finance, droit, conseil, enseignement supérieur. Contrairement aux vagues précédentes qui frappaient les zones rurales et les bassins industriels, l’exposition est désormais plus forte dans les grandes métropoles et chez les travailleurs hautement qualifiés, un renversement géographique et social inédit.

Redistribuer les tâches

Ce renversement se joue concrètement au niveau de la tâche.

Dans un même poste d’analyste financier ou de juriste, certaines tâches migrent vers l’IA (produire un résumé exécutif, générer une première analyse de contrat, synthétiser une revue de littérature), tandis que d’autres se revalorisent mécaniquement : définir le cadre d’analyse pertinent, évaluer la qualité d’un raisonnement automatisé, détecter une erreur factuelle dans un output, assumer la responsabilité juridique ou éthique d’une décision. Ce ne sont pas des emplois qui disparaissent. Ce sont des bouquets de tâches qui se redistribuent entre humains et machines, transformant de l’intérieur ce qu’un employeur attend d’un salarié qualifié.

Cette redistribution des tâches a une implication directe sur les compétences qui seront réellement valorisées dans les années à venir, et elle renverse une partie des évidences habituelles sur la formation professionnelle.

Former les travailleurs à utiliser l’IA au sens instrumental, maîtriser un outil, rédiger des prompts efficaces, s’approprier une interface, est utile à court terme, mais c’est insuffisant si la compétence réellement demandée demain n’est pas de produire avec l’IA, mais de superviser et de critiquer ce qu’elle produit.

Un enjeu de formation

Or, superviser efficacement un output d’IA requiert exactement ce que les formations courtes et techniques peinent à développer : une culture générale solide permettant de détecter une erreur de fond, une capacité argumentative pour évaluer la cohérence d’un raisonnement, une connaissance des biais cognitifs pour identifier les angles morts d’une analyse automatisée. Ce sont des compétences que les sciences de l’éducation regroupent sous le terme de métacompétences : apprendre à apprendre, à exercer un jugement critique, à mobiliser des savoirs dans des situations inédites.

Arte, 2025.

Le paradoxe devient alors le suivant. À mesure que l’IA automatise les tâches routinières de la connaissance, elle valorise précisément ce que les formations généralistes et les cursus de sciences humaines cultivent de longue date et que les débats sur l’employabilité ont eu tendance à déconsidérer au profit de compétences techniques plus immédiatement mesurables.

Non par nostalgie des humanités, mais par logique économique pure. Si la machine produit le texte, l’analyse et la synthèse, la valeur marginale de l’humain réside dans sa capacité à juger si ce texte dit vrai, si cette analyse est pertinente au regard du contexte réel, si cette synthèse sert l’objectif poursuivi.

The Conversation

Hugo Spring-Ragain ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’IA générative ne détruira pas votre emploi mais elle va le changer profondément votre métier – https://theconversation.com/lia-generative-ne-detruira-pas-votre-emploi-mais-elle-va-le-changer-profondement-votre-metier-279911

Chiens, chats et santé mentale : à quel point les Français sont-ils attachés à leurs animaux de compagnie ?

Source: The Conversation – France in French (3) – By Tiphaine Blanchard, enseignante en gériatrie et nutrition vétérinaire, École Nationale Vétérinaire de Toulouse; Inrae

De plus en plus d’études montrent que vivre avec un chien ou un chat peut avoir des effets positifs sur la santé physique et le bien-être mental. Ces effets sont notamment dûs à l’attachement fort des propriétaires pour leurs animaux de compagnie. Une étude originale s’est intéressée à ce lien et à ses principales caractéristiques.


En France, les animaux de compagnie ne sont pas de simples compagnons : ils participent activement à notre bien-être. Mais que révèle ce lien sur notre santé mentale et nos modes de vie ?

Une étude récente menée à l’École nationale vétérinaire de Toulouse a permis, pour la première fois, de mesurer l’attachement des Français à leurs chiens et à leurs chats.

Les animaux, alliés de notre santé physique et mentale

Les bienfaits de la présence d’un animal sur la santé humaine ne sont plus à démontrer. De nombreuses études mettent en évidence qu’elle est associée à une réduction du risque cardiovasculaire et qu’elle peut aider à diminuer le stress, en particulier chez les personnes entretenant un lien affectif fort avec leur animal de compagnie.

Les propriétaires de chiens, par exemple, marchent davantage, ont une vie sociale plus active et présentent un risque moindre de dépression. Chez les personnes âgées, les études suggèrent que la présence d’un animal aide à préserver des capacités cognitives, telles que la mémoire, ainsi que le moral, tandis que chez les enfants, elle favorise l’apprentissage de l’empathie et des responsabilités.

Ce lien n’est pas seulement comportemental : il touche aussi nos besoins émotionnels. Dans une société marquée par la solitude, l’anxiété et le vieillissement de la population, le chien ou le chat devient parfois un véritable soutien psychologique, capable de créer un sentiment de stabilité et d’utilité au quotidien.

Cependant, cette relation, bénéfique dans bien des cas, peut aussi devenir source de détresse émotionnelle. Certaines personnes développent un attachement anxieux à leur animal, caractérisé par une inquiétude excessive à l’idée de la séparation ou lorsque l’animal tombe malade.

Chez les personnes âgées, même sans hyperattachement, la séparation forcée avec leur animal lors d’une hospitalisation ou d’une entrée en Ehpad représente souvent un véritable traumatisme, tant l’animal fait partie de leur équilibre affectif et leur quotidien.




À lire aussi :
Quand les chats améliorent la qualité de vie au sein des Ehpad


La relation humain-animal comme outil thérapeutique

Les effets positifs du lien humain-animal sont aujourd’hui mis à profit dans plusieurs programmes hospitaliers et médico-sociaux.

La présence d’animaux en établissements médico-sociaux (type Ehpad) peut favoriser les échanges, susciter des souvenirs et contribuer à rompre temporairement le sentiment de solitude chez les résidents. Proposer une médiation animale dans des psychothérapies destinées à des adolescents se révèle aussi bénéfique. Enfin, dans certaines unités pédiatriques, notamment en oncologie, des animaux spécialement formés accompagnent les patients pendant les soins pour diminuer l’anxiété et améliorer le bien-être lors de l’hospitalisation.

Plus récemment, plusieurs commissariats français ont introduit la présence de chatons pour apaiser les victimes de violences, une approche inspirée de dispositifs déjà mis en œuvre à l’étranger. Ainsi, aux États-Unis, des chiens spécialement formés sont intégrés dans certains commissariats et tribunaux afin d’accompagner les victimes lors des auditions. À ce jour, il n’existe pas de données scientifiques évaluant leur impact dans ce contexte spécifique, mais les témoignages sont positifs. Par ailleurs, des bénéfices ont été rapportés chez les professionnels : une étude menée auprès de policiers canadiens a montré que la présence de chiens dans leur environnement de travail était perçue comme réduisant le stress et améliorant le bien-être.

Cette thématique mériterait d’être explorée par des travaux de recherche spécifiques pour étudier dans quelle mesure le contact avec un animal aide à restaurer un sentiment de sécurité après un traumatisme.

Ces initiatives, de plus en plus répandues, reposent toutes sur la même idée : renforcer la santé humaine en s’appuyant sur la relation avec l’animal. Comprendre les liens complexes, entre bien-être, dépendance et vulnérabilité, nécessite de disposer d’un outil fiable, qui n’existait pas encore en version française jusqu’à récemment.

Une première échelle pour mesurer l’attachement à son animal en France

Pour mieux comprendre ces relations, peu étudiées en France, un outil de référence international a été traduit en français : la Lexington Attachment to Pets Scale (LAPS). Cet outil permet de quantifier l’attachement émotionnel entre un propriétaire et son animal à travers 23 items (par exemple : « Mon animal comprend quand je suis triste »).

Près de 1 900 propriétaires français de chiens et de chats ont répondu à cette enquête.

Comment mesure-t-on l’attachement à son animal ?

L’échelle LAPS attribue un score d’attachement de 0 à 69, un score élevé traduisant un attachement plus fort du propriétaire à son animal.

En France, les propriétaires de chiens ont obtenu un score médian de 58,5 contre 52 pour les chats. C’est plus élevé qu’en Angleterre, au Danemark ou en Autriche !

Des différences marquées selon le profil des propriétaires

L’étude met en évidence plusieurs facteurs influençant le score d’attachement :

  • Les femmes ont un score plus élevé que les hommes, un résultat observé aussi dans les autres pays.

  • Les personnes vivant sans enfants présentent également un score plus élevé, leurs animaux pouvant parfois jouer le rôle de figures familiales de substitution.

  • Les propriétaires de chiens ont un score plus élevé que les propriétaires de chats, peut-être en raison d’une interaction plus active.

  • Les personnes avec un niveau d’études plus élevé affichent des scores plus faibles, peut-être parce qu’elles ont tendance à moins exprimer leur attachement émotionnel.

Ces tendances reflètent des réalités sociales profondes. Dans une société où la solitude augmente, où les familles se recomposent et où le travail à distance se généralise, l’animal occupe un rôle affectif grandissant. Il apaise, structure le quotidien et comble un besoin de lien que les relations humaines ne satisfont pas toujours.

Quand nos chiens et nos chats deviennent nos figures d’attachement

En psychologie, la théorie de l’attachement décrit notre besoin fondamental de sécurité et de réassurance auprès d’une « figure d’attachement », souvent un parent, un partenaire, ou… un animal.

Les chiens, plus démonstratifs, offrent une interaction émotionnelle proche de celle d’un enfant : ils sollicitent, réagissent, expriment de la joie. Les chats, plus indépendants, demandent parfois une forme d’attachement plus « projective », où le propriétaire interprète leurs signes d’affection.

Ces différences expliquent pourquoi les chiens obtiennent des scores d’attachement plus élevés : ils répondent activement au besoin humain de lien et de réciprocité. Mais chez tous les propriétaires, l’attachement est bien réel.

Et maintenant ? Quand la santé de l’animal influence celle du maître

L’échelle française validée du LAPS sert déjà à d’autres travaux de recherche.

L’un d’eux s’intéresse à l’impact de l’arthrose du chien sur la vie quotidienne de ses propriétaires. Quand un animal souffre, c’est souvent tout le foyer qui en subit les conséquences. Vous pouvez participer à cette nouvelle étude en répondant à ce questionnaire en ligne :

Le questionnaire s’adresse à tous les propriétaires de chiens, qu’ils soient concernés ou non par l’arthrose, afin de mieux comprendre comment la santé des chiens affecte celle de ses propriétaires et d’à améliorer la prise en charge conjointe du chien et de sa famille.

The Conversation

Tiphaine Blanchard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Chiens, chats et santé mentale : à quel point les Français sont-ils attachés à leurs animaux de compagnie ? – https://theconversation.com/chiens-chats-et-sante-mentale-a-quel-point-les-francais-sont-ils-attaches-a-leurs-animaux-de-compagnie-280326