ChatGPT à l’université : pourquoi encadrer vaut mieux qu’interdire ou laisser-faire

Source: The Conversation – Indonesia – By Karine Revet, Professeur de stratégie, Burgundy School of Business

Depuis l’arrivée de ChatGPT, les écoles et universités se retrouvent face à un défi de taille : comment intégrer ces outils sans compromettre leurs principes éducatifs fondamentaux ?


L’intelligence artificielle (IA) générative offre une multitude de perspectives prometteuses dans les établissements d’enseignement supérieur : innovation pédagogique, personnalisation des apprentissages, gain de temps et stimulation de la créativité. Cependant, elle pose de sérieuses inquiétudes éthiques : risque de triche, manque d’esprit critique, problèmes d’inégalités d’accès ou, encore, perte du sens de l’effort. Dans ce contexte, faut-il interdire ces technologies, les autoriser librement ou encadrer leur usage ? et comment ?

Notre recherche pointe un paradoxe : si les étudiants peuvent utiliser librement ChatGPT et d’autres IA génératives, l’établissement est perçu comme plus innovant, mais ses pratiques sont alors jugées comme moins éthiques. À l’inverse, une interdiction totale permet de rassurer en matière d’éthique, mais au prix d’une image vieillissante. Face à ce dilemme, il est essentiel de trouver la combinaison gagnante.

ChatGPT en classe : trouver l’équilibre entre innovation et éthique

Les outils d’IA générative (ChatGPT, Midjourney, Dall-E, etc.) permettent en quelques secondes de produire du texte, des images ou encore du code. En 2023, une étude estimait que ces outils avaient augmenté la productivité des professionnels de 40 % et amélioré la qualité de leur travail de 18 %.

L’utilisation massive de l’IA générative, y compris dans les universités et parfois à l’insu des enseignants, ne se fait pas sans poser de problèmes. Plusieurs rapports alertent sur des enjeux éthiques clés liés à cette utilisation, tels que la responsabilité, la supervision humaine, la transparence ou l’inclusivité.

Pour mieux comprendre comment les politiques d’usage de l’IA générative influencent l’image d’un établissement, nous avons mené deux études expérimentales auprès de plus de 500 étudiants. Dans chacune, les participants ont été répartis au hasard en trois groupes. Chaque groupe devait lire une petite description d’une école appliquant différentes politiques et règles pour gérer l’usage de l’IA générative. Dans un cas, l’école interdisait complètement son utilisation. Dans un autre, elle l’autorisait sans aucune règle. Et dans le dernier, elle permettait l’IA mais avec des règles claires, comme indiquer quand elle avait été utilisée ou limiter son usage à certaines tâches.

Les participants devaient ensuite évaluer l’image de l’école en indiquant à quel point elle leur semblait innovante, éthique et digne de confiance, c’est-à-dire s’ils auraient envie de la soutenir ou d’y étudier.

Les résultats sont clairs, peu importe le contexte (par exemple, un devoir à la maison, un projet en classe, un travail de mémoire). Les écoles interdisant complètement l’IA sont jugées plutôt éthiques, mais elles sont largement pénalisées en termes d’innovation. Celles autorisant l’IA sans cadre apparaissent comme plutôt innovantes, mais souffrent d’une image peu éthique, suscitant le moins de soutien de la part des étudiants. Les écoles autorisant l’usage encadré et régulé de l’IA réussissent à dégager un double avantage, étant perçues à la fois comme les plus innovantes et les plus éthiques.




À lire aussi :
L’IA dans l’enseignement supérieur : les leçons de Platon et du mythe de Theuth


En d’autres termes, le flou ou l’absence de cadre nuit à la crédibilité. À l’inverse, une politique claire, autorisant l’usage de l’IA générative avec des règles définies, renforce la confiance et l’adhésion des étudiants.

Questions d’IA : un indicateur fort pour étudiants

Les parents, les étudiants, les enseignants et les recruteurs veulent savoir si une école prépare vraiment aux défis du XXIe siècle. Adopter l’IA sans cadre donne certes une image technophile, mais aussi irresponsable. Refuser tout net l’IA peut rassurer au début, mais revient in fine à ne pas tenir compte des évolutions de la société.

Seule une stratégie encadrée permet de conjuguer innovation et valeurs éducatives et, ainsi, répondre aux attentes et nécessités de chacun. Pour les étudiants, l’IA doit rester un outil utile, mais encadré, afin d’éviter tout risque de fraude. De leur côté, les enseignants ont besoin de repères clairs pour intégrer ces technologies sans compromettre les valeurs académiques.

Les parents attendent des écoles qu’elles allient rigueur et modernité. Quant aux décideurs, ils ont tout intérêt à définir un cadre réglementaire cohérent, plutôt que de laisser chaque établissement concevoir sa propre réponse.

Afficher des règles claires

Notre étude montre qu’encadrer l’usage de l’IA à l’université est une condition essentielle pour être innovant tout en préservant l’éthique. Sans règles claires, le recours à l’IA peut fragiliser l’intégrité académique et dévaloriser les diplômes. Il est donc crucial que les établissements prennent ce sujet au sérieux, et que les pouvoirs publics les soutiennent par des recommandations précises et cohérentes.

Plusieurs établissements précurseurs ont déjà mis en place certaines règles simples pour encadrer l’usage de l’IA générative. Cela inclut la transparence quant aux outils utilisés et aux instructions données à l’IA, une mention explicite de toute aide reçue dans les travaux, ainsi que des limites claires sur les tâches autorisées (comme la reformulation ou l’aide à la grammaire, mais pas la rédaction complète). Certaines écoles intègrent également l’éthique de l’IA dans leurs cursus dès la première année et encouragent un usage pédagogique de l’IA dans le cadre d’exercices spécifiques.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Certaines institutions pionnières ont déjà mis en place de telles chartes, comme en témoigne le rapport de la Commission européenne sur l’usage responsable de l’IA dans l’enseignement. Dans un monde où les technologies évoluent plus vite que les institutions, seules les écoles capables de conjuguer rigueur et adaptation gagneront la confiance de leurs communautés.

Intégrer l’IA ne doit pas être perçu comme une simple mode passagère, mais plutôt comme une réponse concrète à un enjeu éducatif majeur, préservant en même temps les valeurs éthiques de l’enseignement ainsi que l’ouverture essentielle à l’innovation. Les institutions capables de relever ce défi seront les mieux placées pour former des esprits critiques prêts à affronter les enjeux de demain.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. ChatGPT à l’université : pourquoi encadrer vaut mieux qu’interdire ou laisser-faire – https://theconversation.com/chatgpt-a-luniversite-pourquoi-encadrer-vaut-mieux-quinterdire-ou-laisser-faire-257364

Parcoursup, ou les discrets rites de la méritocratie algorithmique

Source: The Conversation – Indonesia – By Emmanuel Carré, Professeur, directeur de Excelia Communication School, chercheur associé au laboratoire CIMEOS (Université de Bourgogne), Excelia

Derrière son apparente rationalité, Parcoursup constitue un nouveau rituel d’entrée dans l’âge adulte. Explications à l’occasion de la phase complémentaire.


Comme chaque été, lors de la « phase complémentaire » de Parcoursup, destinée aux candidats n’ayant pas reçu de proposition d’admission en juin, des milliers de bacheliers tentent de démêler les incertitudes laissées par la première vague d’affectations.

Derrière l’apparente rationalité de ce dispositif algorithmique se cache un mécanisme plus profond, souvent invisibilisé : un véritable rituel contemporain, qui transforme l’élève en candidat, le parcours en profil, et l’orientation en épreuve de sélection

Un rite moderne, mais bien réel

Depuis les travaux d’Arnold Van Gennep publiés en 1909, l’anthropologie a montré que les sociétés structurent les transitions de vie à travers des rites de passage : séparation, marge, agrégation. Parcoursup rejoue ce scénario.

D’abord, la séparation : l’élève quitte son statut protégé pour devenir un candidat. Puis vient la phase liminale : saisie des vœux, rédaction de lettres de motivation, attente silencieuse face à un algorithme opaque. Enfin, l’agrégation : le jeune devient « accepté », « recalé » ou « en attente », selon des critères rarement explicités.

Victor Turner, auteur du Phénomène rituel (1969), insistait sur la vulnérabilité propre à cette phase liminaire, qui représente le moment où les repères se brouillent et où les sujets, incertains, sont prêts à intérioriser de nouvelles normes.

C’est exactement ce qui se produit ici. Dès la classe de seconde, les élèves orientent leurs choix de spécialités, construisent leur « profil », adaptent leurs loisirs ou engagements pour « plaire » à l’algorithme, dont la logique reste pourtant largement inconnue. Le mythe d’un algorithme impartial s’impose comme un horizon indiscutable.

Le sacré numérique et l’efficacité du rite

Comme le notait l’historien et philosophe Mircea Eliade, dès les années 1960, les rituels modernes n’ont pas disparu : ils ont été sécularisés, dissimulés dans des procédures répétées.

Parcoursup fonctionne ainsi comme un rituel sacralisant l’outil technique. L’algorithme est réputé neutre car il serait dénué d’intention humaine. Il devient un oracle d’un nouveau genre : inaccessible, indiscutable, mais censé révéler la « vraie » valeur des candidats.




À lire aussi :
L’IA réactive des croyances mystiques


Ce sacré numérique résiste même à l’épreuve du réel. Des cas révélateurs circulent sur les réseaux sociaux : une lycéenne ayant remplacé sa lettre de motivation par une recette de cookies a tout de même été admise. Preuve que ces éléments sont parfois ignorés ou traités automatiquement. Ce bug symbolique n’a pas suscité d’indignation généralisée. Il a été relativisé, comme si tout dysfonctionnement relevait d’une anecdote et non d’une remise en cause systémique.

Méritocratie et soumission volontaire

En théorie, Parcoursup vise à garantir l’égalité des chances. En pratique, il transforme la sélection en preuve de mérite. Comme l’avait anticipé le sociologue Michael Young (1958), la méritocratie fonctionne comme un théâtre : elle joue l’équité tout en renforçant les hiérarchies sociales. Les chiffres sont connus : les enfants de cadres représentent plus de 50 % des admis en classes préparatoires, contre 7 % pour les enfants d’ouvriers.

Mais le plus frappant est l’absence de remise en question. Comme l’ont montré les professeurs Robert-Vincent Joule et Jean-Léon Beauvois, plus un individu est impliqué dans un système, plus il y adhère. Ici, la soumission paraît tout à fait librement consentie : les élèves investissent tant d’efforts dans la constitution de leur dossier, la rédaction de leur projet, la mise en scène de leur « cohérence », qu’il devient psychologiquement difficile de remettre en cause le dispositif.

Pierre Bourdieu (1970) parlait de « violence symbolique » pour désigner cette intériorisation de la domination. Parcoursup illustre parfaitement ce phénomène : le tri est vécu comme juste parce qu’il est présenté comme rationnel. Ceux qui échouent sont renvoyés à leur responsabilité personnelle. Et ceux qui critiquent l’algorithme se voient souvent accusés de vouloir le retour au « piston ».

Une nouvelle forme de gouvernement par les données

Parcoursup ne se contente pas de répartir les élèves : il façonne des conduites. Il incarne une forme de gouvernementalité algorithmique. Dans ce système, les individus s’autodisciplinent, optimisent leurs parcours, et se transforment en gestionnaires d’eux-mêmes. L’école devient un lieu où il ne s’agit plus seulement d’apprendre, mais de se rendre sélectionnable.

Parcoursup : la difficulté des lycéens sur liste d’attente (M6 Info, juin 2025).

Ce processus transforme en profondeur la citoyenneté éducative. L’élève devient un entrepreneur de soi, calibré pour plaire au système plus que pour interroger son sens. Luc Boltanski et Ève Chiapello dans Le nouvel esprit du capitalisme décrivaient déjà cette injonction à « se réaliser » comme une nouvelle norme de gouvernement.

Lire Parcoursup comme un rituel permet de comprendre sa puissance : il agit non par contrainte, mais par adhésion intériorisée. Loin d’être une simple plate-forme, il devient un instrument politique qui transforme l’évidence en norme. Comme le rappelait Hannah Arendt (1972), « le pouvoir n’existe que tant qu’il est rejoué ».

Il ne s’agit pas seulement de désacraliser l’algorithme, mais de repenser le processus d’orientation lui-même : non comme un outil de tri, mais comme un moment éducatif et réflexif.

Plutôt que d’ajuster nos trajectoires à une logique opaque, ne devient-il pas urgent d’ajuster les dispositifs aux finalités humaines que nous voulons défendre ? Interroger Parcoursup, c’est rouvrir une question essentielle : à quoi, pour qui, et avec qui, voulons-nous être formés aujourd’hui ?

The Conversation

Emmanuel Carré ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Parcoursup, ou les discrets rites de la méritocratie algorithmique – https://theconversation.com/parcoursup-ou-les-discrets-rites-de-la-meritocratie-algorithmique-259219

Doctorat : Les coûts invisibles de la thèse, entre surmenage et anxiété

Source: The Conversation – Indonesia – By Faustine Rousselot, Docteure en sciences de l’éducation et de la formation, Université de Lille

Dans _le Théorème de Marguerite_ (2023), d’Anna Novion, l’actrice Ella Rumpf interprète une doctorante qui doute de son sujet de recherche. Michael Crotto/TS productions

Véritable cheminement intellectuel, le doctorat peut aussi, par la précarité qu’il induit, devenir un véritable parcours du combattant au quotidien, fragilisant durablement les jeunes chercheurs sur le plan psychologique comme économique. Retour sur les enseignements d’une enquête autour de 15 parcours en sciences humaines et sociales.


Avec le Vacataire, publié en 2025, l’économiste Thomas Porcher a mis un coup de projecteur sur la précarité de ces enseignants non fonctionnaires. Souvent doctorants ou jeunes docteurs, ils sont payés à l’heure de cours, n’ont pas accès aux protections sociales et leur salaire peut leur être versé plusieurs mois après leur intervention.

Ces vacataires représenteraient aujourd’hui près de deux tiers des personnes assurant des cours dans les universités françaises, estime Thomas Porcher. Mais cette précarité ne commence pas avec les vacations : elle s’installe dès la thèse. En France, le doctorat dure en moyenne de quatre à six ans en sciences humaines et sociales, avec pour objectif la production de savoirs nouveaux. Dans ces disciplines, certains doctorants obtiennent un contrat doctoral ou une bourse, mais cela reste minoritaire : beaucoup d’entre eux doivent travailler à côté de leurs recherches pour subvenir à leurs besoins.




À lire aussi :
Des enseignants-chercheurs à la recherche du temps perdu : regard sur le malaise universitaire


Nombre de vacataires sont encore doctorants, et les heures mal rémunérées s’ajoutent à une surcharge de travail (manuscrit à rédiger, préparation de cours, publication à produire), à un manque de reconnaissance (peu de valorisation institutionnelle, faible intégration dans les équipes de recherche) et à une forte solitude. Loin d’être une exception, ces vacations s’inscrivent dans un système plus vaste de fragilisation du monde académique, qui oblige nombre de doctorants à consentir des sacrifices invisibles pour simplement rester dans la course.

En parallèle de mon activité d’attachée temporaire d’enseignement et de recherche (Ater), j’ai mené une enquête auprès de 15 jeunes docteurs en sciences humaines et sociales, récemment diplômés. Leurs récits ne racontent pas tant une réussite académique qu’un chemin marqué par l’incertitude, les renoncements et l’épuisement. Plusieurs évoquent des projets personnels reportés, un isolement prolongé ou un sentiment de vide à l’issue de la soutenance. Ces témoignages soulèvent une question : que nous dit le doctorat sur la manière dont l’université forme, encadre et, parfois, fragilise ses futurs chercheurs ?

Une vie mise entre parenthèses

Tout le monde le sait, faire une thèse est difficile. Mais souvent, on imagine que cette difficulté sera d’abord intellectuelle. Or, dans les 15 récits que j’ai recueillis, personne ne se plaint d’exigences intellectuelles trop élevées. Les difficultés sont ailleurs. Les renoncements sont d’ordre personnel.

Clotilde a mené toute sa thèse sans financement : elle a travaillé en tant que « nanny », puis a enchaîné des vacations tout au long de son parcours doctoral. Elle a reporté le projet d’avoir un enfant et vécu dans une incertitude permanente liée à ses ressources financières : elle ne savait si elle pourrait subvenir à ses besoins les mois suivants, comme elle le dit : « J’ai mis ma vie en pause. »

Alice, de son côté, s’est volontairement isolée pour rester concentrée, elle s’enfermait plusieurs jours dans des logements temporaires pour écrire, jusqu’à couper ses liens sociaux. Amandine parle d’un emploi du temps saturé : « Il y avait soixante-dix heures par semaine ou plus qui étaient consacrées au travail, donc après, je mangeais, je dormais. »

Une autre personne interrogée évoque une période de tension continue entre charge professionnelle et vie personnelle : « Je faisais deux heures et demie de route, matin et soir, pour donner mes cours avec mes deux enfants à gérer. J’étais épuisée, mais je ne pouvais pas lâcher. »

Thomas Porcher : « Il y a une forme de mépris à l’égard de ceux qui font tourner les universités » (France Inter, avril 2025).

Ces témoignages disent que le doctorat, ce n’est pas seulement une surcharge de travail. C’est une pression continue qui efface progressivement ce qui fait la vie autour du travail : les projets, les relations, le soin de soi. Et cet effacement s’aggrave encore lorsque les conditions économiques sont précaires. Toutes les personnes interrogées n’ont pas connu la même stabilité financière, mais pour beaucoup, le manque de ressources est venu renforcer la tension permanente : il rend chaque choix plus lourd. Une personne participant à l’enquête raconte :

« Financièrement, c’était très dur. C’est aussi pour ça que j’ai songé à arrêter. Je dis que c’est à cause de mon directeur, mais c’est à cause de… moi, je mettais la pression à mon directeur pour la finir rapidement cette thèse parce que ça a duré longtemps et j’avais besoin de gagner de l’argent, en fait. Et ce n’est pas les vacations à la fac qui me faisaient gagner un salaire normal. »

Un autre évoque la pression qui s’ajoute à celle du quotidien :

« Ma famille me disait : “Quand est-ce que tu vas te mettre à travailler ?”, parce qu’il faut rentrer de l’argent. Donc, il y avait aussi cette notion-là qui mettait un poids en plus. »

Le doctorat devient un espace de fragilité totale, où l’incertitude matérielle alimente l’usure mentale et l’effacement de soi.

Une mobilisation mentale continue

Les récits recueillis évoquent rarement un burn out au sens clinique. Mais tous parlent d’une tension psychique consentante : fatigue extrême, pensées envahissantes, culpabilité de ne jamais en faire assez.

Amandine décrit cette spirale mentale avec lucidité : « C’est que j’étais tout le temps en train de réfléchir à ce que j’avais à faire, à ce que je n’avais pas fait. C’est un truc qui te quitte pas. »

Chez Sebastian, cette pression se traduit par une culpabilité omniprésente :

« Au début, je culpabilisais beaucoup. Après, il y a un moment où je culpabilisais des fois d’aller au ciné ou de regarder Friends. Et, bien sûr, le sentiment de culpabilité, il va structurer tout ton état d’esprit quand tu es en thèse. »

Jean, lui, parle de pensées intrusives qui se poursuivent bien au-delà de la fin de la thèse : « Pendant un an, j’avais encore des pensées intrusives de thèse. Genre : “Il faut que tu bosses sur ta thèse.” Alors qu’elle était finie. »


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Un autre témoignage montre comment cette pression glisse vers une anxiété aiguë, presque corporelle :

« Pendant les moments où j’écrivais ma thèse, j’avais de plus en plus des moments de panique. De temps en temps, je sentais des crises d’anxiété qui montaient. »

Ces formes de fragilités ne sont pas isolées. Elles traduisent un système qui demande une mobilisation mentale permanente, sans droit au relâchement. Pour plusieurs, c’est après la soutenance que le corps lâche. Quand la pression tombe enfin, le vide s’installe. L’une raconte :

« J’ai cassé le plafond de verre, mais je continue à enlever les morceaux qui sont plantés dans ma peau. »

Troubles de la concentration, fatigue chronique, perte d’élan : la thèse ne s’arrête pas avec le manuscrit. Elle se poursuit dans le corps, la mémoire, le silence.

Et après tant de sacrifices, que reste-t-il ? Certains ont décroché un poste, d’autres enchaînent les contrats précaires. Mais certains ont renoncé, ils ne veulent plus faire partie du monde académique. Ces récits disent la fatigue d’un système qui épuise ses propres chercheurs avant même leur entrée dans la carrière.

The Conversation

Faustine Rousselot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Doctorat : Les coûts invisibles de la thèse, entre surmenage et anxiété – https://theconversation.com/doctorat-les-couts-invisibles-de-la-these-entre-surmenage-et-anxiete-258119

Que faire si vous n’aimez pas les amis de votre enfant ?

Source: The Conversation – Indonesia – By Rachael Murrihy, Director, The Kidman Centre, Faculty of Science, University of Technology Sydney

Comment réagir lorsque votre enfant s’entend bien avec un camarade que vous jugez trop turbulent, malpoli, voire tyrannique ? Est-il bienvenu en tant que parent de s’immiscer dans les relations de vos enfants ?


Nombreux sont les parents qui connaissent cette situation : leur enfant a un bon, voire un meilleur ami, mais ils ne l’aiment pas…

Cet ami peut être autoritaire, mal élevé ou sauter sur vos meubles. Vous n’aimez peut-être pas la façon dont votre enfant se comporte lorsqu’il est avec lui.

Quand il s’agit d’enfants plus âgés, votre aversion peut être liée au langage de l’ami, à sa posture vis-à-vis de l’école ou à sa façon de prendre des risques. Peut-être aussi que cet ami souffle le chaud et le froid, provoquant des drames en série.

Que faire alors, en tant que parents, dans ce genre de circonstances ?

Fixer des règles

Si vous estimez que votre enfant est maltraité, cela peut susciter en vous un instinct de protection qui se manifeste par une réaction corporelle de lutte ou de fuite.

Cela provoque une montée d’adrénaline qui peut vous pousser en tant que parents à réagir par la critique, voire tenter de vous opposer à cette amitié.

Cependant, cette façon de faire peut causer plus de mal que de bien, en particulier dans le cas d’adolescents enclins à rejeter leurs parents.

Avec les enfants plus jeunes, des limites claires peuvent être fixées dès le début de la rencontre. Par exemple, en leur disant : « les jeux sont interdits dans la chambre des parents » ou « on ne saute pas sur le canapé ».

Si les enfants utilisent un langage méchant ou grossier les uns envers les autres, vous pouvez d’emblée annoncer qu’on n’utilise pas tel ou tel mot dans cette maison et que la courtoisie est ici la règle.

Les séances de jeu peuvent être organisées de préférence à l’extérieur, ce qui peut être particulièrement utile en cas de comportement bruyant, destructeur ou grossier. Et, si vous le pouvez, prévoyez moins de séances de jeu avec l’enfant en question.

Mais les parents peuvent également réfléchir à la raison pour laquelle cet enfant les dérange. Cette réaction est-elle justifiée ou provient-elle de leurs propres préjugés et opinions ? Les amis de votre enfant ne doivent pas nécessairement être ceux que vous choisiriez.

Être à l’écoute des besoins des adolescents

Pour devenir des adultes accomplis, les adolescents doivent franchir différentes étapes de développement les aidant à devenir plus autonomes et indépendants. Interférer avec leurs relations amicales perturbe ce processus et, en fin de compte, les déresponsabilise.

Dans les années 1960, la psychologue américaine Diana Baumrind a publié une célèbre recherche sur la parentalité établissant qu’un style autoritaire se traduit par moins de confiance et moins d’indépendance chez l’enfant que s’il est élevé dans un foyer qui, au-delà des règles, est à l’écoute de ses besoins.

Afficher des réticences à l’égard des amis ou des partenaires potentiels de votre enfant risque également d’entraîner un effet « Roméo et Juliette », où la désapprobation lui donne encore plus envie de rencontrer ces personnes.

Ainsi, dans le cas d’adolescents et de leurs amis, l’approche doit être encore plus nuancée. L’objectif premier est d’encourager l’enfant à considérer le parent comme une personne à qui s’adresser en cas de problème. Si vous êtes tentés d’être critiques, posez-vous au préalable la question suivante : cela est-il dans l’intérêt de votre enfant ?

Il est important de laisser les enfants faire des erreurs pour qu’ils puissent en tirer des leçons. Apprendre à discerner ce qu’ils veulent ou ne veulent pas dans les relations est une compétence essentielle pour la vie.

Des amitiés qui évoluent

Favoriser un dialogue ouvert sur les relations de l’enfant vous permet d’exercer une influence de manière plus subtile et adaptée à son développement.

Pour les plus jeunes, vous pouvez profiter d’un moment de calme pour poser des questions du type : « Que peux-tu dire à Charlotte si tu ne veux plus jouer à son jeu ? » ou « Quelle est la meilleure façon de réagir si elle est trop autoritaire ? »

Pour les enfants plus âgés, l’idéal est d’attendre qu’ils aient envie d’échanger avec vous, plutôt que de les questionner d’emblée. Informez-vous gentiment, sans porter de jugement, sur cette amitié, avec des questions comme : « Qu’aimez-vous faire ensemble ? » ou « Parlez-moi de ce que vous avez en commun. »


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Si l’adolescent semble contrarié ou mal à l’aise, résistez à l’envie de rejeter le problème ou de vouloir le résoudre. L’écoute est la clé pour aider un jeune à affronter un problème, en lui montrant qu’il est soutenu et non jugé.

Et n’oubliez pas que toutes les amitiés ne durent pas. Au fur et à mesure que les enfants grandissent, la plupart d’entre eux se font naturellement de nouvelles connaissances et en abandonnent parmi les anciennes.

Seule exception à cette approche tournée vers les adolescents : s’il y a un risque pour la sécurité de l’enfant. En cas de brimades ou d’abus sous quelque forme que ce soit, les parents doivent intervenir et parler directement à l’école ou à d’autres autorités compétentes, même si leur enfant s’y oppose.

The Conversation

Rachael Murrihy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Que faire si vous n’aimez pas les amis de votre enfant ? – https://theconversation.com/que-faire-si-vous-naimez-pas-les-amis-de-votre-enfant-258492

Empreinte carbone : tous les barils de pétrole ne se valent pas et cela a son importance pour la transition énergétique

Source: The Conversation – Indonesia – By Renaud Coulomb, Professor of Economics, Mines Paris – PSL

L’empreinte carbone de l’extraction pétrolière peut varier considérablement d’un gisement à un autre. Une stratégie fondée sur la décarbonation de l’offre pétrolière pourrait donc compléter avantageusement les mesures traditionnelles basées sur la réduction de la demande… à condition que l’on dispose de données fiables et transparentes sur les émissions de gaz à effet de serre de l’industrie pétrolière.


Réduire les émissions de gaz à effet de serre (GES) liées au pétrole ne se résume pas à réduire seulement la consommation de produits pétroliers. En effet, l’empreinte carbone liée à leur production varie considérablement d’un gisement à un autre. Dans ces conditions, pour limiter leur impact environnemental, il est crucial de privilégier des gisements dont l’empreinte carbone et les coûts d’extraction sont les plus faibles.

Combinée aux mesures traditionnelles pour réduire la demande de pétrole (sobriété énergétique, développement des transports électriques…), une stratégie centrée sur la décarbonation de l’offre pétrolière peut donc accélérer les baisses d’émissions, tout en réduisant leur coût économique. C’est ce que nous montrons dans une recherche récemment publiée.

Mais pour que cela fonctionne, il est essentiel de disposer de données précises et transparentes quant aux émissions de cette industrie. Sans quoi, toute régulation basée sur l’intensité carbone de l’exploitation des gisements de pétrole risque d’être inefficace.

Les barils de pétrole n’ont pas tous la même intensité carbone

Les barils de pétrole diffèrent non seulement par leur coût d’extraction, mais aussi par leur empreinte carbone.

L’exploitation des sources de pétrole les plus polluantes, comme les sables bitumineux du Canada, génère en moyenne plus de deux fois plus d’émissions de GES par baril que l’exploitation de pétroles plus légers provenant de pays comme l’Arabie saoudite ou la Norvège.

Ces différences s’expliquent par les propriétés physiques du pétrole (densité et viscosité, par exemple), les contraintes géologiques liées aux gisements et les méthodes d’extraction utilisées (notamment la combustion sur site – dite torchage – c’est-à-dire rejet direct dans l’atmosphère du gaz naturel, qui accompagne souvent l’extraction de pétrole).

Cette hétérogénéité des gisements, combinée à l’abondance du pétrole au regard des objectifs climatiques discutés lors des COP, fait de la sélection des gisements à exploiter un levier important de réduction des émissions.

L’offre pétrolière, un levier d’atténuation sous-estimé

Depuis le Sommet de la Terre de Rio en 1992, date historique dans la reconnaissance du problème climatique et de son origine humaine, les producteurs de pétrole n’ont pas tenu compte des différences d’intensité carbone de leurs produits, liées à l’extraction et au raffinage.

Ce n’est guère surprenant : aucune réglementation ou régulation notable ne les a incités à le faire. De manière générale, les émissions de GES dues à la production et au raffinage du pétrole n’ont pas été tarifées par les grands pays producteurs de manière à refléter les dommages causés à l’environnement.

Nos recherches montrent que cette omission a eu d’importantes conséquences climatiques.

Nous avons calculé les émissions qui auraient pu être évitées de 1992 à 2018, si l’on avait modifié l’allocation de la production entre les différents gisements en activité – sans modifier les niveaux globaux de production et en prenant en compte les contraintes de production de chaque gisement – de sorte à en minimiser le coût social total – c’est-à-dire, en prenant en compte à la fois les coûts d’extraction et les émissions de GES. Près de 10 milliards de tonnes équivalent CO2 (CO2e) auraient ainsi pu être évitées, ce qui équivaut à deux années d’émissions du secteur du transport mondial.

Au coût actuel du dommage environnemental, estimé à environ 200 dollars par tonne de CO₂, cela représente 2 000 milliards de dollars de dommages climatiques évités (en dollars constants de 2018).

Les efforts actuels visent surtout à réduire la consommation globale de pétrole, ce qui est nécessaire. Mais nos résultats montrent qu’il est également important de prioriser l’exploitation des gisements moins polluants.

Pour réduire le coût social de l’extraction à production totale constante, il aurait mieux valu que des pays aux gisements très carbonés, comme le Venezuela ou le Canada, réduisent leur production, remplacée par une hausse dans des pays aux gisements moins polluants, comme la Norvège ou l’Arabie saoudite.

Même au sein des pays, les différences d’intensité carbone entre gisements sont souvent importantes. Des réallocations internes aux pays permettraient d’obtenir des réductions d’émissions du même ordre de grandeur que celles obtenues en autorisant les productions agrégées de chaque pays à changer.

Intégrer ce levier aux politiques publiques

Même si ces opportunités de baisse d’émissions ont été manquées dans le passé, nous avons encore la possibilité de façonner l’avenir de l’approvisionnement en pétrole.

Si l’on reprend les hypothèses de calcul qui précèdent, et en supposant que le monde s’engage sur une trajectoire zéro émissions nettes (Net Zero Emissions, NZE) en 2050, prendre en compte l’hétérogénéité de l’intensité carbone entre les gisements dans les décisions d’approvisionnement en pétrole permettrait :

  • de réduire nos émissions de 9 milliards de tonnes (gigatonnes) CO2e d’ici à 2060,

  • d’éviter environ 1 800 milliards de dollars en dommages, et cela sans réduire davantage la consommation par rapport au scénario NZE.


Visuel d'illustration de la newsletter Ici la Terre représentant la planète Terre sur un fond bleu.

Abonnez-vous dès aujourd’hui.

Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».


Or, le débat politique se concentre souvent sur la réduction de la demande de pétrole, avec la mise en place d’outils tels que les incitations à l’adoption des véhicules électriques ou les taxes sur les produits pétroliers. Une baisse de la demande de pétrole est évidemment indispensable pour maintenir le réchauffement planétaire en dessous de 1,5 °C ou même 2 °C.

Mais tant que l’on continue d’en consommer, prioriser les gisements à moindre intensité carbone offre une opportunité complémentaire pour réduire les émissions.

Pour gagner en efficacité, les politiques publiques pourraient intégrer une tarification carbone plus exhaustive, qui tiendrait compte des émissions sur tout le cycle de vie des produits pétroliers, de l’exploration pétrolière jusqu’à la combustion des énergies fossiles.

Celles-ci pourraient être complétées par des ajustements aux frontières, sur le modèle de ce que l’Union européenne s’apprête à faire pour l’empreinte carbone des produits importés, si cette tarification n’est pas adoptée à l’échelle mondiale. Ou encore, cela pourrait passer par l’interdiction directe de l’extraction des types de pétrole dont l’exploitation de gisement émet le plus d’émissions de GES (par exemple, le pétrole extra-lourd ou les gisements présentant des niveaux très élevés de torchage), dans un soucis de simplification administrative.

Certaines politiques vont déjà dans ce sens. La Californie, avec son Low Carbon Fuel Standard, a été pionnière en différenciant les carburants selon leurs émissions sur l’ensemble du cycle de vie, afin de réduire l’intensité carbone moyenne du carburant utilisé sur le territoire.

En Europe, la directive sur la qualité des carburants (modifiée par la nouvelle directive sur les énergies renouvelables) promeut les biocarburants, mais ne distingue pas finement les produits pétroliers selon leur intensité carbone.

L’enjeu crucial de l’accès aux données

La mise en œuvre de ces politiques repose toutefois sur un pilier crucial : l’accès à des données publiques fiables sur l’intensité carbone des gisements de pétrole.

Et c’est là le nœud du problème : ces estimations varient fortement selon les sources. Par exemple, l’Association internationale des producteurs de pétrole et de gaz (IOGP) publie des chiffres presque trois fois inférieurs à ceux issus d’outils plus robustes, comme celui développé par l’Université de Stanford et l’Oil-Climate Index.

Cet écart s’explique en partie par des différences dans le périmètre des émissions prises en compte (exploration, construction des puits, déboisement, etc.), mais aussi par des écarts dans les données utilisées. En ce qui concerne le torchage et le rejet direct dans l’atmosphère du gaz naturel, l’IOGP s’appuie sur des chiffres déclarés volontairement par les entreprises. Or, ceux-là sont notoirement sous-estimés, d’après des observations provenant de l’imagerie satellitaire.

Il est ainsi impossible d’appliquer de façon efficace des régulations visant à discriminer les barils de pétrole selon leur intensité carbone si on ne dispose pas de données fiables et surtout vérifiables. La transparence est donc essentielle pour vérifier les déclarations des entreprises.

Cela passe par des mécanismes de surveillance rigoureux pour alimenter des bases de données publiques, que ce soit par satellite ou par des mesures indépendantes au sol. Le recul récent aux États-Unis quant à la publication de données climatiques fiables par les agences gouvernementales accentue encore ces défis. En effet, les estimations des émissions liées au torchage de méthane utilisées dans notre étude reposent sur l’imagerie satellite de la National Oceanic and Atmospheric Administration (NOAA) et de la Nasa.

The Conversation

Renaud Coulomb a reçu des financements de Mines Paris-Université PSL, Université de Melbourne, Fondation Mines Paris, La Chaire de Mécénat ENG (Mines Paris – Université Dauphine – Toulouse School of Economics – DIW, parrainée par EDF, GRTGaz, TotalEnergies). Il ne conseille pas et ne détient pas d’actions de sociétés pétrolières ou gazières.

Fanny Henriet a reçu des financements de l’Agence Nationale de la Recherche et de la Banque de France. Elle est membre du Conseil d’Analyse Economique. Elle ne conseille pas et ne détient pas d’actions de sociétés pétrolières ou gazières.

Léo Reitzmann a reçu des financements de l’Agence Nationale de la
Recherche via le programme Investissements d’Avenir ANR-17-EURE-0001. Il ne conseille pas et ne détient pas d’actions de sociétés pétrolières ou gazières.

ref. Empreinte carbone : tous les barils de pétrole ne se valent pas et cela a son importance pour la transition énergétique – https://theconversation.com/empreinte-carbone-tous-les-barils-de-petrole-ne-se-valent-pas-et-cela-a-son-importance-pour-la-transition-energetique-258617

La compensation centralisée permet-elle vraiment une finance plus stable ?

Source: The Conversation – Indonesia – By John Zhang, Professeur de comptabilité, Audencia

Pensée et voulue pour éviter une nouvelle crise de 2008, la compensation centralisée crée paradoxalement de nouveaux risques. Le bilan des risques et des protections apportées par ce dispositif est très complexe à réaliser. Régulateurs et investisseurs débattent de la question de la compensation depuis plusieurs années, avec des arguments et des intérêts pas toujours convergents.


Pensant tirer des leçons de la crise financière de 2007-2008, les régulateurs mondiaux avaient décidé, lors du sommet du G20 en 2009, d’introduire une réforme qu’ils considéraient comme essentielle pour renforcer la stabilité des systèmes financiers : la compensation centralisée obligatoire sur les produits dérivés. Lancé finalement en France à l’été 2016 à la suite du règlement européen Emir, ce processus comporte d’indéniables atouts mais aussi d’importants inconvénients.

Ce mécanisme exige que les échanges de produits dérivés passent par une chambre de compensation indépendante, et ne soient plus directement conclus entre les parties qui vendent et achètent ces produits. Pour rappel, les produits dérivés sont des titres dont la valeur dépend d’un indice ou du prix d’un autre titre. Ils permettent aux spéculateurs de prendre des risques : si un titre est assis sur le cours du dollar et qu’il pense que celui va s’envoler, il aura tout intérêt à en faire l’acquisition pour réaliser une plus-value. Le céder aujourd’hui pour qui en possède un, c’est se débarrasser d’un risque, celui d’un effondrement de la monnaie américaine.

Des garanties conséquentes

Contrairement à la négociation d’actions, qui s’effectue principalement par l’intermédiaire d’une bourse indépendante tierce, la négociation de produits dérivés s’effectue de gré à gré, c’est-à-dire directement entre les parties qui vendent et achètent. Pour mettre en œuvre cette réforme, en 2012, les régulateurs de l’UE et des États-Unis ont adopté des règles visant à instaurer des exigences de compensation pour certains produits dérivés et ils ont ensuite progressivement élargi la liste des types de produits dérivés concernés.

La mise en œuvre de la compensation centralisée des produits dérivés exige que les parties négociantes déposent des garanties conséquentes auprès de la chambre de compensation pour mener à bien la transaction. Évidemment, de telles exigences augmentent les contraintes de qui veut négocier, ce qui a suscité des inquiétudes parmi les politiques.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Néanmoins, le mécanisme permet, plutôt que d’avoir à régler tous ses achats et encaisser toutes ses ventes, de ne régler auprès de la chambre ou de recevoir d’elle que le solde net qui apparaît lorsque l’on fait la somme de toutes les transactions. Imaginons une institution A qui achète un titre deux millions à B, un autre trois millions à C et en vend un six millions à D. Plutôt que de réaliser trois mouvements sur son compte, elle n’en réalisera qu’un seul de montant moindre : recevoir un million. Cet exemple montre que le mécanisme peut de facto compenser les exigences accrues de garanties. Cela peut finalement contribuer à atténuer les contraintes de capital des institutions financières. D’autant plus si elles répercutent le mécanisme au sein de leur bilan.

Le paradoxe de la transparence

La question de savoir si la compensation doit être autorisée fait l’objet d’un débat permanent entre les régulateurs et les investisseurs. Les principes comptables généralement admis aux États-Unis (GAAP) permettent aux institutions financières de choisir de compenser ou non leurs actifs et leurs passifs et de ne comptabiliser que les valeurs nettes, ce qui peut réduire de manière significative le capital réglementaire nécessaire. En comparaison, les normes internationales d’information financière (IFRS) sont plus restrictives et n’autorisent la compensation et la présentation nette que lorsque la partie déclarante dispose d’un droit donné par la loi de compenser les montants comptabilisés.

Banque de France 2017.

La différence entre les GAAP et les IFRS réside dans les divergences de vues quant à la compensation. Tandis que les institutions financières soutiennent que la compensation peut alléger leurs contraintes en termes de capital et de liquidité, les régulateurs craignent qu’elle ne réduise la transparence des rapports financiers, ce qui pourrait nuire à la stabilité financière. En effet, une fois les actifs et les passifs financiers compensés, les risques contenus dans ces actifs et ces passifs ne seraient plus détectables par les régulateurs et les investisseurs extérieurs.

Une réforme paradoxale ?

La réforme de la compensation centralisée s’appuie pourtant sur l’argument qu’elle peut améliorer la transparence du marché des produits dérivés. Le mécanisme accroît par exemple la transparence post-négociation grâce à la publication d’informations sur la position des débiteurs, comme le volume quotidien des transactions, l’intérêt ouvert et les prix de règlement. Un mécanisme de compensation centralisée enregistre toutes les transactions par compensation et génère une transparence des positions qui permet aux acteurs du marché de fixer le prix de leurs contrats sur la base du risque des positions globales de leur partenaire (selon qu’on le sache plus ou moins débiteur déjà).

Ainsi, la transparence créée par la compensation centralisée décourage l’accumulation de dettes excessives et réduit l’externalité du risque qu’un créancier fasse défaut sur le marché. Il semble donc y avoir un paradoxe au cœur de la réforme de la compensation centralisée. Qu’en penser ?




À lire aussi :
L’éthique a-t-elle sa place chez les traders ?


Conséquences économiques

Nos recherches indiquent que les banques visant une adéquation du capital élevée (leurs risques sont fortement couverts par leurs fonds propres) ont augmenté significativement leur compensation des produits dérivés au sein de leurs bilans après la mise en œuvre de la réglementation sur la compensation centralisée obligatoire, tandis que celles dont l’adéquation visée est faible (les risques sont peu couverts) la diminuent.

[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]

L’ampleur de nos résultats suggère un phénomène qui n’est pas économiquement négligeable. Nos calculs démontrent qu’avec l’adoption de la compensation centralisée obligatoire, les banques ayant un objectif élevé d’adéquation de fonds propres ont augmenté leur compensation de produits dérivés de 25,8 % de plus en juste valeur que les banques ayant un objectif faible d’adéquation de fonds propres. C’est une part significative de l’ensemble des actifs de la banque qui est ainsi concernée.

Nos données suggèrent un potentiel revers de la réforme de la compensation centralisée. Si la réforme de la compensation centralisée améliore la transparence du marché des produits dérivés, les possibilités accrues de compensation peuvent être exploitées par les dirigeants des banques dans leurs bilans en fonction de leurs objectifs. Les banques visant des ratios de fonds propres plus élevés peuvent choisir d’augmenter les compensations afin d’atteindre cet objectif. En outre, une compensation accrue réduirait également la transparence des rapports financiers au sein de ces banques. Les régulateurs doivent ainsi parvenir à un équilibre optimal entre les avantages et les inconvénients de la compensation afin d’atteindre les objectifs de cette réforme d’envergure.

The Conversation

John Zhang ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La compensation centralisée permet-elle vraiment une finance plus stable ? – https://theconversation.com/la-compensation-centralisee-permet-elle-vraiment-une-finance-plus-stable-242989

Deezer face aux géants de la musique en ligne : la preuve par le metal

Source: The Conversation – Indonesia – By Emilie Ruiz, Maitre de conférences HDR, Université Savoie Mont Blanc

Comment faire pour exister quand on est une entreprise française face aux géants que sont Apple Music, Amazon Music ou Spotify ? Deezer a innové et cela semble payer pour le moment. Parmi les facteurs de succès, la création d’un lien, via la plateforme, entre les artistes et leur public joue un rôle. Démonstration avec le cas de la musique metal.


En moins de deux décennies, l’industrie musicale est passée de la vente de produits physiques à une économie de l’accès numérique. Cette transition ne s’est pas faite sans heurts. Ce changement a bouleversé les équilibres économiques, fragilisant disquaires et labels indépendants, tout en faisant émerger de nouvelles formes de médiation. Dans ce paysage, les plateformes comme Spotify, Apple Music, Amazon Music ou Deezer sont devenues incontournables.

Mais ces acteurs ne se contentent pas de diffuser de la musique. Ils concentrent les fonctions de diffusion, de recommandation, de mesure et de monétisation, transformant les chaînes de valeur culturelles et les relations entre artistes, producteurs et publics, selon leurs propres logiques.

Parmi elles se trouve une plateforme française fondée en 2007 : Deezer. Elle se distingue par une stratégie singulière, alliant innovation technologique, responsabilité culturelle et ancrage communautaire.

Un acteur industriel à part entière

Comme ses concurrents, Deezer propose un abonnement donnant accès à des millions de titres en streaming. La plateforme permet par ailleurs la création de playlists et de recommandations personnalisées. Son algorithme « Flow » structure les pratiques d’écoute en hiérarchisant les contenus selon les goûts de l’utilisateur.

Derrière cette logique standardisée, Deezer adopte une stratégie distincte reposant sur trois axes :

  • valorisation des scènes locales et francophones,

  • éditorialisation humaine en complément de l’algorithme,

  • engagement pour une rémunération plus équitable.

En France, Deezer expérimente un modèle dit « user-centric » rémunérant les artistes selon les écoutes réelles de chaque utilisateur. De cette façon, la plateforme affiche un soutien envers les créateurs plus confidentiels. Elle développe aussi des outils pour identifier puis limiter la visibilité de la musique produite par des outils d’intelligence artificielle, qui représente environ 10 % des morceaux livrés quotidiennement sur la plateforme tout en renforçant les interactions entre les artistes et leur public grâce à des fonctionnalités communautaires.


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Le metal : une niche exemplaire

Parmi les multiples genres musicaux présents sur les plateformes, le metal occupe une place singulière. Historiquement ancré dans une culture de l’objet attachée aux CD et vinyles, son accès s’est longtemps fait en marge des circuits traditionnels, reposant sur l’achat de supports physiques. Peu visible dans les classements globaux, peu présente dans les médias généralistes, la musique metal représente pourtant l’une des scènes les plus structurées, fidèles et engagées.

Si la place des labels a largement évolué ces dernières années, cette transformation est particulièrement marquante dans le metal, où ils continuent de jouer un rôle de pivot, que ces labels soient internationaux ou des disquaires locaux. Dans un écosystème encore très attaché à la production physique, à la cohérence esthétique et à la construction d’une identité sonore, les labels sont des acteurs culturels, à la fois garants de la ligne artistique et médiateurs entre les groupes et leur public.

Nouvelles visibilités pour des groupes underground

Mehdi El Jaï, PDG du label Verycords (Mass Hysteria, Ultra Vomit, Psykup, Akiavel, etc.), souligne que les plateformes, comme Deezer, ont offert une visibilité inédite à des groupes jusque-là confinés aux circuits spécialisés. Grâce à une éditorialisation ciblée et à des partenariats pertinents, les labels prolongent leur rôle de prescripteurs tout en s’adaptant aux nouvelles logiques d’accès. Il note que, si ces plateformes ont aidé à réduire le piratage, elles ont aussi profondément bouleversé l’écosystème. Il reconnaît néanmoins l’intérêt particulier de Deezer pour la scène metal :

« On a organisé de beaux événements avec eux, comme une pré-écoute de “Matière noire”, de Mass Hysteria, qui a contribué à un beau lancement. La plateforme est très à cheval sur la chasse aux “fake streams”, qui polluent aussi une partie du business, car on est sur un modèle de “market-share” et pas “user-centric”, donc c’est très pernicieux. […] Deezer est très à cheval sur des enjeux liés à l’économie du disque, l’économie du producteur phonographique et donc à des enjeux d’avenir. »

Cohérences communautaires

Contrairement à des styles portés par les playlists virales, le metal s’appuie sur une écoute active, fidèle et passionnée, même s’il existe des différences en fonction des différents sous-genres, plus ou moins attachés au support physique. Pour Mehdi El Jaï :

« Aujourd’hui, tu achètes un disque d’artistes dont tu es fondamentalement fan, ce qui a des implications sur les ventes et donc sur la popularité, l’exposition, et sur l’ensemble de la chaîne de valeur. À l’instar des réseaux sociaux, il y a [avec les plateformes de streaming] une volonté de développer les communautés qui sont liées aux artistes, c’est le sens de l’histoire. »

BFM 2022.

Conscient de ce potentiel, Deezer a créé plusieurs dispositifs pour valoriser la scène metal :

  • playlists spécialisées créées par des éditeurs humains, couvrant à la fois les grands sous-genres (black, death, thrash, prog et des niches plus pointues ;

  • présence renforcée dans les recommandations personnalisées grâce à une hiérarchisation adaptée, avec des contenus éditoriaux spécifiques (interviews, sélections liées à des festivals comme le Hellfest ou le Motocultor.

Un levier d’ouverture

Fort de cette stratégie, Deezer peut tisser un lien fort avec une scène exigeante, attachée à la fidélité et à la connaissance. Le streaming devient ainsi un levier d’ouverture internationale pour les groupes underground, à condition d’être bien éditorialisé.

« Les plateformes nous permettent aussi des revenus que l’on n’aurait pas sans elles. Tu prends des gens qui écoutent Myrath en Indonésie, comment je les aurais touchés avant, je n’en sais rien. Aujourd’hui, on a des gens qui écoutent Myrath en Indonésie, au Pérou, en Argentine. »

Si Deezer cherche à mieux rémunérer les artistes, le modèle du streaming reste imparfait. L’algorithme tend à uniformiser les écoutes, au détriment de la diversité, notamment dans des genres comme le metal, dont il peine à saisir les spécificités.

Côté utilisateurs, l’abonnement limite l’accès complet et l’abondance de contenus peut rendre l’écoute plus superficielle. Néanmoins, face à un disquaire en difficulté ou à des médias spécialisés en crise, Deezer, malgré ces limites, reste aujourd’hui un moyen privilégié d’accès à la musique.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Deezer face aux géants de la musique en ligne : la preuve par le metal – https://theconversation.com/deezer-face-aux-geants-de-la-musique-en-ligne-la-preuve-par-le-metal-256593

Des réseaux et des ailes : comment Boeing parvient-il à se maintenir en vol ?

Source: The Conversation – Indonesia – By Christine Marsal, Maitre de conférences HDR, Contrôle de gestion, gouvernance des banques, Université de Montpellier

Mais qu’arrive-t-il à Boeing ? Le constructeur aérien, symbole de la puissance des États-Unis, traverse des turbulences depuis plusieurs années. Depuis les crashs du 737 Max et l’accident très récent du 787 d’Air India, les causes sont multiples. Reste une interrogation sur cette succession de difficultés. La gouvernance de l’entreprise pourrait livrer une partie de la solution.


Les déconvenues financières de Boeing n’en finissent plus de se creuser : après des pertes cumulées de près de 20 milliards d’euros perdus entre 2020 et 2023, l’exercice 2024 fait ressortir une perte de près de 11,345 milliards d’euros. La « descente aux enfers » semble inéluctable et pourtant l’avionneur a récemment remporté un important contrat militaire et de nouvelles commandes en provenance d’un loueur d’avions basé à Singapour. Si les raisons des déboires financiers sont connues, comment expliquer que l’entreprise conserve la confiance des investisseurs ? Tout d’abord, le poids de fonds de pension dans le capital de l’entreprise est-il passé de 47 % en 2020 à près de 68 % en 2025. Entre 1997 et 2019, les dirigeants décident d’augmenter progressivement le dividende de 0,56 dollar par action en 1997 à 8,19 dollars en 2019. Destinée à rassurer les actionnaires, cette politique de dividendes ne peut expliquer, seule, l’apparente stabilité des investisseurs.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Alors que de graves problèmes de qualité ont émaillé l’actualité récente de l’avionneur, rien ne semble stopper Boeing. Au fil des ans, l’entreprise a su se constituer un solide réseau d’affaires, doublé d’un réseau d’influence qui la rendent aujourd’hui « intouchable ». Pour comprendre cette résistance aux aléas technologique et financier nous analysons la composition de son conseil d’administration sur plusieurs années.




À lire aussi :
Boeing peut-il encore redécoller ? Retour sur une défaillance structurelle


Qui dirige ?

Dans les grandes entreprises cotées, le Conseil d’administration (CA) est censé représenter les actionnaires, qui sont les propriétaires des entreprises. Il nomme le président, valide la stratégie, surveille l’action du directeur général et peut même le révoquer. Ses membres sont élus en assemblée générale, souvent sur recommandation d’un comité de nomination, selon des critères de compétence, de diversité et d’indépendance.

Mais ce fragile équilibre peut être remis en cause quand le directeur général est aussi président du Conseil. Ce cumul des fonctions – le fameux PDG – fait de la même personne le stratège, l’exécutant… et le contrôleur de sa propre action. Ce qui pose la question du maintien de ce cumul. Le cas de Boeing illustre parfaitement les dérives de ce cumul à travers les résultats d’un article de recherche paru en 2023. Les données observées portent sur la période allant de 1997 à 2020. Il en ressort notamment que le manque de diversité au sein du conseil d’administration peut expliquer en partie les déboires rencontrés par l’entreprise.

Un Conseil d’administration dominé par son PDG

Ce cumul des fonctions – président du CA et directeur général – concentre les pouvoirs au sommet et réduit la capacité de contre-pouvoir interne. C’est d’autant plus vrai que le Conseil d’administration (CA) reste resserré, entre 11 et 13 membres seulement sur la période considérée.

La diversité progresse timidement. En 1997, seules deux femmes siègent au CA. Elles sont trois en 2020, soit à peine 23 % des membres (toujours 3 femmes en 2024). Sur l’ensemble de la période, on compte rarement plus de deux ou trois représentants des minorités ethniques (afro-américaine, hispanique, asiatique ou indienne), souvent des femmes issues de ces communautés.

Le CA s’organise autour de quatre comités classiques – audit, finance, rémunérations, nominations – auxquels se sont ajoutés en 2020 deux nouveaux comités. Le premier consacré aux « programmes spéciaux » réunit d’anciens PDG et des membres ayant une expérience militaire. Le second, centré sur la sécurité, est une réaction directe aux accidents du 737 Max.

En moyenne, les administrateurs rejoignent le Conseil à 56 ans et le quittent autour de 66 ans. Le taux de renouvellement est élevé : pas moins de 38 administrateurs différents se sont succédé au fil des années. Un renouvellement qui n’a pas toujours permis d’assurer un meilleur équilibre des profils ni une gouvernance plus indépendante.

Le Figaro 2019.

Ingénieurs en recul, financiers en force

Les profils techniques issus de l’industrie, les spécialistes des projets complexes sont évincés au fil du temps. Entre 2012 et 2014, ils disparaissent quasiment du Conseil d’administration. Leur place est désormais occupée par des experts en réduction des coûts, des directeurs financiers, d’anciens banquiers. L’arrivée de JimcNerney en 2005 marque la montée en puissance d’anciens collaborateurs du groupe General Electric.

Entre 2012 et 2016, le Conseil d’administration de Boeing se politise un peu plus. Plusieurs anciens hauts responsables rejoignent ses rangs un ex-secrétaire à la Défense, un ancien représentant des États-Unis à l’ONU, deux ambassadeurs, un ancien assistant à la Maison Blanche… Des figures influentes, républicaines comme démocrates, se succèdent au CA.


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Présence des militaires

La présence des militaires (anciens militaires ou militaires à la retraite) se renforce aussi. De 1997 à 2020 on identifie successivement un ancien « Marines », un ancien général ayant travaillé au secrétariat d’État à la défense, un général retraité des marines, un vice-amiral et un amiral à la retraite. Par ailleurs, plusieurs militaires ont exercé des fonctions au sein de l’OTAN. Cet aspect est toujours présent en 2024.

Ce virage confirme une tendance déjà amorcée : Boeing renforce ses liens avec les sphères du pouvoir, au moment même où il s’éloigne de ses racines industrielles. Le Conseil devient moins un organe de pilotage technique qu’un levier stratégique et politique.

Focus sur l’efficacité financière

Dans le même temps, Boeing taille dans ses effectifs : 231 000 salariés en 1997, 141 000 en 2020. Le ton est donné : priorité à l’efficacité financière, au détriment des compétences techniques et écologiques, reléguées au second plan.

Ce virage intervient pourtant à un moment clé pour le groupe. Le programme 787 « Dreamliner » est lancé avec son lot d’innovations : matériaux composites, nouveaux moteurs, nouveaux modes de collaboration avec les sous-traitants. Des projets de cette envergure nécessitent un pilotage éclairé. Mais paradoxalement, alors que la technologie prend de l’ampleur, le Conseil d’administration se vide de ses experts techniques.

Le même scénario se reproduit avec le 737 Max. Officiellement, l’appareil n’est qu’une mise à jour d’un modèle existant. Officieusement, les ingénieurs tirent la sonnette d’alarme : les choix techniques sont risqués, un nouvel avion serait plus sûr. Mais leurs avertissements restent lettre morte. Faute de relais au sein du CA, ils ne sont pas entendus.

France 24 2025.

Un CA trop homogène pour débattre

À force de privilégier les profils issus de la finance ou des milieux politiques, Boeing s’est privé de diversité de pensée. Moins de débats, moins de confrontations d’idées. Or, c’est souvent dans ces frictions que naissent les bonnes décisions. Dans le cas du 737 Max, le manque de dialogue a permis à des failles de sécurité de passer sous les radars.

Pire encore, une enquête du Sénat américain suggère que la proximité du groupe avec certains décideurs politiques aurait facilité une certification accélérée de l’appareil. In fine, cela pourrait paradoxalement ne pas avoir servi l’entreprise dont la réputation est ternie depuis des catastrophes aériennes ayant provoqué des morts. Dans les faits, les causalités sont sûrement plus complexes et cette proximité est un des facteurs qui peut expliquer mais il serait excessif d’en faire le seul facteur.

Pendant les déboires des programmes Dreamliner et MAX, plusieurs actionnaires tentent de tirer la sonnette d’alarme. La ville de Livonia (Michigan), ainsi que les géants de la gestion d’actifs Vanguard et BlackRock, demandent des comptes. Livonia dénonce un manque de transparence sur le programme 787. Vanguard, de son côté, interpelle la direction sur la sécurité du 737 Max et s’interroge sur l’implication réelle du Conseil d’administration.

Administrateurs accusés

Ces pressions aboutissent à une action en justice : les membres du CA sont accusés de ne pas avoir exercé leur devoir de surveillance, notamment sur les questions de sécurité. Le dossier se solde par un accord à l’amiable. Boeing accepte de verser 225 millions de dollars… non pas directement, mais via ses assureurs.

En clair : les administrateurs condamnés échappent à toute responsabilité financière personnelle. Début 2025, un autre accord a mis fin aux poursuites pénales ouvertes après les deux crashs du 737 Max en 2018 et 2019. L’entreprise évite ainsi un procès public potentiellement explosif, au prix d’un règlement négocié avec le gouvernement américain.

Ironie de l’histoire : lors du développement du Dreamliner, les dirigeants de Boeing avaient reconnu le rôle crucial des ingénieurs dans la coordination avec les sous-traitants. Mais cette prise de conscience n’a pas résisté à la logique financière qui s’est installée au sommet. Chez Boeing, ce n’est pas une crise technologique qui a précipité la chute du 737 Max, mais une crise de gouvernance. Une entreprise qui conçoit des avions sans écouter ses ingénieurs prend le risque, un jour, de ne plus savoir les faire voler.

The Conversation

Christine Marsal ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Des réseaux et des ailes : comment Boeing parvient-il à se maintenir en vol ? – https://theconversation.com/des-reseaux-et-des-ailes-comment-boeing-parvient-il-a-se-maintenir-en-vol-259749

Le Brésil, laboratoire du vin de demain

Source: The Conversation – Indonesia – By Sylvaine Castellano, Directrice de la recherche, EM Normandie

La vallée des vignobles de Bento Gonçalves dans Rio Grande do Sul au Brésil a été fortement influencée par les descendants des immigrants italiens venus dans la région. ViagenseCaminhos/Shutterstock

Le Brésil dispose de tous les atouts pour devenir un acteur clé du vin au XXIe siècle… à condition d’assumer pleinement son rôle : un laboratoire d’expérimentation, de consommation et de durabilité viticole à l’échelle mondiale. Après le football et le café, le vin, nouvel emblème du Brésil ?


Le Brésil, pays le plus peuplé d’Amérique du Sud avec 212 583 750 d’habitants et cinquième producteur de vin de l’hémisphère sud, suscite un intérêt international croissant. Longtemps perçu comme un acteur marginal sur la scène viticole, il connaît une transformation rapide, portée par des innovations techniques, une diversification de ses terroirs et une nouvelle génération de consommateurs.

Cette dynamique fait du pays un véritable laboratoire des nouvelles tendances mondiales du vin. Le marché brésilien connaît une croissance impressionnante : 11,46 milliards d’euros de chiffre d’affaires en 2024, avec des prévisions atteignant 19,12 milliards d’euros d’ici 2030, à un rythme de croissance annuelle moyen de 9,1 %. En valeur, le Brésil représente aujourd’hui 2,6 % du marché mondial du vin.

Comment expliquer ce marché émergent ?

Nouveaux terroirs

Le pays produit entre 1,6 et 1,7 million de tonnes de raisins par an, sur près de 81 000 hectares. Le sud du pays reste le cœur de la viticulture brésilienne, avec 90 % de la production concentrée dans l’État du Rio Grande do Sul. La région de Pinto Bandeira s’est distinguée pour ses vins mousseux de qualité, produits selon la méthode traditionnelle, à base de Chardonnay et de Pinot noir.

Le Brésil est le douzième producteur de vin au monde.
Atlasbig

De nouvelles régions émergent. Santa Catarina, avec ses vignobles d’altitude à São Joaquim, favorise une production de mousseux fins dans un climat frais. Plus audacieux encore, la vallée du São Francisco, dans le nord-est tropical, permet deux vendanges par an grâce à son climat semi-aride. Dans les zones plus chaudes comme São Paulo ou Minas Gerais, les producteurs innovent avec la technique de la poda invertida, ou taille inversée. Ils repoussent la récolte vers des périodes plus fraîches, améliorant la qualité des raisins.

Vin d’entrée de gamme et vin blanc

En 2023, le Brésil a importé 145 millions de litres de vin, soit une baisse de 5,91 % en volume – en gommant l’inflation –, mais une hausse de 5 % en valeur – sans effet d’un changement de prix.

Les vins d’entrée de gamme – inférieurs à 20 euros – dominent avec 65 % du volume. Les vins premium – supérieurs à 80 euros – ont progressé de 31 % en volume et 34 % en valeur. Le Chili reste le principal fournisseur, devant le Portugal et l’Argentine. La France, cinquième fournisseur avec 7 % de parts de marché. L’Hexagone consolide sa position grâce à ses effervescents et ses Indications géographiques protégées (IGP).

Longtemps dominé par le rouge et les mousseux, le marché brésilien voit le vin blanc progresser fortement : 11 % d’importations en plus en 2023, représentant désormais 22 % du marché. Cette tendance s’explique par le climat, mais aussi par une recherche de fraîcheur, de légèreté, et de moindres teneurs en alcool. Les vins blancs aromatiques et floraux séduisent particulièrement les jeunes et les femmes, bouleversant les codes traditionnels.

Millennials et Gen Z

Le renouveau du marché brésilien repose en grande partie sur les jeunes générations. Selon une étude, 37 % des millennials et Gen Z déclarent préférer le vin, juste derrière la bière (44 %), et devant les spiritueux. La consommation de vin devient plus quotidienne, intégrée à des moments conviviaux. Les Brésiliennes représentent 53 % des consommateurs en 2024, contre 47 % en 2019. La part des consommatrices âgées de 55 à 64 ans est même passée de 14 % à 19 %. Ce public, en pleine mutation, recherche des vins plus accessibles, des expériences partagées, et des marques engagées.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Vers une viticulture plus durable

La durabilité devient un atout compétitif majeur. À Encruzilhada do Sul, le domaine Chandon (LVMH) a lancé un mousseux premium, à partir de pratiques durables certifiées PIUP, bien que non bio. Selon son œnologue Philippe Mével, ces démarches améliorent la santé des sols et la productivité, tout en réduisant les intrants.

Vue de la Salton Valley
Le domaine de Salton fait partie des grands domaines reconnus, dans l’état du Rio grande do sul située le long des frontières uruguayenne et argentine.
ViagenseCaminhos/Shutterstock

La vinícola Salton, quant à elle, compense ses émissions de 951 tonnes de CO₂ en 2020 par la conservation de 420 hectares de pampa native, et des actions de reforestation. Elle vise la neutralité carbone d’ici 2030 via des énergies renouvelables et des matériaux recyclés.

Adapter la communication

Malgré ces avancées, le vin brésilien souffre d’une image encore trop classique. Pour séduire les jeunes, la filière doit adopter des codes plus spontanés, centrés sur les expériences, les moments de vie et les émotions. Instagram, TikTok, micro-influenceurs, étiquettes au design moderne : les leviers sont nombreux.

Le visuel est désormais un facteur déterminant d’achat. Les jeunes générations attendent aussi que le vin s’intègre à leur quotidien via des événements festifs, des pique-niques, des festivals ou des bars éphémères.

La consommation moyenne de vin par habitant reste faible (2,7 litres/an), mais le potentiel est considérable. Avec une offre en pleine diversification, des terroirs multiples, une jeunesse curieuse et exigeante, et une montée en gamme affirmée, le Brésil change de visage viticole.

Des événements comme ProWine São Paulo, devenu la plus grande foire du vin et des spiritueux des Amériques, témoignent de cet engouement croissant. Le Brésil dispose de tous les atouts pour devenir un acteur clé du vin au XXIe siècle… à condition d’assumer pleinement ce qu’il est en train de devenir : un laboratoire d’expérimentation, de consommation et de durabilité viticole à l’échelle mondiale.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Le Brésil, laboratoire du vin de demain – https://theconversation.com/le-bresil-laboratoire-du-vin-de-demain-258416

Le peintre Hokusai était une icône en France avant d’être reconnu au Japon

Source: The Conversation – Indonesia – By Sophie Basch, Professeur de littérature française, Sorbonne Université

_Le Pavillon Sazai du temple des Cinq Cents Arhats_ (Gohyaku Rakanji Sazaidô), v. 1829-1833, vingt-troisième des _Trente-six vues du mont Fuji_. Hokusai-kan Museum.

Avec l’exposition « La vague Hokusai », le musée d’histoire de Nantes accueille, du 28 juin au 7 septembre 2025, de nombreux chefs-d’œuvre du peintre Katsushika Hokusai (1760-1849), appartenant au musée Hokusai-kan d’Obuse, dans les Alpes japonaises.


Le titre de l’exposition nantaise rend hommage à l’estampe la plus illustre d’Hokusai, celle dont les reproductions et les détournements ont envahi l’espace public jusqu’à saturation : Sous la vague au large de Kanagawa, première des Trente-six vues du mont Fuji, cette « vague comme mythologique » d’un Hokusai « emporté, expéditif, bouffon, populacier », saluée en 1888 par le critique Félix Fénéon.

La reconnaissance européenne

L’icône a été baptisée par un écrivain français, Edmond de Goncourt, dans la monographie qu’il consacra à Hokusai en 1896 :

« Planche, qui devrait s’appeler “la Vague”, et qui en est comme le dessin, un peu divinisé par un peintre, sous la terreur religieuse de la mer redoutable entourant de toute part sa patrie : dessin qui vous donne le coléreux de sa montée dans le ciel, l’azur profond de l’intérieur transparent de sa courbe, le déchirement de sa crête, qui s’éparpille en une pluie de gouttelettes, ayant la forme de griffes d’animaux. »

Hokusai, dont le Japon proclame aujourd’hui le génie, apparaît comme une gloire universelle.

Publicité sur un bus municipal à Onomichi
Publicité sur un bus municipal à Onomichi (située sur le littoral de la mer intérieure de Seto, dans la préfecture d’Hiroshima).
Fabrice van de Kerckhove
Étal de poissonnier à Athènes
Étal de poissonnier à Athènes (Grèce).
Sophie Basch

C’est toutefois en Occident qu’il acquit sa renommée dans la seconde moitié du XIXᵉ siècle, et plus singulièrement en France, berceau du japonisme artistique.

L’avocat des impressionnistes et de l’art japonais, Théodore Duret, pouvait ainsi écrire en 1882 :

« Homme du peuple, au début sorte d’artiste industriel, [Hokusai] a occupé vis-à-vis des artistes, ses contemporains, cultivant “le grand art” de la tradition chinoise, une position inférieure, analogue à celle des Lenain vis-à-vis des Lebrun et des Mignard ou des Daumier et des Gavarni en face des lauréats de l’école de Rome. […] C’est seulement depuis que le jugement des Européens l’a placé en tête des artistes de sa nation que les Japonais ont universellement reconnu en lui un de leurs grands hommes. »


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Déclassé au Japon

Confirmant ce diagnostic, l’éminent orientaliste bostonien Ernest Fenollosa rédigea une préface cinglante au catalogue de la première rétrospective Hokusai organisée en 1900 à Tokyo par l’éditeur et collectionneur Kobayashi Bunshichi :

« Il semblerait étrange que Hokusai, reconnu en Occident depuis quarante ans comme l’un des plus grands maîtres mondiaux du dessin, n’ait jamais été considéré comme digne d’étude dans son pays natal, si nous n’étions conscients du clivage fatal entre aristocrates et plébéiens à l’époque Tokugawa, dont le présent prolonge l’ombre sinistre. […] Des représentants du gouvernement ont jugé cette exposition démoralisante ; quant aux rares collectionneurs clandestins, ils rougiraient, dit-on, de voir leur nom publié parmi les contributeurs. »

Qui aurait alors pu prédire que l’ukiyo-e deviendrait l’instrument privilégié du soft power japonais ?

Le rôle des collectionneurs privés

La spectaculaire exposition récemment dédiée par le Musée national de Tokyo à l’éditeur du XVIIIe siècle Tsutaya Juzaburo, notamment commanditaire d’Utamaro, témoigne du changement de paradigme amorcé au début du XXe siècle. Dans les vitrines, de nombreuses estampes de contemporains de Hokusai, aujourd’hui vénérés mais méprisés dans le Japon de Meiji (1868-1912), portent le sceau du fameux intermédiaire Hayashi Tadamasa, fournisseur, dans le Paris du XIXe siècle, des principaux collectionneurs japonisants : les frères Goncourt, le marchand Siegfried Bing et le bijoutier Henri Vever, dont les plus belles pièces passèrent ensuite dans les collections publiques japonaises par l’entremise du mécène Matsukata Kōjirō. Hokusai doit sa fortune à la clairvoyance de collectionneurs particuliers qui bravaient au Japon, un dogmatisme esthétique et social et, en France, l’académisme institutionnel.

Comme le critique d’art Théodore de Wyzewa écrivait en 1890 des estampes japonaises :

« Les défauts mêmes de leur perspective et de leur modelé nous enchantèrent comme une protestation contre des règles trop longtemps subies. »

Pierre Bonnard et Édouard Vuillard n’attendaient que cet encouragement.

Édouard Vuillard, Le jardin des Tuileries, 1896, musée du Petit Palais
Édouard Vuillard, le Jardin des Tuileries (1896), musée du Petit Palais.
Paris Musées, CC BY
Pierre Bonnard, Promenade des nourrices, frise des fiacres, paravent, 1897
Pierre Bonnard, Promenade des nourrices, frise des fiacres (1897). Paravent constitué d’une suite de quatre feuilles lithographiées en cinq couleurs.
Cleveland Museum of Art., CC BY

Un malentendu persistant

Le clivage persistait lorsque Paul Claudel, alors ambassadeur au Japon, prononça en 1923 une conférence devant des étudiants japonais à Nikkō. Son jugement, qui fait directement écho à celui de Fenollosa, précise les raisons du succès en France de Hokusai, perçu comme un cousin des peintres de la vie moderne :

« Il est frappant de voir combien dans l’appréciation des œuvres que [l’art japonais] a produites, notre goût est resté longtemps loin du vôtre. Notre préférence allait vers les peintres de l’École “Ukiyoyé”, que vous considérez plutôt comme le témoignage d’une époque de décadence, mais pour lesquels vous m’excuserez d’avoir conservé personnellement tout mon ancien enthousiasme : vers une représentation violente, pompeuse, théâtrale, colorée, spirituelle, pittoresque, infiniment diverse et animée du spectacle de tous les jours. C’est l’homme dans son décor familier et ses occupations quotidiennes qui y tient la plus grande place. Votre goût, au contraire, va vers les images anciennes, où l’homme n’est plus représenté que par quelques effigies monastiques qui participent presque de l’immobilité des arbres et des pierres. »

Vincent Van Gogh, Portait du Père Tanguy, 1887, Musée Rodin
Vincent Van Gogh, Portait du père Tanguy (1887). Musée Rodin.
Wikimedia, CC BY

Une fraternité française

Si Hokusai bénéficia dès les années 1820 d’une réception savante en Europe, c’est en effet surtout en France que son œuvre rencontra un accueil fraternel. Le graveur Félix Bracquemond serait tombé dès 1856, chez l’imprimeur Delâtre, sur un petit album à couverture rouge, « un des volumes de la Mangwa, d’Hok’ Saï. »

Félix Bracquemond, Carpe, motif pour le Service Rousseau, 1866.
Félix Bracquemond, Carpe, motif pour le Service Rousseau, 1866.
The Cleveland Museum of Art, CC BY

Claude Monet faisait remonter à la même année une rencontre qui devait tant l’inspirer :

« Ma vraie découverte du Japon, l’achat de mes premières estampes, date de 1856. J’avais seize ans ! Je les dénichai au Havre, dans une boutique comme il y en avait jadis où l’on brocantait les curiosités rapportées par les long-courriers […]. Je les payais vingt sous pièce. Il paraît qu’aujourd’hui certaines se vendraient des milliers de francs. »

Dès la fin des années 1850, Hokusai apparut donc comme un précurseur éloigné qui confortait la conviction des premiers amateurs d’estampes, passionnés d’eaux-fortes, de caricatures et de ces enluminures populaires bientôt vantées par Arthur Rimbaud dans Une saison en enfer.

Hokusai, Un opticien présente des lunettes à un homme à trois yeux, sous le regard d’un homme et d’une femme au cou fantastiquement allongé et fumant la pipe ; un moine jouant du shamisen détourne le regard, La Manga, vol. XII, 1834, collection pa
Hokusai, Un opticien présente des lunettes à un homme à trois yeux, sous le regard d’un homme et d’une femme au cou fantastiquement allongé et fumant la pipe ; un moine jouant du shamisen détourne le regard, La Manga, vol. XII, 1834, collection particulière.
CC BY

Une lettre de Charles Baudelaire, apôtre de la modernité, qui préférait la « magie brutale et énorme » des dioramas, vrais par leur fausseté même, aux représentations réalistes, témoigne en 1862 de cette reconnaissance précoce :

« Il y a longtemps, j’ai reçu un paquet de Japonneries que j’ai partagées entre mes amis et amies. Je vous avais réservées [sic] ces trois-là. […] Elles ne sont pas mauvaises (images d’Épinal du Japon, 2 sols pièce à Yeddo). Je vous assure que, sur du vélin et encadré de bambou ou de baguettes vermillon, c’est d’un grand effet. »

Hokusai l’inspirateur

L’hommage le plus spirituel à Hokusai vint de l’illustrateur Henri Rivière qui, entre 1888 et 1902, grava Les Trente-six vues de la tour Eiffel. Il ne s’agissait pas, comme l’a affirmé Christine Guth, spécialiste américaine de la période Edo, de « mettre en parallèle la sublimité naturelle du mont Fuji et la sublimité technologique de la tour Eiffel » – postulat démenti par l’accent mis sur le Paris des faubourgs et de l’industrie, ainsi que par Rivière lui-même, qui insista explicitement dans ses souvenirs sur l’aspect parodique de son entreprise :

« J’avais composé […] des dessins pour un livre d’images […] qui parut plus tard en lithographie ; c’étaient les “Trente-six vues de la Tour Eiffel”, réminiscence du titre de Hokusai : “Les trente-six vues du Fujiyama”, mais, comme le dit Arsène Alexandre dans la préface qu’il écrivit pour ces vues de Paris : “On a le Fujiyama qu’on peut”. »

Henri Rivière, Les 36 Vues de la tour Eiffel, Du Quai de Passy
Henri Rivière, Les 36 Vues de la tour Eiffel, Du Quai de Passy.
Bibliothèque numérique de l’INHA, CC BY-ND
Henri Rivière, Les 36 Vues de la tour Eiffel, Rue Beethoven
Henri Rivière, Les 36 Vues de la tour Eiffel, Rue Beethoven.
Bibliothèque numérique de l’INHA, CC BY-ND

Comme devait le constater en 1914 le grand historien d’art Henri Focillon, dans la monographie qu’il consacra au maître nippon, ces « artistes qui, ayant trouvé en [Hokusai] un modèle et un exemple, le chérirent, non seulement pour le charme rare et supérieur de sa maîtrise, mais pour l’autorité qu’il conférait à leur propre esthétique ». Hokusai n’influença aucunement les peintres français, comme on le lit trop souvent : il confirmait et encouragea leurs audaces.

The Conversation

Sophie Basch est membre de l’Institut universitaire de France (IUF). Elle a reçu des financements de l’IUF.

ref. Le peintre Hokusai était une icône en France avant d’être reconnu au Japon – https://theconversation.com/le-peintre-hokusai-etait-une-icone-en-france-avant-detre-reconnu-au-japon-258751