Doctorat : Les coûts invisibles de la thèse, entre surmenage et anxiété

Source: The Conversation – Indonesia – By Faustine Rousselot, Docteure en sciences de l’éducation et de la formation, Université de Lille

Dans _le Théorème de Marguerite_ (2023), d’Anna Novion, l’actrice Ella Rumpf interprète une doctorante qui doute de son sujet de recherche. Michael Crotto/TS productions

Véritable cheminement intellectuel, le doctorat peut aussi, par la précarité qu’il induit, devenir un véritable parcours du combattant au quotidien, fragilisant durablement les jeunes chercheurs sur le plan psychologique comme économique. Retour sur les enseignements d’une enquête autour de 15 parcours en sciences humaines et sociales.


Avec le Vacataire, publié en 2025, l’économiste Thomas Porcher a mis un coup de projecteur sur la précarité de ces enseignants non fonctionnaires. Souvent doctorants ou jeunes docteurs, ils sont payés à l’heure de cours, n’ont pas accès aux protections sociales et leur salaire peut leur être versé plusieurs mois après leur intervention.

Ces vacataires représenteraient aujourd’hui près de deux tiers des personnes assurant des cours dans les universités françaises, estime Thomas Porcher. Mais cette précarité ne commence pas avec les vacations : elle s’installe dès la thèse. En France, le doctorat dure en moyenne de quatre à six ans en sciences humaines et sociales, avec pour objectif la production de savoirs nouveaux. Dans ces disciplines, certains doctorants obtiennent un contrat doctoral ou une bourse, mais cela reste minoritaire : beaucoup d’entre eux doivent travailler à côté de leurs recherches pour subvenir à leurs besoins.




À lire aussi :
Des enseignants-chercheurs à la recherche du temps perdu : regard sur le malaise universitaire


Nombre de vacataires sont encore doctorants, et les heures mal rémunérées s’ajoutent à une surcharge de travail (manuscrit à rédiger, préparation de cours, publication à produire), à un manque de reconnaissance (peu de valorisation institutionnelle, faible intégration dans les équipes de recherche) et à une forte solitude. Loin d’être une exception, ces vacations s’inscrivent dans un système plus vaste de fragilisation du monde académique, qui oblige nombre de doctorants à consentir des sacrifices invisibles pour simplement rester dans la course.

En parallèle de mon activité d’attachée temporaire d’enseignement et de recherche (Ater), j’ai mené une enquête auprès de 15 jeunes docteurs en sciences humaines et sociales, récemment diplômés. Leurs récits ne racontent pas tant une réussite académique qu’un chemin marqué par l’incertitude, les renoncements et l’épuisement. Plusieurs évoquent des projets personnels reportés, un isolement prolongé ou un sentiment de vide à l’issue de la soutenance. Ces témoignages soulèvent une question : que nous dit le doctorat sur la manière dont l’université forme, encadre et, parfois, fragilise ses futurs chercheurs ?

Une vie mise entre parenthèses

Tout le monde le sait, faire une thèse est difficile. Mais souvent, on imagine que cette difficulté sera d’abord intellectuelle. Or, dans les 15 récits que j’ai recueillis, personne ne se plaint d’exigences intellectuelles trop élevées. Les difficultés sont ailleurs. Les renoncements sont d’ordre personnel.

Clotilde a mené toute sa thèse sans financement : elle a travaillé en tant que « nanny », puis a enchaîné des vacations tout au long de son parcours doctoral. Elle a reporté le projet d’avoir un enfant et vécu dans une incertitude permanente liée à ses ressources financières : elle ne savait si elle pourrait subvenir à ses besoins les mois suivants, comme elle le dit : « J’ai mis ma vie en pause. »

Alice, de son côté, s’est volontairement isolée pour rester concentrée, elle s’enfermait plusieurs jours dans des logements temporaires pour écrire, jusqu’à couper ses liens sociaux. Amandine parle d’un emploi du temps saturé : « Il y avait soixante-dix heures par semaine ou plus qui étaient consacrées au travail, donc après, je mangeais, je dormais. »

Une autre personne interrogée évoque une période de tension continue entre charge professionnelle et vie personnelle : « Je faisais deux heures et demie de route, matin et soir, pour donner mes cours avec mes deux enfants à gérer. J’étais épuisée, mais je ne pouvais pas lâcher. »

Thomas Porcher : « Il y a une forme de mépris à l’égard de ceux qui font tourner les universités » (France Inter, avril 2025).

Ces témoignages disent que le doctorat, ce n’est pas seulement une surcharge de travail. C’est une pression continue qui efface progressivement ce qui fait la vie autour du travail : les projets, les relations, le soin de soi. Et cet effacement s’aggrave encore lorsque les conditions économiques sont précaires. Toutes les personnes interrogées n’ont pas connu la même stabilité financière, mais pour beaucoup, le manque de ressources est venu renforcer la tension permanente : il rend chaque choix plus lourd. Une personne participant à l’enquête raconte :

« Financièrement, c’était très dur. C’est aussi pour ça que j’ai songé à arrêter. Je dis que c’est à cause de mon directeur, mais c’est à cause de… moi, je mettais la pression à mon directeur pour la finir rapidement cette thèse parce que ça a duré longtemps et j’avais besoin de gagner de l’argent, en fait. Et ce n’est pas les vacations à la fac qui me faisaient gagner un salaire normal. »

Un autre évoque la pression qui s’ajoute à celle du quotidien :

« Ma famille me disait : “Quand est-ce que tu vas te mettre à travailler ?”, parce qu’il faut rentrer de l’argent. Donc, il y avait aussi cette notion-là qui mettait un poids en plus. »

Le doctorat devient un espace de fragilité totale, où l’incertitude matérielle alimente l’usure mentale et l’effacement de soi.

Une mobilisation mentale continue

Les récits recueillis évoquent rarement un burn out au sens clinique. Mais tous parlent d’une tension psychique consentante : fatigue extrême, pensées envahissantes, culpabilité de ne jamais en faire assez.

Amandine décrit cette spirale mentale avec lucidité : « C’est que j’étais tout le temps en train de réfléchir à ce que j’avais à faire, à ce que je n’avais pas fait. C’est un truc qui te quitte pas. »

Chez Sebastian, cette pression se traduit par une culpabilité omniprésente :

« Au début, je culpabilisais beaucoup. Après, il y a un moment où je culpabilisais des fois d’aller au ciné ou de regarder Friends. Et, bien sûr, le sentiment de culpabilité, il va structurer tout ton état d’esprit quand tu es en thèse. »

Jean, lui, parle de pensées intrusives qui se poursuivent bien au-delà de la fin de la thèse : « Pendant un an, j’avais encore des pensées intrusives de thèse. Genre : “Il faut que tu bosses sur ta thèse.” Alors qu’elle était finie. »


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Un autre témoignage montre comment cette pression glisse vers une anxiété aiguë, presque corporelle :

« Pendant les moments où j’écrivais ma thèse, j’avais de plus en plus des moments de panique. De temps en temps, je sentais des crises d’anxiété qui montaient. »

Ces formes de fragilités ne sont pas isolées. Elles traduisent un système qui demande une mobilisation mentale permanente, sans droit au relâchement. Pour plusieurs, c’est après la soutenance que le corps lâche. Quand la pression tombe enfin, le vide s’installe. L’une raconte :

« J’ai cassé le plafond de verre, mais je continue à enlever les morceaux qui sont plantés dans ma peau. »

Troubles de la concentration, fatigue chronique, perte d’élan : la thèse ne s’arrête pas avec le manuscrit. Elle se poursuit dans le corps, la mémoire, le silence.

Et après tant de sacrifices, que reste-t-il ? Certains ont décroché un poste, d’autres enchaînent les contrats précaires. Mais certains ont renoncé, ils ne veulent plus faire partie du monde académique. Ces récits disent la fatigue d’un système qui épuise ses propres chercheurs avant même leur entrée dans la carrière.

The Conversation

Faustine Rousselot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Doctorat : Les coûts invisibles de la thèse, entre surmenage et anxiété – https://theconversation.com/doctorat-les-couts-invisibles-de-la-these-entre-surmenage-et-anxiete-258119

Que faire si vous n’aimez pas les amis de votre enfant ?

Source: The Conversation – Indonesia – By Rachael Murrihy, Director, The Kidman Centre, Faculty of Science, University of Technology Sydney

Comment réagir lorsque votre enfant s’entend bien avec un camarade que vous jugez trop turbulent, malpoli, voire tyrannique ? Est-il bienvenu en tant que parent de s’immiscer dans les relations de vos enfants ?


Nombreux sont les parents qui connaissent cette situation : leur enfant a un bon, voire un meilleur ami, mais ils ne l’aiment pas…

Cet ami peut être autoritaire, mal élevé ou sauter sur vos meubles. Vous n’aimez peut-être pas la façon dont votre enfant se comporte lorsqu’il est avec lui.

Quand il s’agit d’enfants plus âgés, votre aversion peut être liée au langage de l’ami, à sa posture vis-à-vis de l’école ou à sa façon de prendre des risques. Peut-être aussi que cet ami souffle le chaud et le froid, provoquant des drames en série.

Que faire alors, en tant que parents, dans ce genre de circonstances ?

Fixer des règles

Si vous estimez que votre enfant est maltraité, cela peut susciter en vous un instinct de protection qui se manifeste par une réaction corporelle de lutte ou de fuite.

Cela provoque une montée d’adrénaline qui peut vous pousser en tant que parents à réagir par la critique, voire tenter de vous opposer à cette amitié.

Cependant, cette façon de faire peut causer plus de mal que de bien, en particulier dans le cas d’adolescents enclins à rejeter leurs parents.

Avec les enfants plus jeunes, des limites claires peuvent être fixées dès le début de la rencontre. Par exemple, en leur disant : « les jeux sont interdits dans la chambre des parents » ou « on ne saute pas sur le canapé ».

Si les enfants utilisent un langage méchant ou grossier les uns envers les autres, vous pouvez d’emblée annoncer qu’on n’utilise pas tel ou tel mot dans cette maison et que la courtoisie est ici la règle.

Les séances de jeu peuvent être organisées de préférence à l’extérieur, ce qui peut être particulièrement utile en cas de comportement bruyant, destructeur ou grossier. Et, si vous le pouvez, prévoyez moins de séances de jeu avec l’enfant en question.

Mais les parents peuvent également réfléchir à la raison pour laquelle cet enfant les dérange. Cette réaction est-elle justifiée ou provient-elle de leurs propres préjugés et opinions ? Les amis de votre enfant ne doivent pas nécessairement être ceux que vous choisiriez.

Être à l’écoute des besoins des adolescents

Pour devenir des adultes accomplis, les adolescents doivent franchir différentes étapes de développement les aidant à devenir plus autonomes et indépendants. Interférer avec leurs relations amicales perturbe ce processus et, en fin de compte, les déresponsabilise.

Dans les années 1960, la psychologue américaine Diana Baumrind a publié une célèbre recherche sur la parentalité établissant qu’un style autoritaire se traduit par moins de confiance et moins d’indépendance chez l’enfant que s’il est élevé dans un foyer qui, au-delà des règles, est à l’écoute de ses besoins.

Afficher des réticences à l’égard des amis ou des partenaires potentiels de votre enfant risque également d’entraîner un effet « Roméo et Juliette », où la désapprobation lui donne encore plus envie de rencontrer ces personnes.

Ainsi, dans le cas d’adolescents et de leurs amis, l’approche doit être encore plus nuancée. L’objectif premier est d’encourager l’enfant à considérer le parent comme une personne à qui s’adresser en cas de problème. Si vous êtes tentés d’être critiques, posez-vous au préalable la question suivante : cela est-il dans l’intérêt de votre enfant ?

Il est important de laisser les enfants faire des erreurs pour qu’ils puissent en tirer des leçons. Apprendre à discerner ce qu’ils veulent ou ne veulent pas dans les relations est une compétence essentielle pour la vie.

Des amitiés qui évoluent

Favoriser un dialogue ouvert sur les relations de l’enfant vous permet d’exercer une influence de manière plus subtile et adaptée à son développement.

Pour les plus jeunes, vous pouvez profiter d’un moment de calme pour poser des questions du type : « Que peux-tu dire à Charlotte si tu ne veux plus jouer à son jeu ? » ou « Quelle est la meilleure façon de réagir si elle est trop autoritaire ? »

Pour les enfants plus âgés, l’idéal est d’attendre qu’ils aient envie d’échanger avec vous, plutôt que de les questionner d’emblée. Informez-vous gentiment, sans porter de jugement, sur cette amitié, avec des questions comme : « Qu’aimez-vous faire ensemble ? » ou « Parlez-moi de ce que vous avez en commun. »


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Si l’adolescent semble contrarié ou mal à l’aise, résistez à l’envie de rejeter le problème ou de vouloir le résoudre. L’écoute est la clé pour aider un jeune à affronter un problème, en lui montrant qu’il est soutenu et non jugé.

Et n’oubliez pas que toutes les amitiés ne durent pas. Au fur et à mesure que les enfants grandissent, la plupart d’entre eux se font naturellement de nouvelles connaissances et en abandonnent parmi les anciennes.

Seule exception à cette approche tournée vers les adolescents : s’il y a un risque pour la sécurité de l’enfant. En cas de brimades ou d’abus sous quelque forme que ce soit, les parents doivent intervenir et parler directement à l’école ou à d’autres autorités compétentes, même si leur enfant s’y oppose.

The Conversation

Rachael Murrihy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Que faire si vous n’aimez pas les amis de votre enfant ? – https://theconversation.com/que-faire-si-vous-naimez-pas-les-amis-de-votre-enfant-258492

Adolescence : Comment se forment les goûts musicaux

Source: The Conversation – Indonesia – By Gabriel Segré, Professeur des universités – Sociologie de l’art, culture et médias, Université Paris Nanterre – Université Paris Lumières

Dans nos sociétés numériques, on assiste à un éclatement des modes de découverte et de recommandation de la musique. Comment les jeunes naviguent-ils entre différents styles et se forgent-ils leurs propres goûts, entre influences familiales, conseils d’amis et algorithmes ?


Chez les préadolescents et adolescents, la découverte de la musique repose sur divers canaux. Il est rare que cette initiation dépende d’une seule instance de socialisation. Le plus souvent, entre leurs camarades, la famille, l’école et les recommandations des médias, les jeunes subissent ou mettent à profit plusieurs influences.

Les adolescents sont mis en présence de références, morceaux, artistes, genres musicaux au sein du groupe de pairs, par leurs copains de collège ou de lycée. Puis ils effectuent des recherches sur Internet, se rendant essentiellement sur YouTube, et sur Spotify dans une moindre mesure…

Un nom d’artiste ou un titre a été évoqué par un copain, le morceau a été écouté sur un téléphone et la recherche sur le Net peut commencer dès le retour à la maison ou immédiatement sur le téléphone.




À lire aussi :
Ce que les chansons préférées des adolescents nous apprennent sur leur imaginaire amoureux


Parfois, la recherche s’effectue sans pistes ni orientations précises. Les découvertes se font au hasard des pérégrinations. Cependant, les prescriptions, suggestions, conseils présents sur les sites de diffusion musicale, encadrent la recherche.

Les réseaux sociaux, et plus largement Internet, constituent aussi une instance de socialisation musicale pour des adolescents inégalement, mais massivement connectés. Les préadolescents et adolescents sont également mis en contact d’artistes et de genres musicaux chez eux, au sein de la famille. La fratrie et les parents peuvent avoir alors une influence certaine sur leurs goûts (et parfois dégoûts) et modalités de pratique d’écoute.

Dans une recherche sur les pratiques culturelles et de loisirs des Français, Fabienne Gire et ses collègues identifient

« six types de réseaux : la famille foyer, la famille hors foyer, les amis, les collègues ou camarades d’école, les connaissances ou voisins, les personnes avec qui on a des liens uniquement par Internet ».

Les médias comptent également parmi les prescripteurs de musique et constituent une instance d’initiation à la musique et de formation du goût juvénile.

Quelle combinaison des influences ?

La sociologue Sylvie Octobre et ses collaborateurs mettent en avant la pluralité des transmissions et des agents de socialisation culturelle et soulignent l’importance de se pencher sur leur combinaison.

Les témoignages recueillis auprès des adolescents et préadolescents interrogés permettent de constater l’action commune de ces instances et espaces de socialisation à la musique : Internet, famille, pairs, médias, parfois école ou plus exactement conservatoire de musique…

Il est très fréquent qu’un discours renforce ou valide l’autre, que les conseils du copain fassent écho aux algorithmes de recommandation sur les sites de streaming, que les prescriptions du frère s’accordent avec la programmation de telle radio, que l’action du parent se trouve soutenue par celle du professeur de musique, etc.

Il arrive évidemment que les prescriptions musicales se contredisent, que parents, pairs, médias, profs… entraînent le jeune auditeur vers des univers différents, parfois qu’ils entrent en conflit ou se frictionnent. Mais il semble que ces guides contribuent à l’élargissement du portefeuille de goûts, à un âge où la curiosité semble dominer.

Il reste que le rapport (pacifié ou tendu) entretenu avec ces instances, notamment l’école et les parents, décide pour une grande part de l’accueil qui sera fait (suivi ou rejet) aux suggestions, présentations ou recommandations… L’initiation à la musique des préadolescents et adolescents est le résultat, comme la transmission culturelle des enfants, d’un « jeu d’influences croisées, parfois contradictoires […] » dû à un nombre important de « transmetteurs potentiels », ainsi que le notent Sylvie Octobre et ses collègues.

Des modes de transmission pluriels

À écouter ces préadolescents et adolescents parler de la façon dont ils ont découvert la musique qu’ils écoutent, dont ils se sont constitué un répertoire de goûts, on constate combien ces processus sont complexes et divers. On assiste à un éclatement des modes de découverte et des modes de recommandation de la musique.

À la pluralité des influences s’ajoute la multiplicité des manières dont elles s’exercent. La transmission musicale s’effectue au cours d’interactions diverses, à travers « les discussions (parler de), les échanges d’objets (prêts ou emprunts), les pratiques communes (faire avec) ». On retrouve ce que Sylvie Octobre et son équipe ont identifié à propos des modes de transmission culturelle : une multiplicité de registres (depuis les transmissions implicites par imprégnation jusqu’aux transmissions explicites par inculcation) et leur interpénétration.

Selon les familles et le degré de contrôle exercé par les parents, leur volonté plus ou moins importante d’accompagner l’enfant dans sa découverte musicale et sa pratique d’écoute, on observe des formes de « persuasion clandestine » mais aussi des actions pédagogiques, des « incitations, accompagnements, coconsommation ».

Selon les groupes de pairs, on peut retrouver aussi des formes de transmission implicites ou explicites, des accompagnements en douceur ou de véritables prises en main par un copain « amateur de trash metal » ou de « rap US » qui va jouer le rôle d’initiateur et exercer un contrôle sévère sur les pratiques et les goûts, sur la musique écoutée, sur les acquisitions de morceaux, voire sur les discours, les codes vestimentaires et capillaires, jusqu’à parfois transformer la personnalité de son protégé.

Certains pairs, à l’instar de certains parents, outrepassent ainsi largement leur rôle de modèle et ressource pour investir celui de guide autoritaire, pouvant récompenser, gratifier symboliquement ou, au contraire, sanctionner les « fautes de goût », les « impairs » de l’apprenti amateur.

S’approprier l’héritage musical

Évidemment, quelles que soient ces influences et leurs modalités d’exercice, elles ne connaissent pas toutes le même sort. Elles sont diversement reçues et leur efficacité dépend de celui sur qui elles s’exercent.

« Héritage n’est pas transmission : la transmission suppose une action des héritiers qui est toujours une transformation, une réinterprétation », comme le rappelle Sylvie Octobre.

Que l’adolescent ou préadolescent soit accompagné dans sa découverte musicale par les parents, les pairs, les médias, les algorithmes ou l’institution scolaire, il n’est jamais sans exercer des choix, effectuer un travail de tri, de sélection, de réinterprétation, de rejet, d’appropriation, etc. Il décide d’accorder plus ou moins de crédit à telle suggestion, à telle source, d’accepter ou de rejeter telle recommandation.

Il recompose sans cesse un ordre de légitimité, toujours mouvant, jamais figé, avec tantôt à son sommet un pair ou un autre, ou encore le père. Il accorde sa confiance à telle instance puis à une autre, disqualifiant la première. Sylvie Octobre analyse la transmission comme processus qui voit l’influence des uns minorée à un moment donné, à « un point de l’existence », puis qui peut être replacée au tout premier plan. C’est un processus qui admet « des allers-retours », des « prises et déprises culturelles ».

La pluralité de lieux et de temporalités

On observe enfin une grande pluralité d’espaces de découverte et d’écoute de la musique : au sein de la famille, dans la solitude de la chambre face à un ordinateur ou allongé sur son lit, au collège ou au lycée dans la cour de récréation ou sur le trajet de l’école. Le caractère nomade de l’écoute est largement favorisé par le développement des nouvelles technologies.

Les situations de découverte de musique, à présent que celle-ci peut s’écouter et se partager, s’échanger et se transmettre en tous lieux et à tous moments, sont véritablement infinies. Comme est infini, on l’a dit, le nombre des instigateurs, acteurs parfois involontaires de cette socialisation musicale. La musique, ainsi que l’a démontré la sociologue Tia DeNora, au tout début des années 2000 « est omniprésente dans tous les lieux de vente » :

« Qu’elle soit émise discrètement de haut-parleurs camouflés ou qu’elle soit déversée à pleine puissance par une vidéo trônant bien en évidence, la musique fait partie intégrante de l’environnement de la vente au détail. »

C’est plus vrai encore aujourd’hui, et cette omniprésence ne saurait se limiter aux seuls lieux de vente. Elle se constate dans l’ensemble des lieux publics et privés, transports en commun, gares, parkings, ascenseurs, salles d’attente et, bien sûr, la rue, diffusée aussi bien à travers des enceintes que jouée par des musiciens.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Au cours d’une journée, depuis le réveil jusqu’au coucher, chez lui, sur le trajet du collège ou du lycée, l’adolescent se trouve en présence de musiques, qu’il connaît ou reconnaît, qu’il découvre, aime ou déteste, qui l’indiffèrent, que parfois il n’entend plus, ou qui retiennent son attention ou le bouleversent.

Cet adolescent dispose de plus en plus d’outils l’aidant à identifier tel titre et à le retrouver instantanément. Avec son téléphone, il peut noter une phrase du refrain, enregistrer, et différer sa recherche du morceau (et de ses références) qu’il entend et apprécie.

De même que l’on constate une pluralité d’influences, de modalités de transmission et de découverte, d’acteurs de l’initiation, de lieux, de temps de cette découverte, on observe une diversité de temporalités (dans une journée comme dans une période plus vaste de vie). Des temporalités qui se succèdent, se chevauchent, alternent : le « temps des copains », le temps de la famille, le temps de l’école…

The Conversation

Gabriel Segré a reçu le soutien de l’Agence Nationale de la Recherche

ref. Adolescence : Comment se forment les goûts musicaux – https://theconversation.com/adolescence-comment-se-forment-les-gouts-musicaux-248721

ChatGPT à l’université : pourquoi encadrer vaut mieux qu’interdire ou laisser-faire

Source: The Conversation – Indonesia – By Karine Revet, Professeur de stratégie, Burgundy School of Business

Depuis l’arrivée de ChatGPT, les écoles et universités se retrouvent face à un défi de taille : comment intégrer ces outils sans compromettre leurs principes éducatifs fondamentaux ?


L’intelligence artificielle (IA) générative offre une multitude de perspectives prometteuses dans les établissements d’enseignement supérieur : innovation pédagogique, personnalisation des apprentissages, gain de temps et stimulation de la créativité. Cependant, elle pose de sérieuses inquiétudes éthiques : risque de triche, manque d’esprit critique, problèmes d’inégalités d’accès ou, encore, perte du sens de l’effort. Dans ce contexte, faut-il interdire ces technologies, les autoriser librement ou encadrer leur usage ? et comment ?

Notre recherche pointe un paradoxe : si les étudiants peuvent utiliser librement ChatGPT et d’autres IA génératives, l’établissement est perçu comme plus innovant, mais ses pratiques sont alors jugées comme moins éthiques. À l’inverse, une interdiction totale permet de rassurer en matière d’éthique, mais au prix d’une image vieillissante. Face à ce dilemme, il est essentiel de trouver la combinaison gagnante.

ChatGPT en classe : trouver l’équilibre entre innovation et éthique

Les outils d’IA générative (ChatGPT, Midjourney, Dall-E, etc.) permettent en quelques secondes de produire du texte, des images ou encore du code. En 2023, une étude estimait que ces outils avaient augmenté la productivité des professionnels de 40 % et amélioré la qualité de leur travail de 18 %.

L’utilisation massive de l’IA générative, y compris dans les universités et parfois à l’insu des enseignants, ne se fait pas sans poser de problèmes. Plusieurs rapports alertent sur des enjeux éthiques clés liés à cette utilisation, tels que la responsabilité, la supervision humaine, la transparence ou l’inclusivité.

Pour mieux comprendre comment les politiques d’usage de l’IA générative influencent l’image d’un établissement, nous avons mené deux études expérimentales auprès de plus de 500 étudiants. Dans chacune, les participants ont été répartis au hasard en trois groupes. Chaque groupe devait lire une petite description d’une école appliquant différentes politiques et règles pour gérer l’usage de l’IA générative. Dans un cas, l’école interdisait complètement son utilisation. Dans un autre, elle l’autorisait sans aucune règle. Et dans le dernier, elle permettait l’IA mais avec des règles claires, comme indiquer quand elle avait été utilisée ou limiter son usage à certaines tâches.

Les participants devaient ensuite évaluer l’image de l’école en indiquant à quel point elle leur semblait innovante, éthique et digne de confiance, c’est-à-dire s’ils auraient envie de la soutenir ou d’y étudier.

Les résultats sont clairs, peu importe le contexte (par exemple, un devoir à la maison, un projet en classe, un travail de mémoire). Les écoles interdisant complètement l’IA sont jugées plutôt éthiques, mais elles sont largement pénalisées en termes d’innovation. Celles autorisant l’IA sans cadre apparaissent comme plutôt innovantes, mais souffrent d’une image peu éthique, suscitant le moins de soutien de la part des étudiants. Les écoles autorisant l’usage encadré et régulé de l’IA réussissent à dégager un double avantage, étant perçues à la fois comme les plus innovantes et les plus éthiques.




À lire aussi :
L’IA dans l’enseignement supérieur : les leçons de Platon et du mythe de Theuth


En d’autres termes, le flou ou l’absence de cadre nuit à la crédibilité. À l’inverse, une politique claire, autorisant l’usage de l’IA générative avec des règles définies, renforce la confiance et l’adhésion des étudiants.

Questions d’IA : un indicateur fort pour étudiants

Les parents, les étudiants, les enseignants et les recruteurs veulent savoir si une école prépare vraiment aux défis du XXIe siècle. Adopter l’IA sans cadre donne certes une image technophile, mais aussi irresponsable. Refuser tout net l’IA peut rassurer au début, mais revient in fine à ne pas tenir compte des évolutions de la société.

Seule une stratégie encadrée permet de conjuguer innovation et valeurs éducatives et, ainsi, répondre aux attentes et nécessités de chacun. Pour les étudiants, l’IA doit rester un outil utile, mais encadré, afin d’éviter tout risque de fraude. De leur côté, les enseignants ont besoin de repères clairs pour intégrer ces technologies sans compromettre les valeurs académiques.

Les parents attendent des écoles qu’elles allient rigueur et modernité. Quant aux décideurs, ils ont tout intérêt à définir un cadre réglementaire cohérent, plutôt que de laisser chaque établissement concevoir sa propre réponse.

Afficher des règles claires

Notre étude montre qu’encadrer l’usage de l’IA à l’université est une condition essentielle pour être innovant tout en préservant l’éthique. Sans règles claires, le recours à l’IA peut fragiliser l’intégrité académique et dévaloriser les diplômes. Il est donc crucial que les établissements prennent ce sujet au sérieux, et que les pouvoirs publics les soutiennent par des recommandations précises et cohérentes.

Plusieurs établissements précurseurs ont déjà mis en place certaines règles simples pour encadrer l’usage de l’IA générative. Cela inclut la transparence quant aux outils utilisés et aux instructions données à l’IA, une mention explicite de toute aide reçue dans les travaux, ainsi que des limites claires sur les tâches autorisées (comme la reformulation ou l’aide à la grammaire, mais pas la rédaction complète). Certaines écoles intègrent également l’éthique de l’IA dans leurs cursus dès la première année et encouragent un usage pédagogique de l’IA dans le cadre d’exercices spécifiques.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Certaines institutions pionnières ont déjà mis en place de telles chartes, comme en témoigne le rapport de la Commission européenne sur l’usage responsable de l’IA dans l’enseignement. Dans un monde où les technologies évoluent plus vite que les institutions, seules les écoles capables de conjuguer rigueur et adaptation gagneront la confiance de leurs communautés.

Intégrer l’IA ne doit pas être perçu comme une simple mode passagère, mais plutôt comme une réponse concrète à un enjeu éducatif majeur, préservant en même temps les valeurs éthiques de l’enseignement ainsi que l’ouverture essentielle à l’innovation. Les institutions capables de relever ce défi seront les mieux placées pour former des esprits critiques prêts à affronter les enjeux de demain.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. ChatGPT à l’université : pourquoi encadrer vaut mieux qu’interdire ou laisser-faire – https://theconversation.com/chatgpt-a-luniversite-pourquoi-encadrer-vaut-mieux-quinterdire-ou-laisser-faire-257364

Parcoursup, ou les discrets rites de la méritocratie algorithmique

Source: The Conversation – Indonesia – By Emmanuel Carré, Professeur, directeur de Excelia Communication School, chercheur associé au laboratoire CIMEOS (Université de Bourgogne), Excelia

Derrière son apparente rationalité, Parcoursup constitue un nouveau rituel d’entrée dans l’âge adulte. Explications à l’occasion de la phase complémentaire.


Comme chaque été, lors de la « phase complémentaire » de Parcoursup, destinée aux candidats n’ayant pas reçu de proposition d’admission en juin, des milliers de bacheliers tentent de démêler les incertitudes laissées par la première vague d’affectations.

Derrière l’apparente rationalité de ce dispositif algorithmique se cache un mécanisme plus profond, souvent invisibilisé : un véritable rituel contemporain, qui transforme l’élève en candidat, le parcours en profil, et l’orientation en épreuve de sélection

Un rite moderne, mais bien réel

Depuis les travaux d’Arnold Van Gennep publiés en 1909, l’anthropologie a montré que les sociétés structurent les transitions de vie à travers des rites de passage : séparation, marge, agrégation. Parcoursup rejoue ce scénario.

D’abord, la séparation : l’élève quitte son statut protégé pour devenir un candidat. Puis vient la phase liminale : saisie des vœux, rédaction de lettres de motivation, attente silencieuse face à un algorithme opaque. Enfin, l’agrégation : le jeune devient « accepté », « recalé » ou « en attente », selon des critères rarement explicités.

Victor Turner, auteur du Phénomène rituel (1969), insistait sur la vulnérabilité propre à cette phase liminaire, qui représente le moment où les repères se brouillent et où les sujets, incertains, sont prêts à intérioriser de nouvelles normes.

C’est exactement ce qui se produit ici. Dès la classe de seconde, les élèves orientent leurs choix de spécialités, construisent leur « profil », adaptent leurs loisirs ou engagements pour « plaire » à l’algorithme, dont la logique reste pourtant largement inconnue. Le mythe d’un algorithme impartial s’impose comme un horizon indiscutable.

Le sacré numérique et l’efficacité du rite

Comme le notait l’historien et philosophe Mircea Eliade, dès les années 1960, les rituels modernes n’ont pas disparu : ils ont été sécularisés, dissimulés dans des procédures répétées.

Parcoursup fonctionne ainsi comme un rituel sacralisant l’outil technique. L’algorithme est réputé neutre car il serait dénué d’intention humaine. Il devient un oracle d’un nouveau genre : inaccessible, indiscutable, mais censé révéler la « vraie » valeur des candidats.




À lire aussi :
L’IA réactive des croyances mystiques


Ce sacré numérique résiste même à l’épreuve du réel. Des cas révélateurs circulent sur les réseaux sociaux : une lycéenne ayant remplacé sa lettre de motivation par une recette de cookies a tout de même été admise. Preuve que ces éléments sont parfois ignorés ou traités automatiquement. Ce bug symbolique n’a pas suscité d’indignation généralisée. Il a été relativisé, comme si tout dysfonctionnement relevait d’une anecdote et non d’une remise en cause systémique.

Méritocratie et soumission volontaire

En théorie, Parcoursup vise à garantir l’égalité des chances. En pratique, il transforme la sélection en preuve de mérite. Comme l’avait anticipé le sociologue Michael Young (1958), la méritocratie fonctionne comme un théâtre : elle joue l’équité tout en renforçant les hiérarchies sociales. Les chiffres sont connus : les enfants de cadres représentent plus de 50 % des admis en classes préparatoires, contre 7 % pour les enfants d’ouvriers.

Mais le plus frappant est l’absence de remise en question. Comme l’ont montré les professeurs Robert-Vincent Joule et Jean-Léon Beauvois, plus un individu est impliqué dans un système, plus il y adhère. Ici, la soumission paraît tout à fait librement consentie : les élèves investissent tant d’efforts dans la constitution de leur dossier, la rédaction de leur projet, la mise en scène de leur « cohérence », qu’il devient psychologiquement difficile de remettre en cause le dispositif.

Pierre Bourdieu (1970) parlait de « violence symbolique » pour désigner cette intériorisation de la domination. Parcoursup illustre parfaitement ce phénomène : le tri est vécu comme juste parce qu’il est présenté comme rationnel. Ceux qui échouent sont renvoyés à leur responsabilité personnelle. Et ceux qui critiquent l’algorithme se voient souvent accusés de vouloir le retour au « piston ».

Une nouvelle forme de gouvernement par les données

Parcoursup ne se contente pas de répartir les élèves : il façonne des conduites. Il incarne une forme de gouvernementalité algorithmique. Dans ce système, les individus s’autodisciplinent, optimisent leurs parcours, et se transforment en gestionnaires d’eux-mêmes. L’école devient un lieu où il ne s’agit plus seulement d’apprendre, mais de se rendre sélectionnable.

Parcoursup : la difficulté des lycéens sur liste d’attente (M6 Info, juin 2025).

Ce processus transforme en profondeur la citoyenneté éducative. L’élève devient un entrepreneur de soi, calibré pour plaire au système plus que pour interroger son sens. Luc Boltanski et Ève Chiapello dans Le nouvel esprit du capitalisme décrivaient déjà cette injonction à « se réaliser » comme une nouvelle norme de gouvernement.

Lire Parcoursup comme un rituel permet de comprendre sa puissance : il agit non par contrainte, mais par adhésion intériorisée. Loin d’être une simple plate-forme, il devient un instrument politique qui transforme l’évidence en norme. Comme le rappelait Hannah Arendt (1972), « le pouvoir n’existe que tant qu’il est rejoué ».

Il ne s’agit pas seulement de désacraliser l’algorithme, mais de repenser le processus d’orientation lui-même : non comme un outil de tri, mais comme un moment éducatif et réflexif.

Plutôt que d’ajuster nos trajectoires à une logique opaque, ne devient-il pas urgent d’ajuster les dispositifs aux finalités humaines que nous voulons défendre ? Interroger Parcoursup, c’est rouvrir une question essentielle : à quoi, pour qui, et avec qui, voulons-nous être formés aujourd’hui ?

The Conversation

Emmanuel Carré ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Parcoursup, ou les discrets rites de la méritocratie algorithmique – https://theconversation.com/parcoursup-ou-les-discrets-rites-de-la-meritocratie-algorithmique-259219

Empreinte carbone : tous les barils de pétrole ne se valent pas et cela a son importance pour la transition énergétique

Source: The Conversation – Indonesia – By Renaud Coulomb, Professor of Economics, Mines Paris – PSL

L’empreinte carbone de l’extraction pétrolière peut varier considérablement d’un gisement à un autre. Une stratégie fondée sur la décarbonation de l’offre pétrolière pourrait donc compléter avantageusement les mesures traditionnelles basées sur la réduction de la demande… à condition que l’on dispose de données fiables et transparentes sur les émissions de gaz à effet de serre de l’industrie pétrolière.


Réduire les émissions de gaz à effet de serre (GES) liées au pétrole ne se résume pas à réduire seulement la consommation de produits pétroliers. En effet, l’empreinte carbone liée à leur production varie considérablement d’un gisement à un autre. Dans ces conditions, pour limiter leur impact environnemental, il est crucial de privilégier des gisements dont l’empreinte carbone et les coûts d’extraction sont les plus faibles.

Combinée aux mesures traditionnelles pour réduire la demande de pétrole (sobriété énergétique, développement des transports électriques…), une stratégie centrée sur la décarbonation de l’offre pétrolière peut donc accélérer les baisses d’émissions, tout en réduisant leur coût économique. C’est ce que nous montrons dans une recherche récemment publiée.

Mais pour que cela fonctionne, il est essentiel de disposer de données précises et transparentes quant aux émissions de cette industrie. Sans quoi, toute régulation basée sur l’intensité carbone de l’exploitation des gisements de pétrole risque d’être inefficace.

Les barils de pétrole n’ont pas tous la même intensité carbone

Les barils de pétrole diffèrent non seulement par leur coût d’extraction, mais aussi par leur empreinte carbone.

L’exploitation des sources de pétrole les plus polluantes, comme les sables bitumineux du Canada, génère en moyenne plus de deux fois plus d’émissions de GES par baril que l’exploitation de pétroles plus légers provenant de pays comme l’Arabie saoudite ou la Norvège.

Ces différences s’expliquent par les propriétés physiques du pétrole (densité et viscosité, par exemple), les contraintes géologiques liées aux gisements et les méthodes d’extraction utilisées (notamment la combustion sur site – dite torchage – c’est-à-dire rejet direct dans l’atmosphère du gaz naturel, qui accompagne souvent l’extraction de pétrole).

Cette hétérogénéité des gisements, combinée à l’abondance du pétrole au regard des objectifs climatiques discutés lors des COP, fait de la sélection des gisements à exploiter un levier important de réduction des émissions.

L’offre pétrolière, un levier d’atténuation sous-estimé

Depuis le Sommet de la Terre de Rio en 1992, date historique dans la reconnaissance du problème climatique et de son origine humaine, les producteurs de pétrole n’ont pas tenu compte des différences d’intensité carbone de leurs produits, liées à l’extraction et au raffinage.

Ce n’est guère surprenant : aucune réglementation ou régulation notable ne les a incités à le faire. De manière générale, les émissions de GES dues à la production et au raffinage du pétrole n’ont pas été tarifées par les grands pays producteurs de manière à refléter les dommages causés à l’environnement.

Nos recherches montrent que cette omission a eu d’importantes conséquences climatiques.

Nous avons calculé les émissions qui auraient pu être évitées de 1992 à 2018, si l’on avait modifié l’allocation de la production entre les différents gisements en activité – sans modifier les niveaux globaux de production et en prenant en compte les contraintes de production de chaque gisement – de sorte à en minimiser le coût social total – c’est-à-dire, en prenant en compte à la fois les coûts d’extraction et les émissions de GES. Près de 10 milliards de tonnes équivalent CO2 (CO2e) auraient ainsi pu être évitées, ce qui équivaut à deux années d’émissions du secteur du transport mondial.

Au coût actuel du dommage environnemental, estimé à environ 200 dollars par tonne de CO₂, cela représente 2 000 milliards de dollars de dommages climatiques évités (en dollars constants de 2018).

Les efforts actuels visent surtout à réduire la consommation globale de pétrole, ce qui est nécessaire. Mais nos résultats montrent qu’il est également important de prioriser l’exploitation des gisements moins polluants.

Pour réduire le coût social de l’extraction à production totale constante, il aurait mieux valu que des pays aux gisements très carbonés, comme le Venezuela ou le Canada, réduisent leur production, remplacée par une hausse dans des pays aux gisements moins polluants, comme la Norvège ou l’Arabie saoudite.

Même au sein des pays, les différences d’intensité carbone entre gisements sont souvent importantes. Des réallocations internes aux pays permettraient d’obtenir des réductions d’émissions du même ordre de grandeur que celles obtenues en autorisant les productions agrégées de chaque pays à changer.

Intégrer ce levier aux politiques publiques

Même si ces opportunités de baisse d’émissions ont été manquées dans le passé, nous avons encore la possibilité de façonner l’avenir de l’approvisionnement en pétrole.

Si l’on reprend les hypothèses de calcul qui précèdent, et en supposant que le monde s’engage sur une trajectoire zéro émissions nettes (Net Zero Emissions, NZE) en 2050, prendre en compte l’hétérogénéité de l’intensité carbone entre les gisements dans les décisions d’approvisionnement en pétrole permettrait :

  • de réduire nos émissions de 9 milliards de tonnes (gigatonnes) CO2e d’ici à 2060,

  • d’éviter environ 1 800 milliards de dollars en dommages, et cela sans réduire davantage la consommation par rapport au scénario NZE.


Visuel d'illustration de la newsletter Ici la Terre représentant la planète Terre sur un fond bleu.

Abonnez-vous dès aujourd’hui.

Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».


Or, le débat politique se concentre souvent sur la réduction de la demande de pétrole, avec la mise en place d’outils tels que les incitations à l’adoption des véhicules électriques ou les taxes sur les produits pétroliers. Une baisse de la demande de pétrole est évidemment indispensable pour maintenir le réchauffement planétaire en dessous de 1,5 °C ou même 2 °C.

Mais tant que l’on continue d’en consommer, prioriser les gisements à moindre intensité carbone offre une opportunité complémentaire pour réduire les émissions.

Pour gagner en efficacité, les politiques publiques pourraient intégrer une tarification carbone plus exhaustive, qui tiendrait compte des émissions sur tout le cycle de vie des produits pétroliers, de l’exploration pétrolière jusqu’à la combustion des énergies fossiles.

Celles-ci pourraient être complétées par des ajustements aux frontières, sur le modèle de ce que l’Union européenne s’apprête à faire pour l’empreinte carbone des produits importés, si cette tarification n’est pas adoptée à l’échelle mondiale. Ou encore, cela pourrait passer par l’interdiction directe de l’extraction des types de pétrole dont l’exploitation de gisement émet le plus d’émissions de GES (par exemple, le pétrole extra-lourd ou les gisements présentant des niveaux très élevés de torchage), dans un soucis de simplification administrative.

Certaines politiques vont déjà dans ce sens. La Californie, avec son Low Carbon Fuel Standard, a été pionnière en différenciant les carburants selon leurs émissions sur l’ensemble du cycle de vie, afin de réduire l’intensité carbone moyenne du carburant utilisé sur le territoire.

En Europe, la directive sur la qualité des carburants (modifiée par la nouvelle directive sur les énergies renouvelables) promeut les biocarburants, mais ne distingue pas finement les produits pétroliers selon leur intensité carbone.

L’enjeu crucial de l’accès aux données

La mise en œuvre de ces politiques repose toutefois sur un pilier crucial : l’accès à des données publiques fiables sur l’intensité carbone des gisements de pétrole.

Et c’est là le nœud du problème : ces estimations varient fortement selon les sources. Par exemple, l’Association internationale des producteurs de pétrole et de gaz (IOGP) publie des chiffres presque trois fois inférieurs à ceux issus d’outils plus robustes, comme celui développé par l’Université de Stanford et l’Oil-Climate Index.

Cet écart s’explique en partie par des différences dans le périmètre des émissions prises en compte (exploration, construction des puits, déboisement, etc.), mais aussi par des écarts dans les données utilisées. En ce qui concerne le torchage et le rejet direct dans l’atmosphère du gaz naturel, l’IOGP s’appuie sur des chiffres déclarés volontairement par les entreprises. Or, ceux-là sont notoirement sous-estimés, d’après des observations provenant de l’imagerie satellitaire.

Il est ainsi impossible d’appliquer de façon efficace des régulations visant à discriminer les barils de pétrole selon leur intensité carbone si on ne dispose pas de données fiables et surtout vérifiables. La transparence est donc essentielle pour vérifier les déclarations des entreprises.

Cela passe par des mécanismes de surveillance rigoureux pour alimenter des bases de données publiques, que ce soit par satellite ou par des mesures indépendantes au sol. Le recul récent aux États-Unis quant à la publication de données climatiques fiables par les agences gouvernementales accentue encore ces défis. En effet, les estimations des émissions liées au torchage de méthane utilisées dans notre étude reposent sur l’imagerie satellite de la National Oceanic and Atmospheric Administration (NOAA) et de la Nasa.

The Conversation

Renaud Coulomb a reçu des financements de Mines Paris-Université PSL, Université de Melbourne, Fondation Mines Paris, La Chaire de Mécénat ENG (Mines Paris – Université Dauphine – Toulouse School of Economics – DIW, parrainée par EDF, GRTGaz, TotalEnergies). Il ne conseille pas et ne détient pas d’actions de sociétés pétrolières ou gazières.

Fanny Henriet a reçu des financements de l’Agence Nationale de la Recherche et de la Banque de France. Elle est membre du Conseil d’Analyse Economique. Elle ne conseille pas et ne détient pas d’actions de sociétés pétrolières ou gazières.

Léo Reitzmann a reçu des financements de l’Agence Nationale de la
Recherche via le programme Investissements d’Avenir ANR-17-EURE-0001. Il ne conseille pas et ne détient pas d’actions de sociétés pétrolières ou gazières.

ref. Empreinte carbone : tous les barils de pétrole ne se valent pas et cela a son importance pour la transition énergétique – https://theconversation.com/empreinte-carbone-tous-les-barils-de-petrole-ne-se-valent-pas-et-cela-a-son-importance-pour-la-transition-energetique-258617

La compensation centralisée permet-elle vraiment une finance plus stable ?

Source: The Conversation – Indonesia – By John Zhang, Professeur de comptabilité, Audencia

Pensée et voulue pour éviter une nouvelle crise de 2008, la compensation centralisée crée paradoxalement de nouveaux risques. Le bilan des risques et des protections apportées par ce dispositif est très complexe à réaliser. Régulateurs et investisseurs débattent de la question de la compensation depuis plusieurs années, avec des arguments et des intérêts pas toujours convergents.


Pensant tirer des leçons de la crise financière de 2007-2008, les régulateurs mondiaux avaient décidé, lors du sommet du G20 en 2009, d’introduire une réforme qu’ils considéraient comme essentielle pour renforcer la stabilité des systèmes financiers : la compensation centralisée obligatoire sur les produits dérivés. Lancé finalement en France à l’été 2016 à la suite du règlement européen Emir, ce processus comporte d’indéniables atouts mais aussi d’importants inconvénients.

Ce mécanisme exige que les échanges de produits dérivés passent par une chambre de compensation indépendante, et ne soient plus directement conclus entre les parties qui vendent et achètent ces produits. Pour rappel, les produits dérivés sont des titres dont la valeur dépend d’un indice ou du prix d’un autre titre. Ils permettent aux spéculateurs de prendre des risques : si un titre est assis sur le cours du dollar et qu’il pense que celui va s’envoler, il aura tout intérêt à en faire l’acquisition pour réaliser une plus-value. Le céder aujourd’hui pour qui en possède un, c’est se débarrasser d’un risque, celui d’un effondrement de la monnaie américaine.

Des garanties conséquentes

Contrairement à la négociation d’actions, qui s’effectue principalement par l’intermédiaire d’une bourse indépendante tierce, la négociation de produits dérivés s’effectue de gré à gré, c’est-à-dire directement entre les parties qui vendent et achètent. Pour mettre en œuvre cette réforme, en 2012, les régulateurs de l’UE et des États-Unis ont adopté des règles visant à instaurer des exigences de compensation pour certains produits dérivés et ils ont ensuite progressivement élargi la liste des types de produits dérivés concernés.

La mise en œuvre de la compensation centralisée des produits dérivés exige que les parties négociantes déposent des garanties conséquentes auprès de la chambre de compensation pour mener à bien la transaction. Évidemment, de telles exigences augmentent les contraintes de qui veut négocier, ce qui a suscité des inquiétudes parmi les politiques.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Néanmoins, le mécanisme permet, plutôt que d’avoir à régler tous ses achats et encaisser toutes ses ventes, de ne régler auprès de la chambre ou de recevoir d’elle que le solde net qui apparaît lorsque l’on fait la somme de toutes les transactions. Imaginons une institution A qui achète un titre deux millions à B, un autre trois millions à C et en vend un six millions à D. Plutôt que de réaliser trois mouvements sur son compte, elle n’en réalisera qu’un seul de montant moindre : recevoir un million. Cet exemple montre que le mécanisme peut de facto compenser les exigences accrues de garanties. Cela peut finalement contribuer à atténuer les contraintes de capital des institutions financières. D’autant plus si elles répercutent le mécanisme au sein de leur bilan.

Le paradoxe de la transparence

La question de savoir si la compensation doit être autorisée fait l’objet d’un débat permanent entre les régulateurs et les investisseurs. Les principes comptables généralement admis aux États-Unis (GAAP) permettent aux institutions financières de choisir de compenser ou non leurs actifs et leurs passifs et de ne comptabiliser que les valeurs nettes, ce qui peut réduire de manière significative le capital réglementaire nécessaire. En comparaison, les normes internationales d’information financière (IFRS) sont plus restrictives et n’autorisent la compensation et la présentation nette que lorsque la partie déclarante dispose d’un droit donné par la loi de compenser les montants comptabilisés.

Banque de France 2017.

La différence entre les GAAP et les IFRS réside dans les divergences de vues quant à la compensation. Tandis que les institutions financières soutiennent que la compensation peut alléger leurs contraintes en termes de capital et de liquidité, les régulateurs craignent qu’elle ne réduise la transparence des rapports financiers, ce qui pourrait nuire à la stabilité financière. En effet, une fois les actifs et les passifs financiers compensés, les risques contenus dans ces actifs et ces passifs ne seraient plus détectables par les régulateurs et les investisseurs extérieurs.

Une réforme paradoxale ?

La réforme de la compensation centralisée s’appuie pourtant sur l’argument qu’elle peut améliorer la transparence du marché des produits dérivés. Le mécanisme accroît par exemple la transparence post-négociation grâce à la publication d’informations sur la position des débiteurs, comme le volume quotidien des transactions, l’intérêt ouvert et les prix de règlement. Un mécanisme de compensation centralisée enregistre toutes les transactions par compensation et génère une transparence des positions qui permet aux acteurs du marché de fixer le prix de leurs contrats sur la base du risque des positions globales de leur partenaire (selon qu’on le sache plus ou moins débiteur déjà).

Ainsi, la transparence créée par la compensation centralisée décourage l’accumulation de dettes excessives et réduit l’externalité du risque qu’un créancier fasse défaut sur le marché. Il semble donc y avoir un paradoxe au cœur de la réforme de la compensation centralisée. Qu’en penser ?




À lire aussi :
L’éthique a-t-elle sa place chez les traders ?


Conséquences économiques

Nos recherches indiquent que les banques visant une adéquation du capital élevée (leurs risques sont fortement couverts par leurs fonds propres) ont augmenté significativement leur compensation des produits dérivés au sein de leurs bilans après la mise en œuvre de la réglementation sur la compensation centralisée obligatoire, tandis que celles dont l’adéquation visée est faible (les risques sont peu couverts) la diminuent.

[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]

L’ampleur de nos résultats suggère un phénomène qui n’est pas économiquement négligeable. Nos calculs démontrent qu’avec l’adoption de la compensation centralisée obligatoire, les banques ayant un objectif élevé d’adéquation de fonds propres ont augmenté leur compensation de produits dérivés de 25,8 % de plus en juste valeur que les banques ayant un objectif faible d’adéquation de fonds propres. C’est une part significative de l’ensemble des actifs de la banque qui est ainsi concernée.

Nos données suggèrent un potentiel revers de la réforme de la compensation centralisée. Si la réforme de la compensation centralisée améliore la transparence du marché des produits dérivés, les possibilités accrues de compensation peuvent être exploitées par les dirigeants des banques dans leurs bilans en fonction de leurs objectifs. Les banques visant des ratios de fonds propres plus élevés peuvent choisir d’augmenter les compensations afin d’atteindre cet objectif. En outre, une compensation accrue réduirait également la transparence des rapports financiers au sein de ces banques. Les régulateurs doivent ainsi parvenir à un équilibre optimal entre les avantages et les inconvénients de la compensation afin d’atteindre les objectifs de cette réforme d’envergure.

The Conversation

John Zhang ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La compensation centralisée permet-elle vraiment une finance plus stable ? – https://theconversation.com/la-compensation-centralisee-permet-elle-vraiment-une-finance-plus-stable-242989

Deezer face aux géants de la musique en ligne : la preuve par le metal

Source: The Conversation – Indonesia – By Emilie Ruiz, Maitre de conférences HDR, Université Savoie Mont Blanc

Comment faire pour exister quand on est une entreprise française face aux géants que sont Apple Music, Amazon Music ou Spotify ? Deezer a innové et cela semble payer pour le moment. Parmi les facteurs de succès, la création d’un lien, via la plateforme, entre les artistes et leur public joue un rôle. Démonstration avec le cas de la musique metal.


En moins de deux décennies, l’industrie musicale est passée de la vente de produits physiques à une économie de l’accès numérique. Cette transition ne s’est pas faite sans heurts. Ce changement a bouleversé les équilibres économiques, fragilisant disquaires et labels indépendants, tout en faisant émerger de nouvelles formes de médiation. Dans ce paysage, les plateformes comme Spotify, Apple Music, Amazon Music ou Deezer sont devenues incontournables.

Mais ces acteurs ne se contentent pas de diffuser de la musique. Ils concentrent les fonctions de diffusion, de recommandation, de mesure et de monétisation, transformant les chaînes de valeur culturelles et les relations entre artistes, producteurs et publics, selon leurs propres logiques.

Parmi elles se trouve une plateforme française fondée en 2007 : Deezer. Elle se distingue par une stratégie singulière, alliant innovation technologique, responsabilité culturelle et ancrage communautaire.

Un acteur industriel à part entière

Comme ses concurrents, Deezer propose un abonnement donnant accès à des millions de titres en streaming. La plateforme permet par ailleurs la création de playlists et de recommandations personnalisées. Son algorithme « Flow » structure les pratiques d’écoute en hiérarchisant les contenus selon les goûts de l’utilisateur.

Derrière cette logique standardisée, Deezer adopte une stratégie distincte reposant sur trois axes :

  • valorisation des scènes locales et francophones,

  • éditorialisation humaine en complément de l’algorithme,

  • engagement pour une rémunération plus équitable.

En France, Deezer expérimente un modèle dit « user-centric » rémunérant les artistes selon les écoutes réelles de chaque utilisateur. De cette façon, la plateforme affiche un soutien envers les créateurs plus confidentiels. Elle développe aussi des outils pour identifier puis limiter la visibilité de la musique produite par des outils d’intelligence artificielle, qui représente environ 10 % des morceaux livrés quotidiennement sur la plateforme tout en renforçant les interactions entre les artistes et leur public grâce à des fonctionnalités communautaires.


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Le metal : une niche exemplaire

Parmi les multiples genres musicaux présents sur les plateformes, le metal occupe une place singulière. Historiquement ancré dans une culture de l’objet attachée aux CD et vinyles, son accès s’est longtemps fait en marge des circuits traditionnels, reposant sur l’achat de supports physiques. Peu visible dans les classements globaux, peu présente dans les médias généralistes, la musique metal représente pourtant l’une des scènes les plus structurées, fidèles et engagées.

Si la place des labels a largement évolué ces dernières années, cette transformation est particulièrement marquante dans le metal, où ils continuent de jouer un rôle de pivot, que ces labels soient internationaux ou des disquaires locaux. Dans un écosystème encore très attaché à la production physique, à la cohérence esthétique et à la construction d’une identité sonore, les labels sont des acteurs culturels, à la fois garants de la ligne artistique et médiateurs entre les groupes et leur public.

Nouvelles visibilités pour des groupes underground

Mehdi El Jaï, PDG du label Verycords (Mass Hysteria, Ultra Vomit, Psykup, Akiavel, etc.), souligne que les plateformes, comme Deezer, ont offert une visibilité inédite à des groupes jusque-là confinés aux circuits spécialisés. Grâce à une éditorialisation ciblée et à des partenariats pertinents, les labels prolongent leur rôle de prescripteurs tout en s’adaptant aux nouvelles logiques d’accès. Il note que, si ces plateformes ont aidé à réduire le piratage, elles ont aussi profondément bouleversé l’écosystème. Il reconnaît néanmoins l’intérêt particulier de Deezer pour la scène metal :

« On a organisé de beaux événements avec eux, comme une pré-écoute de “Matière noire”, de Mass Hysteria, qui a contribué à un beau lancement. La plateforme est très à cheval sur la chasse aux “fake streams”, qui polluent aussi une partie du business, car on est sur un modèle de “market-share” et pas “user-centric”, donc c’est très pernicieux. […] Deezer est très à cheval sur des enjeux liés à l’économie du disque, l’économie du producteur phonographique et donc à des enjeux d’avenir. »

Cohérences communautaires

Contrairement à des styles portés par les playlists virales, le metal s’appuie sur une écoute active, fidèle et passionnée, même s’il existe des différences en fonction des différents sous-genres, plus ou moins attachés au support physique. Pour Mehdi El Jaï :

« Aujourd’hui, tu achètes un disque d’artistes dont tu es fondamentalement fan, ce qui a des implications sur les ventes et donc sur la popularité, l’exposition, et sur l’ensemble de la chaîne de valeur. À l’instar des réseaux sociaux, il y a [avec les plateformes de streaming] une volonté de développer les communautés qui sont liées aux artistes, c’est le sens de l’histoire. »

BFM 2022.

Conscient de ce potentiel, Deezer a créé plusieurs dispositifs pour valoriser la scène metal :

  • playlists spécialisées créées par des éditeurs humains, couvrant à la fois les grands sous-genres (black, death, thrash, prog et des niches plus pointues ;

  • présence renforcée dans les recommandations personnalisées grâce à une hiérarchisation adaptée, avec des contenus éditoriaux spécifiques (interviews, sélections liées à des festivals comme le Hellfest ou le Motocultor.

Un levier d’ouverture

Fort de cette stratégie, Deezer peut tisser un lien fort avec une scène exigeante, attachée à la fidélité et à la connaissance. Le streaming devient ainsi un levier d’ouverture internationale pour les groupes underground, à condition d’être bien éditorialisé.

« Les plateformes nous permettent aussi des revenus que l’on n’aurait pas sans elles. Tu prends des gens qui écoutent Myrath en Indonésie, comment je les aurais touchés avant, je n’en sais rien. Aujourd’hui, on a des gens qui écoutent Myrath en Indonésie, au Pérou, en Argentine. »

Si Deezer cherche à mieux rémunérer les artistes, le modèle du streaming reste imparfait. L’algorithme tend à uniformiser les écoutes, au détriment de la diversité, notamment dans des genres comme le metal, dont il peine à saisir les spécificités.

Côté utilisateurs, l’abonnement limite l’accès complet et l’abondance de contenus peut rendre l’écoute plus superficielle. Néanmoins, face à un disquaire en difficulté ou à des médias spécialisés en crise, Deezer, malgré ces limites, reste aujourd’hui un moyen privilégié d’accès à la musique.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Deezer face aux géants de la musique en ligne : la preuve par le metal – https://theconversation.com/deezer-face-aux-geants-de-la-musique-en-ligne-la-preuve-par-le-metal-256593

Des réseaux et des ailes : comment Boeing parvient-il à se maintenir en vol ?

Source: The Conversation – Indonesia – By Christine Marsal, Maitre de conférences HDR, Contrôle de gestion, gouvernance des banques, Université de Montpellier

Mais qu’arrive-t-il à Boeing ? Le constructeur aérien, symbole de la puissance des États-Unis, traverse des turbulences depuis plusieurs années. Depuis les crashs du 737 Max et l’accident très récent du 787 d’Air India, les causes sont multiples. Reste une interrogation sur cette succession de difficultés. La gouvernance de l’entreprise pourrait livrer une partie de la solution.


Les déconvenues financières de Boeing n’en finissent plus de se creuser : après des pertes cumulées de près de 20 milliards d’euros perdus entre 2020 et 2023, l’exercice 2024 fait ressortir une perte de près de 11,345 milliards d’euros. La « descente aux enfers » semble inéluctable et pourtant l’avionneur a récemment remporté un important contrat militaire et de nouvelles commandes en provenance d’un loueur d’avions basé à Singapour. Si les raisons des déboires financiers sont connues, comment expliquer que l’entreprise conserve la confiance des investisseurs ? Tout d’abord, le poids de fonds de pension dans le capital de l’entreprise est-il passé de 47 % en 2020 à près de 68 % en 2025. Entre 1997 et 2019, les dirigeants décident d’augmenter progressivement le dividende de 0,56 dollar par action en 1997 à 8,19 dollars en 2019. Destinée à rassurer les actionnaires, cette politique de dividendes ne peut expliquer, seule, l’apparente stabilité des investisseurs.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Alors que de graves problèmes de qualité ont émaillé l’actualité récente de l’avionneur, rien ne semble stopper Boeing. Au fil des ans, l’entreprise a su se constituer un solide réseau d’affaires, doublé d’un réseau d’influence qui la rendent aujourd’hui « intouchable ». Pour comprendre cette résistance aux aléas technologique et financier nous analysons la composition de son conseil d’administration sur plusieurs années.




À lire aussi :
Boeing peut-il encore redécoller ? Retour sur une défaillance structurelle


Qui dirige ?

Dans les grandes entreprises cotées, le Conseil d’administration (CA) est censé représenter les actionnaires, qui sont les propriétaires des entreprises. Il nomme le président, valide la stratégie, surveille l’action du directeur général et peut même le révoquer. Ses membres sont élus en assemblée générale, souvent sur recommandation d’un comité de nomination, selon des critères de compétence, de diversité et d’indépendance.

Mais ce fragile équilibre peut être remis en cause quand le directeur général est aussi président du Conseil. Ce cumul des fonctions – le fameux PDG – fait de la même personne le stratège, l’exécutant… et le contrôleur de sa propre action. Ce qui pose la question du maintien de ce cumul. Le cas de Boeing illustre parfaitement les dérives de ce cumul à travers les résultats d’un article de recherche paru en 2023. Les données observées portent sur la période allant de 1997 à 2020. Il en ressort notamment que le manque de diversité au sein du conseil d’administration peut expliquer en partie les déboires rencontrés par l’entreprise.

Un Conseil d’administration dominé par son PDG

Ce cumul des fonctions – président du CA et directeur général – concentre les pouvoirs au sommet et réduit la capacité de contre-pouvoir interne. C’est d’autant plus vrai que le Conseil d’administration (CA) reste resserré, entre 11 et 13 membres seulement sur la période considérée.

La diversité progresse timidement. En 1997, seules deux femmes siègent au CA. Elles sont trois en 2020, soit à peine 23 % des membres (toujours 3 femmes en 2024). Sur l’ensemble de la période, on compte rarement plus de deux ou trois représentants des minorités ethniques (afro-américaine, hispanique, asiatique ou indienne), souvent des femmes issues de ces communautés.

Le CA s’organise autour de quatre comités classiques – audit, finance, rémunérations, nominations – auxquels se sont ajoutés en 2020 deux nouveaux comités. Le premier consacré aux « programmes spéciaux » réunit d’anciens PDG et des membres ayant une expérience militaire. Le second, centré sur la sécurité, est une réaction directe aux accidents du 737 Max.

En moyenne, les administrateurs rejoignent le Conseil à 56 ans et le quittent autour de 66 ans. Le taux de renouvellement est élevé : pas moins de 38 administrateurs différents se sont succédé au fil des années. Un renouvellement qui n’a pas toujours permis d’assurer un meilleur équilibre des profils ni une gouvernance plus indépendante.

Le Figaro 2019.

Ingénieurs en recul, financiers en force

Les profils techniques issus de l’industrie, les spécialistes des projets complexes sont évincés au fil du temps. Entre 2012 et 2014, ils disparaissent quasiment du Conseil d’administration. Leur place est désormais occupée par des experts en réduction des coûts, des directeurs financiers, d’anciens banquiers. L’arrivée de JimcNerney en 2005 marque la montée en puissance d’anciens collaborateurs du groupe General Electric.

Entre 2012 et 2016, le Conseil d’administration de Boeing se politise un peu plus. Plusieurs anciens hauts responsables rejoignent ses rangs un ex-secrétaire à la Défense, un ancien représentant des États-Unis à l’ONU, deux ambassadeurs, un ancien assistant à la Maison Blanche… Des figures influentes, républicaines comme démocrates, se succèdent au CA.


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Présence des militaires

La présence des militaires (anciens militaires ou militaires à la retraite) se renforce aussi. De 1997 à 2020 on identifie successivement un ancien « Marines », un ancien général ayant travaillé au secrétariat d’État à la défense, un général retraité des marines, un vice-amiral et un amiral à la retraite. Par ailleurs, plusieurs militaires ont exercé des fonctions au sein de l’OTAN. Cet aspect est toujours présent en 2024.

Ce virage confirme une tendance déjà amorcée : Boeing renforce ses liens avec les sphères du pouvoir, au moment même où il s’éloigne de ses racines industrielles. Le Conseil devient moins un organe de pilotage technique qu’un levier stratégique et politique.

Focus sur l’efficacité financière

Dans le même temps, Boeing taille dans ses effectifs : 231 000 salariés en 1997, 141 000 en 2020. Le ton est donné : priorité à l’efficacité financière, au détriment des compétences techniques et écologiques, reléguées au second plan.

Ce virage intervient pourtant à un moment clé pour le groupe. Le programme 787 « Dreamliner » est lancé avec son lot d’innovations : matériaux composites, nouveaux moteurs, nouveaux modes de collaboration avec les sous-traitants. Des projets de cette envergure nécessitent un pilotage éclairé. Mais paradoxalement, alors que la technologie prend de l’ampleur, le Conseil d’administration se vide de ses experts techniques.

Le même scénario se reproduit avec le 737 Max. Officiellement, l’appareil n’est qu’une mise à jour d’un modèle existant. Officieusement, les ingénieurs tirent la sonnette d’alarme : les choix techniques sont risqués, un nouvel avion serait plus sûr. Mais leurs avertissements restent lettre morte. Faute de relais au sein du CA, ils ne sont pas entendus.

France 24 2025.

Un CA trop homogène pour débattre

À force de privilégier les profils issus de la finance ou des milieux politiques, Boeing s’est privé de diversité de pensée. Moins de débats, moins de confrontations d’idées. Or, c’est souvent dans ces frictions que naissent les bonnes décisions. Dans le cas du 737 Max, le manque de dialogue a permis à des failles de sécurité de passer sous les radars.

Pire encore, une enquête du Sénat américain suggère que la proximité du groupe avec certains décideurs politiques aurait facilité une certification accélérée de l’appareil. In fine, cela pourrait paradoxalement ne pas avoir servi l’entreprise dont la réputation est ternie depuis des catastrophes aériennes ayant provoqué des morts. Dans les faits, les causalités sont sûrement plus complexes et cette proximité est un des facteurs qui peut expliquer mais il serait excessif d’en faire le seul facteur.

Pendant les déboires des programmes Dreamliner et MAX, plusieurs actionnaires tentent de tirer la sonnette d’alarme. La ville de Livonia (Michigan), ainsi que les géants de la gestion d’actifs Vanguard et BlackRock, demandent des comptes. Livonia dénonce un manque de transparence sur le programme 787. Vanguard, de son côté, interpelle la direction sur la sécurité du 737 Max et s’interroge sur l’implication réelle du Conseil d’administration.

Administrateurs accusés

Ces pressions aboutissent à une action en justice : les membres du CA sont accusés de ne pas avoir exercé leur devoir de surveillance, notamment sur les questions de sécurité. Le dossier se solde par un accord à l’amiable. Boeing accepte de verser 225 millions de dollars… non pas directement, mais via ses assureurs.

En clair : les administrateurs condamnés échappent à toute responsabilité financière personnelle. Début 2025, un autre accord a mis fin aux poursuites pénales ouvertes après les deux crashs du 737 Max en 2018 et 2019. L’entreprise évite ainsi un procès public potentiellement explosif, au prix d’un règlement négocié avec le gouvernement américain.

Ironie de l’histoire : lors du développement du Dreamliner, les dirigeants de Boeing avaient reconnu le rôle crucial des ingénieurs dans la coordination avec les sous-traitants. Mais cette prise de conscience n’a pas résisté à la logique financière qui s’est installée au sommet. Chez Boeing, ce n’est pas une crise technologique qui a précipité la chute du 737 Max, mais une crise de gouvernance. Une entreprise qui conçoit des avions sans écouter ses ingénieurs prend le risque, un jour, de ne plus savoir les faire voler.

The Conversation

Christine Marsal ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Des réseaux et des ailes : comment Boeing parvient-il à se maintenir en vol ? – https://theconversation.com/des-reseaux-et-des-ailes-comment-boeing-parvient-il-a-se-maintenir-en-vol-259749

Le Brésil, laboratoire du vin de demain

Source: The Conversation – Indonesia – By Sylvaine Castellano, Directrice de la recherche, EM Normandie

La vallée des vignobles de Bento Gonçalves dans Rio Grande do Sul au Brésil a été fortement influencée par les descendants des immigrants italiens venus dans la région. ViagenseCaminhos/Shutterstock

Le Brésil dispose de tous les atouts pour devenir un acteur clé du vin au XXIe siècle… à condition d’assumer pleinement son rôle : un laboratoire d’expérimentation, de consommation et de durabilité viticole à l’échelle mondiale. Après le football et le café, le vin, nouvel emblème du Brésil ?


Le Brésil, pays le plus peuplé d’Amérique du Sud avec 212 583 750 d’habitants et cinquième producteur de vin de l’hémisphère sud, suscite un intérêt international croissant. Longtemps perçu comme un acteur marginal sur la scène viticole, il connaît une transformation rapide, portée par des innovations techniques, une diversification de ses terroirs et une nouvelle génération de consommateurs.

Cette dynamique fait du pays un véritable laboratoire des nouvelles tendances mondiales du vin. Le marché brésilien connaît une croissance impressionnante : 11,46 milliards d’euros de chiffre d’affaires en 2024, avec des prévisions atteignant 19,12 milliards d’euros d’ici 2030, à un rythme de croissance annuelle moyen de 9,1 %. En valeur, le Brésil représente aujourd’hui 2,6 % du marché mondial du vin.

Comment expliquer ce marché émergent ?

Nouveaux terroirs

Le pays produit entre 1,6 et 1,7 million de tonnes de raisins par an, sur près de 81 000 hectares. Le sud du pays reste le cœur de la viticulture brésilienne, avec 90 % de la production concentrée dans l’État du Rio Grande do Sul. La région de Pinto Bandeira s’est distinguée pour ses vins mousseux de qualité, produits selon la méthode traditionnelle, à base de Chardonnay et de Pinot noir.

Le Brésil est le douzième producteur de vin au monde.
Atlasbig

De nouvelles régions émergent. Santa Catarina, avec ses vignobles d’altitude à São Joaquim, favorise une production de mousseux fins dans un climat frais. Plus audacieux encore, la vallée du São Francisco, dans le nord-est tropical, permet deux vendanges par an grâce à son climat semi-aride. Dans les zones plus chaudes comme São Paulo ou Minas Gerais, les producteurs innovent avec la technique de la poda invertida, ou taille inversée. Ils repoussent la récolte vers des périodes plus fraîches, améliorant la qualité des raisins.

Vin d’entrée de gamme et vin blanc

En 2023, le Brésil a importé 145 millions de litres de vin, soit une baisse de 5,91 % en volume – en gommant l’inflation –, mais une hausse de 5 % en valeur – sans effet d’un changement de prix.

Les vins d’entrée de gamme – inférieurs à 20 euros – dominent avec 65 % du volume. Les vins premium – supérieurs à 80 euros – ont progressé de 31 % en volume et 34 % en valeur. Le Chili reste le principal fournisseur, devant le Portugal et l’Argentine. La France, cinquième fournisseur avec 7 % de parts de marché. L’Hexagone consolide sa position grâce à ses effervescents et ses Indications géographiques protégées (IGP).

Longtemps dominé par le rouge et les mousseux, le marché brésilien voit le vin blanc progresser fortement : 11 % d’importations en plus en 2023, représentant désormais 22 % du marché. Cette tendance s’explique par le climat, mais aussi par une recherche de fraîcheur, de légèreté, et de moindres teneurs en alcool. Les vins blancs aromatiques et floraux séduisent particulièrement les jeunes et les femmes, bouleversant les codes traditionnels.

Millennials et Gen Z

Le renouveau du marché brésilien repose en grande partie sur les jeunes générations. Selon une étude, 37 % des millennials et Gen Z déclarent préférer le vin, juste derrière la bière (44 %), et devant les spiritueux. La consommation de vin devient plus quotidienne, intégrée à des moments conviviaux. Les Brésiliennes représentent 53 % des consommateurs en 2024, contre 47 % en 2019. La part des consommatrices âgées de 55 à 64 ans est même passée de 14 % à 19 %. Ce public, en pleine mutation, recherche des vins plus accessibles, des expériences partagées, et des marques engagées.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Vers une viticulture plus durable

La durabilité devient un atout compétitif majeur. À Encruzilhada do Sul, le domaine Chandon (LVMH) a lancé un mousseux premium, à partir de pratiques durables certifiées PIUP, bien que non bio. Selon son œnologue Philippe Mével, ces démarches améliorent la santé des sols et la productivité, tout en réduisant les intrants.

Vue de la Salton Valley
Le domaine de Salton fait partie des grands domaines reconnus, dans l’état du Rio grande do sul située le long des frontières uruguayenne et argentine.
ViagenseCaminhos/Shutterstock

La vinícola Salton, quant à elle, compense ses émissions de 951 tonnes de CO₂ en 2020 par la conservation de 420 hectares de pampa native, et des actions de reforestation. Elle vise la neutralité carbone d’ici 2030 via des énergies renouvelables et des matériaux recyclés.

Adapter la communication

Malgré ces avancées, le vin brésilien souffre d’une image encore trop classique. Pour séduire les jeunes, la filière doit adopter des codes plus spontanés, centrés sur les expériences, les moments de vie et les émotions. Instagram, TikTok, micro-influenceurs, étiquettes au design moderne : les leviers sont nombreux.

Le visuel est désormais un facteur déterminant d’achat. Les jeunes générations attendent aussi que le vin s’intègre à leur quotidien via des événements festifs, des pique-niques, des festivals ou des bars éphémères.

La consommation moyenne de vin par habitant reste faible (2,7 litres/an), mais le potentiel est considérable. Avec une offre en pleine diversification, des terroirs multiples, une jeunesse curieuse et exigeante, et une montée en gamme affirmée, le Brésil change de visage viticole.

Des événements comme ProWine São Paulo, devenu la plus grande foire du vin et des spiritueux des Amériques, témoignent de cet engouement croissant. Le Brésil dispose de tous les atouts pour devenir un acteur clé du vin au XXIe siècle… à condition d’assumer pleinement ce qu’il est en train de devenir : un laboratoire d’expérimentation, de consommation et de durabilité viticole à l’échelle mondiale.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Le Brésil, laboratoire du vin de demain – https://theconversation.com/le-bresil-laboratoire-du-vin-de-demain-258416