Pourquoi l’Arcom n’a jamais sanctionné Cnews pour manquement au pluralisme

Source: The Conversation – in French – By Camille Broyelle, Professeur de Droit Public, Université Paris-Panthéon-Assas

Le 28 novembre, sur Cnews, l’éditorialiste Pascal Praud s’est félicité que l’Arcom ait contesté l’enquête de Reporters sans frontières sur les manquements de la chaîne aux règles du pluralisme politique. Capture d’écran

L’Autorité de régulation de la communication audiovisuelle et numérique a déjà sanctionné Cnews pour des informations ou des contenus problématiques, mais aucune sanction n’a été prononcée pour manquement aux règles de pluralisme. Reporters sans frontière a produit une nouvelle enquête visant à démontrer que ces manquements, avec une orientation clairement marquée à l’extrême droite, existent. Les chiffres de RSF sont contestés par l’Arcom. La chercheuse Camille Broyelle, spécialiste du droit des médias, cherche à comprendre ce qui pourrait conduire le régulateur public à interpréter la loi de façon minimaliste.


The Conversation : Reporters sans frontières accuse Cnews de ne pas respecter les règles du pluralisme et déplore l’absence de sanction de la part de l’Arcom. Dans quel contexte s’inscrit ce nouvel épisode d’un feuilleton déjà ancien ?

Camille Broyelle : Jusqu’en 2024, pour satisfaire l’exigence de pluralisme interne imposée par la loi du 30 septembre 1986 – c’est-à-dire l’expression des différents courants de pensée et d’opinion au sein même des programmes des chaînes de télévision, l’Arcom se contentait d’une répartition équitable du temps de parole des personnalités politiques, c’est-à-dire les personnes rattachées – formellement ou non – à un parti politique.

Tant que seules ces personnalités faisaient de la politique à la télévision, cette obligation d’équité était suffisante pour assurer le pluralisme interne. Elle ne l’était plus, cependant, quand les animateurs, les présentateurs, les chroniqueurs ont commencé eux aussi à militer en faveur de tel ou tel courant politique.

Reporters sans frontières a ainsi demandé à l’Arcom d’aller au-delà du temps de parole des personnalités politiques pour éviter qu’en méconnaissance de la loi, des chaînes de télévision, qui par ailleurs respecteraient l’équité des temps de paroles des personnalités politiques, se muent en médias d’opinion, c’est-à-dire en médias monochromes, militant en faveur d’un courant politique. Le refus opposé par l’Arcom a été contesté par RSF devant le Conseil d’État qui, le 13 février 2024, et a contraint l’Arcom de prendre en compte l’ensemble des programmes, afin que l’exigence de pluralisme interne posée par la loi soit respectée.

À la suite de cette décision, l’Arcom a adopté une délibération, le 17 juillet 2024, où sont énoncés trois critères sur lesquels se fonde désormais le régulateur pour apprécier le respect de la loi : la variété des sujets ou des thématiques abordés à l’antenne ; la diversité des intervenants dans les programmes ; l’expression d’une pluralité de points de vue dans l’évocation des sujets abordés à l’antenne.

Contrairement à ce qui a pu être écrit, il ne s’agit pas d’étiqueter les intervenants sur les plateaux ni de calculer de façon mathématique leur temps d’intervention – la délibération de l’Arcom le précise explicitement. Il s’agit de prendre en compte un faisceau d’indices (Qui parle ? De quoi ? Comment ?) qui, mis bout à bout, indiquent si, manifestement, la chaîne milite ou non en faveur d’un courant politique.

Il faut souligner ce point, explicitement mentionné dans la délibération du 17 juillet 2024 : l’Arcom doit s’assurer que les éditeurs n’avantagent pas « de façon manifeste et durable » un courant de pensée particulier. Contrairement au temps de parole des personnalités politiques, qui doit être distribué équitablement (cette obligation demeure), les chaînes de télévision ne sont pas tenues de représenter de façon équitable les différents courants de pensée et d’opinion. Elles doivent seulement s’abstenir d’en favoriser un de façon manifeste et durable. Cela signifie qu’il y a place pour une ligne éditoriale. En somme, le pluralisme interne imposé par la loi n’interdit pas aux médias d’afficher une tendance politique, il s’oppose seulement à ce qu’ils se muent en médias de propagande, la différence les uns et les autres n’étant pas qu’une différence de degré mais aussi de nature, car un média de propagande, qui s’est mis au service d’un courant de pensée, tend inévitablement à tordre la vérité et à méconnaître l’exigence d’honnêteté de l’information.

À la suite de la nouvelle enquête de RSF concernant Cnews, comment analysez-vous la réaction de l’Arcom ?

C. B. : RSF a souhaité vérifier si, au regard des critères dégagés par l’Arcom en 2024, le pluralisme interne était respecté par les quatre chaînes d’information en continu présentes sur la TNT (FranceinfoTV, LCI, BFMTV et CNews), c’est-à-dire si celles-ci avantageaient ou non « de façon manifeste et durable » un courant particulier de pensée et d’opinion. Tout au long du mois de mars 2025, des relevés systématiques et automatisés ont été effectués sur les quatre chaînes permettant de relever les intervenants et les sujets traités. L’analyse qualitative consistant à déterminer comment les sujets avaient été traités (de façon univoque ou de différents points de vue) a été menée, elle, au regard d’un thème, celui de la condamnation de Marine Le Pen. Au regard de l’ensemble de ces critères, RSF conclut a un avantage manifeste accordé par CNews à l’extrême droite.

Pourtant, dans le journal le Point, l’Arcom a contesté la façon dont RSF a apprécié le critère relatif à la diversité des intervenants à l’antenne et a considéré qu’aucun manquement au pluralisme interne n’avait été relevé. Il faut attendre des précisions de l’Arcom sur ses calculs, mais, l’affirmation est étonnante. Quiconque fait l’expérience de regarder quelques minutes les programmes de la chaîne CNews peut le constater : il s’agit bien évidemment d’une chaîne d’opinion, qui milite en faveur de l’extrême droite, ce que la loi du 30 septembre 1986 interdit, comme le Conseil d’État l’a rappelé.

Que répondre à l’argument selon lequel cette exigence de pluralisme interne constituerait une atteinte à la liberté d’expression ?

C. B. : Il s’agit d’une erreur de perspective, car cette exigence de pluralisme protège la liberté d’expression. La loi du 30 septembre 1986, qui régit le secteur audiovisuel, est destinée à réglementer l’activité des médias audiovisuels afin de protéger l’ordre public et, en priorité, le droit du public à une offre pluraliste de programmes. Ce droit dispose d’une assise constitutionnelle solide.

Comme le Conseil constitutionnel l’a affirmé et comme il continue de l’affirmer, la liberté de communication doit être lue à travers l’exigence de pluralisme, indispensable au fonctionnement de la démocratie : il permet au public d’être informé et, à travers lui, aux électeurs de voter de façon éclairée et libre. La liberté des médias audiovisuels est, selon la jurisprudence constitutionnelle et depuis une décision du 18 septembre 1986, au service du droit du public de disposer d’une offre audiovisuelle pluraliste et respectueuse de l’honnêteté de l’information non seulement dans le secteur public, mais aussi dans le secteur privé.

C’est ce droit à une offre audiovisuelle pluraliste et honnête que met en œuvre la loi du 30 septembre 1986 en interdisant sur la TNT des chaînes d’opinion ; l’expression « chaînes d’opinion » n’est pas inscrite dans la loi, mais ce sont de telles chaînes qui sont prohibées, puisque l’article 13 de la loi impose le « respect de l’expression pluraliste des courants de pensée et d’opinion ». Même si aujourd’hui, d’autres réseaux ont permis à d’autres médias de nourrir le débat public, les chaînes de télévision hertziennes occupent une position dominante pour structurer ce débat – c’est la raison pour laquelle les fréquences hertziennes restent très convoitées. Toutes les opinions ne pouvant être représentées sur le spectre hertzien, en raison de la rareté des fréquences, et surtout toutes les opinions ne bénéficiant pas nécessairement le soutien financier d’un groupe privé consacré à leur promotion, la seule façon d’assurer le pluralisme des idées, c’est-à-dire de permettre au public d’accéder à l’expression d’un large panel de courants de pensée et d’opinion, est d’interdire les chaînes d’opinion. Il n’y a pas là atteinte à la liberté d’expression. Il s’agit au contraire de la protéger en empêchant à un groupe de médias d’étouffer l’expression d’autres idées, du fait de l’avantage exorbitant dans la fabrication du débat public que lui donne le canal hertzien.

En imposant un pluralisme interne aux chaînes hertziennes, la loi du 30 septembre 1986 protège la liberté d’expression sur la TNT. Elle empêche sa capture par des intérêts privés. Aussi, lorsque certains médias dénoncent une atteinte à leur liberté d’expression, ils revendiquent en réalité un droit d’être en situation de position dominante dans la fabrication de l’opinion, comme si l’opinion pouvait constituer un marché, ce que le Conseil constitutionnel a également toujours récusé (CC, 18 sept. 1986) :

« En définitive, l’objectif à réaliser est que les auditeurs et les téléspectateurs qui sont au nombre des destinataires essentiels de la liberté proclamée par l’article 11 de la Déclaration de 1789 soient à même d’exercer leur libre choix sans que ni les intérêts privés ni les pouvoirs publics puissent y substituer leurs propres décisions, ni qu’on puisse en faire les objets d’un marché. »

Comment comprendre la difficulté du régulateur à sanctionner les chaînes qui ne respectent pas leurs obligations légales ?

C. B. : Le régulateur n’est pas très à l’aise avec l’exigence de pluralisme interne. Lorsque la décision du Conseil d’État avait été rendue à la suite de la saisine de RSF, l’Arcom avait réagi sur son site en déclarant qu’il s’agissait d’une interprétation renouvelée de la loi de 1986, alors qu’en réalité, le Conseil d’État se contentait de rappeler au régulateur la nécessité d’assurer l’effectivité de l’article 13 de la loi, selon lequel « l’Arcom assure le respect de l’expression pluraliste des courants de pensée et d’opinion dans les programmes des services de radio et de télévision, en particulier pour les émissions d’information politique et générale ».

Plus récemment, certaines déclarations ont clairement indiqué ce malaise. S’exprimant le 1er octobre 2025, devant la commission de la culture, de l’éducation, de la communication et du sport du Sénat, Martin Ajdari, président de l’Arcom a déclaré : « Le projet de loi relatif aux États généraux de l’information […] devrait apporter des inflexions importantes en matière de modernisation du contrôle des concentrations plurimédias. Il s’agit d’une modernisation du suivi du pluralisme externe qui pourrait être l’occasion pour le législateur de s’interroger sur la portée du pluralisme interne, lequel soulève de nombreuses questions. »

En d’autres termes, une éventuelle évolution de la mesure de concentration, supposée réduire la concentration dans les médias, elle-même censée renforcer le pluralisme, devrait conduire le législateur à restreindre l’exigence de pluralisme interne. Notons que Roch-Olivier Maistre, ancien président de l’Arcom, a défendu la même position quelques jours plus tard.

Outre le fait que ces analyses reposent sur une équation discutable entre diversité des opérateurs et diversité des contenus (équation que la loi du 30 septembre 1986 réfute en distinguant l’une et l’autre, art. 30-1, III, al. 2), cet appel à anticiper sur les effets potentiels d’une règle de concentration qui n’a pas été encore adoptée est significatif de l’embarras du régulateur. Celui-ci ne se limite pas, du reste, à l’exigence de pluralisme interne.

Probablement intimidés par l’argument de la liberté d’expression invoqué par les médias audiovisuels (lire Thomas Hochmann, On ne peut plus rien dire, Anamosa, 2025), probablement influencés par la conception absolutiste de la liberté d’expression énoncée par le premier amendement à la Constitution des États-Unis, diffusée à l’échelle mondiale par les plateformes, parce qu’elle sert leurs intérêts économiques, les régulateurs successifs ont toujours contesté leur qualité de « gendarme » de l’audiovisuel en soulignant que la loi du 30 septembre 1986 était une « loi de liberté », c’est-à-dire une loi de liberté des médias audiovisuels.

Ce n’est pas totalement faux. Mais il est essentiel de ne pas confondre la liberté des médias et la liberté d’expression des individus (Damian Tambini, Media Freedom, éditions Polity, 2021. La liberté des médias plie devant le droit constitutionnel du public à une offre audiovisuelle pluraliste et respectueuse, dans tous les cas, à « l’impératif d’honnêteté de l’information » (selon les termes du Conseil constitutionnel, le 18 septembre 1986).

L’Arcom dispose pourtant des outils permettant de faire respecter le pluralisme interne et l’honnêteté de l’information…

C. B. : Effectivement. D’ailleurs s’agissant d’autres obligations, comme le respect de l’honnêteté de l’information, ou l’interdiction des incitations à la discrimination, l’Arcom n’hésite pas à sanctionner, parfois lourdement. Ce fut le cas, par exemple, en 2021, au sujet des propos tenus par Éric Zemmour sur les mineurs étrangers isolés – « pour la plupart, voleurs, violeurs et assassins » – qui a valu à la chaîne Cnews 200 000 euros de sanctions financières (CSA,décision n°2021-2018 du 17 mars 2021 ou, plus récemment, en 2024, pour des déclarations de chroniqueurs selon lesquelles « l’immigration tue » ou encore pour la présentation d’une pseudo-enquête relative à la sécurité dans les villes.

Pourtant, de toute évidence, l’intervention de l’Arcom est plus que mesurée au sujet du pluralisme. Jamais, depuis la décision RSF du Conseil d’État et l’adoption de sa délibération propre (juillet 2024), l’Arcom n’a sanctionné la chaîne CNews pour méconnaissance du pluralisme interne. Seule, donc, une « mise en garde » a été prononcée par l’Arcom le 31 juillet 2024, à la suite de la décision du Conseil d’État du 13 février 2024 de statuer de nouveau sur la demande de RSF tendant à ce qu’elle mette en demeure la chaîne CNews ; sur l’échelle de la sévérité, la mise en garde est en deçà de la mise en demeure qui seule permet l’ouverture d’une procédure de sanction.

Au-delà du pluralisme, l’extrême prudence du régulateur s’observe désormais dans les modalités d’intervention qu’il s’est fixées. Récemment, devant le Sénat, le président de l’Arcom a déclaré : « Nous nous prononçons uniquement sur saisine, collégialement pour que l’on ne puisse pas nous reprocher de choisir nos cibles… »

La loi du 30 septembre 1986 ne le contraint nullement à un tel ciblage. On peut même douter qu’elle s’accommode de cette forme de renoncement à toute initiative dans les contrôles qu’elle charge l’Arcom d’effectuer. D’autant plus que le législateur a réglé, à un autre stade, la question en confiant à un rapporteur indépendant, et à lui seul, la décision d’engager des poursuites afin précisément de protéger les éditeurs audiovisuels d’une éventuelle partialité de l’Arcom (L. 30 sept. 1986, art. 40-7, 1°). La crainte d’un procès en impartialité : peut-être est-ce l’explication de la réserve de l’Arcom qui la conduit à laisser une chaîne de télévision méconnaître la loi.


Propos recueillis par David Bornstein.

The Conversation

Camille Broyelle ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Pourquoi l’Arcom n’a jamais sanctionné Cnews pour manquement au pluralisme – https://theconversation.com/pourquoi-larcom-na-jamais-sanctionne-cnews-pour-manquement-au-pluralisme-271139

Comment l’Iran en est arrivé à la faillite hydrique et pourquoi déplacer la capitale ne changera rien

Source: The Conversation – in French – By Ali Mirchi, Associate Professor of Water Resources Engineering, Oklahoma State University

Face à l’une des pires sécheresses de son histoire, l’Iran se retrouve au bord de la « faillite hydrique » : Téhéran, sa capitale de 15 millions d’habitants, pourrait devenir inhabitable.


L’automne marque le début de la saison des pluies en Iran, mais de vastes régions du pays n’ont quasiment pas vu une goutte alors que la nation affronte l’une de ses pires sécheresses depuis des décennies. Plusieurs réservoirs essentiels sont presque à sec et Téhéran, la capitale, se rapproche d’un « Day Zero », le moment où la ville n’aura plus d’eau.

La situation est si grave que le président iranien Massoud Pezeshkian a relancé un projet envisagé de longue date visant à déplacer la capitale, une métropole où vivent aujourd’hui 15 millions de personnes.

Des gouvernements précédents avaient déjà évoqué l’idée d’installer la capitale ailleurs, sans jamais la mettre en œuvre. De fait, l’expansion incontrôlée de Téhéran a généré une série de problèmes, allant du stress hydrique chronique et de l’affaissement des sols aux embouteillages et à une pollution atmosphérique sévère, tout en accentuant les inquiétudes concernant la vulnérabilité de la ville aux risques sismiques majeurs. Cette fois, Pezeshkian présente le déménagement comme une obligation, non comme un choix. Il a averti en novembre 2025 que si rien ne change, la ville pourrait devenir inhabitable.

Comment l’Iran en est arrivé à la faillite hydrique

La sécheresse est une préoccupation dans cette région du monde depuis des millénaires. Une prière du roi perse Darius le Grand, gravée dans la pierre il y a plus de 2 000 ans, demandait à son dieu de protéger la terre des envahisseurs, de la famine et du mensonge.

Aujourd’hui, toutefois, l’aggravation des problèmes hydriques et environnementaux de l’Iran est la conséquence prévisible de décennies durant lesquelles les ressources limitées de la région ont été gérées comme si elles étaient infinies.

L’Iran s’est largement reposé sur une irrigation très consommatrice d’eau pour cultiver des terres arides, tout en subventionnant l’usage de l’eau et de l’énergie, ce qui a entraîné une surexploitation des nappes phréatiques et une baisse des réserves souterraines. La concentration des activités économiques et de l’emploi dans les grands centres urbains, en particulier Téhéran, a également provoqué une migration massive, aggravant encore la pression sur des ressources hydriques déjà sursollicitées.

Ces dynamiques, parmi d’autres, ont conduit l’Iran vers une forme de « faillite hydrique » – un point où la demande en eau dépasse durablement l’offre et où la nature ne peut plus suivre.

L’approche centralisée et verticale de la gestion de l’eau en Iran s’est révélée incapable d’assurer la durabilité des ressources et de maintenir un équilibre entre l’offre renouvelable et une demande qui ne cesse de croître.

Depuis la révolution de 1979, le pays s’est lancé dans une véritable « mission hydraulique », construisant barrages et dérivations de rivières pour soutenir l’expansion urbaine et agricole. Poussée par des ambitions idéologiques, la quête d’autosuffisance alimentaire, combinée aux sanctions internationales et à l’isolement économique, a lourdement pesé sur l’environnement, en particulier sur les ressources hydriques. Assèchement des lacs, épuisement des eaux souterraines et salinisation croissante sont désormais des phénomènes répandus dans tout le pays, présentant des risques majeurs pour la sécurité hydrique.

En tant que spécialistes des ressources en eau (l’un de nous est un ancien directeur adjoint du Département iranien de l’environnement), ingénieurs environnementaux et scientifiques, nous suivons depuis des années les défis hydriques auxquels le pays est confronté. Nous voyons des solutions possibles à ses problèmes chroniques d’eau, bien qu’aucune ne soit simple.

La baisse des réserves expose l’Iran

Des experts alertent depuis des années : l’absence de stratégie pour traiter la faillite hydrique du pays le rend de plus en plus vulnérable aux conditions climatiques extrêmes. Les Iraniens en font de nouveau l’expérience avec la dernière sécheresse.

Les précipitations ont été largement inférieures à la normale lors de quatre années hydrologiques depuis 2020. Cela a contribué à une chute marquée du niveau des réservoirs. L’automne 2025 a été le plus chaud et le plus sec enregistré à Téhéran depuis 1979, mettant à l’épreuve la résilience de son système d’approvisionnement en eau.

La ville subit une pression croissante sur des réserves d’eaux souterraines déjà réduites, sans véritable perspective d’amélioration en l’absence de précipitations significatives. La diminution du manteau neigeux et la modification des régimes de pluie rendent plus difficile l’anticipation du volume et du calendrier des apports fluviaux. La hausse des températures aggrave encore la situation en augmentant la demande et en réduisant la quantité d’eau disponible dans les cours d’eau.

Il n’existe aucune solution rapide pour résoudre l’urgence hydrique de Téhéran. À court terme, seule une augmentation significative des précipitations et une réduction de la consommation peuvent apporter un soulagement.

Les mesures précipitées visant à accroître les transferts inter-bassins, comme le transfert Taleqan‑Téhéran pour pomper l’eau du barrage de Taleqan, situé à plus de 160 kilomètres, sont non seulement insuffisantes, mais risquent d’aggraver le déséquilibre entre offre et demande à long terme. L’Iran a déjà expérimenté le transfert d’eau entre bassins, et dans de nombreux cas, ces transferts ont alimenté une croissance non durable plutôt qu’une réelle conservation, aggravant les problèmes hydriques tant dans les bassins donneurs que dans les bassins récepteurs.

Au cœur du problème de Téhéran se trouve un déséquilibre chronique entre l’offre et la demande, alimenté par une croissance rapide de la population. Il est très douteux que le déplacement de la capitale politique, comme le suggère Pezeshkian, puisse réellement réduire la population de la ville et donc sa demande en eau.

La région peu peuplée du Makran, dans le sud-est du pays, le long du golfe d’Oman, a été évoquée comme une option possible, présentée comme un « paradis perdu », bien que les détails sur la proportion de la ville ou de la population qui serait déplacée restent flous.

Parallèlement, d’autres grandes villes iraniennes connaissent des tensions hydriques similaires : le stress hydrique est une menace à l’échelle nationale.

Des solutions pour un pays sec

Le pays doit commencer à dissocier son économie de la consommation d’eau en investissant dans des secteurs générant valeur et emplois avec un usage minimal de l’eau.

La consommation d’eau agricole peut être réduite en cultivant des produits à plus forte valeur ajoutée et moins gourmands en eau, tout en tenant compte de la sécurité alimentaire, du marché du travail et des aspects culturels. Les économies d’eau ainsi réalisées pourraient servir à reconstituer les nappes phréatiques.

S’ouvrir davantage au commerce mondial et importer des produits alimentaires dont la culture implique une forte consommation d’eau, plutôt que les produire localement, permettrait également à l’Iran de consacrer ses terres et son eau à un ensemble plus restreint de cultures stratégiques indispensables à la sécurité alimentaire nationale.

Cette transition ne sera possible que si le pays évolue vers une économie plus diversifiée, réduisant ainsi la pression sur ses ressources limitées, ce qui semble peu réaliste dans le contexte actuel d’isolement économique et international. La demande en eau urbaine pourrait être réduite en renforçant l’éducation du public à la conservation, en limitant les usages très consommateurs comme le remplissage des piscines privées, et en modernisant les infrastructures de distribution pour réduire les fuites.

Les eaux usées traitées pourraient être davantage recyclées à des fins potables et non potables, notamment pour maintenir les débits des rivières, actuellement négligés. Lorsque c’est possible, d’autres solutions, telles que la gestion des crues pour la recharge des nappes ou la dessalination des eaux souterraines intérieures, peuvent être explorées pour compléter l’approvisionnement tout en minimisant les impacts environnementaux.

Prises dans leur ensemble, ces mesures nécessitent une action audacieuse et coordonnée plutôt que des réponses fragmentaires. Les discussions renouvelées sur le déménagement de la capitale montrent comment les pressions environnementales s’ajoutent au puzzle complexe de la sécurité nationale de l’Iran. Cependant, si les causes profondes de la faillite hydrique du pays ne sont pas traitées, un éventuel déplacement de la capitale visant à alléger les problèmes d’eau restera inutile.

The Conversation

Mojtaba Sadegh a reçu des financements de l’US National Science Foundation, de la NASA et du Joint Fire Science Program.

Ali Mirchi, Amir AghaKouchak et Kaveh Madani ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. Comment l’Iran en est arrivé à la faillite hydrique et pourquoi déplacer la capitale ne changera rien – https://theconversation.com/comment-liran-en-est-arrive-a-la-faillite-hydrique-et-pourquoi-deplacer-la-capitale-ne-changera-rien-271319

L’activisme des PDG met-il la démocratie en danger ?

Source: The Conversation – France (in French) – By Aurélien Feix, Professeur associé, EDHEC Business School

Les interventions des dirigeants d’entreprises dans le débat public semblent de plus en plus nombreuses. À l’image d’Elon Musk, qui, après avoir soutenu Donald Trump publiquement, alla jusqu’à accepter un temps une mission gouvernementale que ce dernier lui avait confiée. Le cas du patron de Tesla est-il une exception ou révèle-t-il une tendance de fond chez les dirigeants d’entreprises ? Cette intervention des leaders économiques dans la politique fait-elle courir un risque spécifique à la démocratie ? Au-delà des États-Unis, qu’en est-il en France ?


Pendant la campagne de l’élection présidentielle américaine de 2024, Elon Musk s’est distingué par son soutien public massif à Donald Trump. Le patron de Tesla a cherché à peser de tout son poids dans l’espace public pour faire pencher la balance électorale en faveur du candidat républicain – que ce soit sur sa plateforme X ou lors de rassemblements électoraux.

Après la bruyante rupture de la « bromance » qui unissait les deux hommes, et malgré les conséquences pour le moins mitigées de cet épisode sur l’image du milliardaire et sur les entreprises dont il assure la direction, voilà qu’un autre PDG fortement médiatisé, Marc Benioff, s’est empressé de manifester son soutien à la politique de Donald Trump, estimant que celui-ci faisait un « excellent travail » et se déclarant favorable à l’envoi de la garde nationale à San Francisco (Californie), avant de partiellement revenir sur ses propos.

Phénomène d’ampleur

Assez surprenantes pour des Européens, habitués à ce que les acteurs économiques soient plus frileux à l’idée de s’engager politiquement, ces prises de position sont loin d’être une exception outre-Atlantique. Elles s’inscrivent plutôt dans un phénomène de grande ampleur aux États-Unis, qui a commencé à faire parler de lui il y a une dizaine d’années, et qui s’est accéléré depuis lors : « l’activisme des dirigeants d’entreprises » (« CEO activism »). Le terme « dirigeant » est à comprendre dans un sens large dans ce contexte : il désigne tout cadre assumant la direction globale d’une entreprise, qu’il s’agisse d’un dirigeant-propriétaire, d’un directeur général ou d’un président-directeur général.




À lire aussi :
Combien coûte l’ego d’Elon Musk ? Ou quand l’hubris des dirigeants devient un risque systémique


Nos récents travaux s’intéressent précisément à ce type d’activisme, et nous nous sommes demandés dans quelle mesure il pouvait influencer, et potentiellement mettre en danger, le bon fonctionnement de la démocratie.

Sujets clivants

Depuis le milieu des années 2010, une part grandissante des dirigeants d’entreprises américaines prend part aux débats politiques de leur pays. Ils le font soit en affichant leur point de vue sur des sujets clivants et souvent éloignés du cœur de métier de leur entreprise, soit en prenant ouvertement la défense de l’un des deux grands partis politiques qui y structurent la vie politique.

Il serait erroné de croire qu’il s’agit là d’un comportement entièrement nouveau de la part des patrons, car il y a déjà eu par le passé des dirigeants d’entreprises que l’on pourrait qualifier « d’activistes ». Dans un passé lointain, on peut citer Henry Ford, fondateur et dirigeant du constructeur automobile du même nom, qui, dans la première moitié du XXe siècle, fit largement connaître ses idées politiques, notamment à travers ses écrits antisémites et en rejoignant le Comité Amérique d’abord (America First Committee), qui milita publiquement contre l’entrée en guerre des États-Unis dans les années 1940.

Dans un passé plus récent, le nom de Ross Perot, vu par certains comme un précurseur du trumpisme, vient à l’esprit. Fondateur de l’entreprise Electronic Data Systems dont il a tiré sa fortune, Perot se lança en politique durant la présidence de Bush père. Se présentant comme un homme en rupture avec les élites de Washington, il se présenta à deux reprises comme candidat indépendant à l’élection présidentielle, en 1992 et 1996.

Nouvelles logiques de communication

Si l’activisme patronal n’est donc pas propre à notre époque, il s’est sans aucun doute intensifié de manière inédite aux États-Unis au cours de la décennie écoulée, au point d’y devenir aujourd’hui monnaie courante. Ce phénomène fait d’ailleurs l’objet de nombreuses recherches universitaires qui s’intéressent non seulement aux conséquences des prises de position des dirigeants sur l’image et la performance économique de leur entreprise, mais aussi, à l’instar de nos travaux, à leurs répercussions sur la démocratie.

Les raisons du développement de cet activisme sont multiples. Elles tiennent notamment à l’émergence d’une nouvelle génération de dirigeants ayant visiblement à cœur de faire connaître publiquement leurs opinions politiques (une génération plus vocal et outspoken, comme disent les Américains), notamment dans le but d’accumuler un capital moral, c’est-à-dire d’acquérir une réputation de vertu.

Une autre raison réside dans l’essor des réseaux sociaux et des nouvelles modalités et logiques de communication qu’ils induisent, notamment une préférence pour les messages courts et polarisants, plus susceptibles de générer des clics et des partages.

L’activisme sociopolitique des entreprises

L’activisme patronal n’est qu’une forme d’un phénomène plus large, appelé « activisme sociopolitique des entreprises » (corporate sociopolitical activism), qui désigne la prise de position des acteurs économiques dans des débats sociétaux. En effet, les prises de position sur des sujets controversés ne sont pas uniquement le fait des dirigeants d’entreprise, mais peuvent aussi se faire au nom d’une entreprise ou d’une marque qu’elle commercialise. On parle alors « d’activisme des marques » (brand activism).

Si certaines publicités assimilables à cette forme d’activisme existaient déjà dans les années 1980 et 1990 – on peut notamment songer aux campagnes de Benetton sur des sujets comme le racisme et le sida –, l’activisme des marques n’a pris une ampleur considérable aux États-Unis que durant la dernière décennie, à l’image de l’activisme patronal précédemment évoqué.

Parmi les exemples les plus connus, on peut citer la campagne « Race Together » de Starbucks contre la discrimination raciale en 2015, la campagne « Dream Crazy » de Nike en 2018 en soutien au mouvement Black Lives Matter, et la campagne « The Best Men Can Be » de Gillette en 2019, qui critique des comportements masculins nocifs, tels que le harcèlement ou le sexisme.

Boycott et « buycott »

Ces campagnes trouvent leur explication, d’une part, dans une évolution des attentes d’une partie des consommateurs à l’égard des entreprises auprès desquelles ils se fournissent. Adeptes de la « consommation engagée », ces consommateurs conçoivent l’acte d’achat comme un acte politique à part entière et attendent des entreprises dont ils sont clients qu’elles partagent leurs convictions. Ainsi, des enquêtes menées aux États-Unis tendent à montrer que les jeunes générations sont globalement plus favorables aux prises de position des acteurs économiques que leurs aînés.

Ces campagnes traduisent également un opportunisme économique de la part des entreprises. Dans un contexte de guerre culturelle et de forte polarisation politique, elles peuvent en effet chercher à tirer profit des clivages qui traversent les États-Unis. Les campagnes publicitaires qui véhiculent des messages politiques sont souvent suivies d’un boycott de la part de consommateurs opposés à la cause défendue. Cependant, les entreprises misent sur le fait que ce boycott engendre en réaction un « buycott » plus massif encore de la part des consommateurs acquis à cette cause.

Ainsi, la campagne « Dream Crazy » a d’abord suscité un important backlash, caractérisé par la propagation du hashtag #BurnYourNikes sur les réseaux sociaux, ainsi qu’une baisse temporaire du cours de l’action et de la cote d’approbation de la marque Nike. Toutefois, la contre-réaction des clients favorables à l’initiative a transformé l’opération en un succès, augmentant la profitabilité de l’entreprise. Il semblerait donc que les émotions politiques, telles que l’attachement à une cause sociale ou l’indignation éprouvée à l’égard de ceux qui ne la partagent pas, figurent désormais parmi le panel d’émotions que les acteurs du capitalisme tentent d’exploiter à leur avantage.

Les risques pour la démocratie

Il est important de rappeler que les entreprises ont toujours été des acteurs politiques, c’est-à-dire qu’elles ont de tout temps cherché à influencer l’opinion publique et les décisions politiques. Mais, jusqu’à récemment, elles agissaient principalement « en coulisse », c’est-à-dire en se plaçant hors du regard du public, par le biais de pratiques telles que le lobbying, le financement de campagnes électorales, l’astroturfing ou la désinformation scientifique.

À l’inverse, l’activisme sociopolitique des entreprises est tout sauf discret et vise à être vu. En ce sens, il constitue une modalité d’action politique des entreprises d’un nouveau genre, qui présente également de nouveaux risques pour nos démocraties.

Ainsi, au regard des moyens dont disposent les grandes entreprises pour augmenter la portée de leur discours, on peut craindre que les idées qui servent leurs intérêts économiques ou qui sont en phase avec les idéologies de leurs dirigeants finissent par occuper une place disproportionnée dans l’espace public. Il est également à craindre que l’activisme sociopolitique des entreprises ne vienne aggraver la dégradation de la qualité d’un débat public déjà bien mal en point.

En effet, en capitalisant sur les émotions politiques de leurs clients, les acteurs économiques contribuent inévitablement à les exacerber. Cela concerne en particulier les émotions associées à ce que la psychologie politique appelle la polarisation affective, telles que l’aversion envers les personnes identifiées comme appartenant au camp politique opposé. Or, ces émotions nous rendent plus vulnérables à la désinformation et moins enclins à communiquer de manière constructive avec ceux qui ne partagent pas nos opinions politiques.

France 24, 2025.

Ces risques devront faire l’objet d’une exploration approfondie à l’avenir, et une réflexion devra être menée pour les contrer efficacement. En effet, contrairement aux pratiques politiques menées de manière plus discrète, telles que le lobbying, qui sont encadrées par la loi (quoique de manière différente et plus ou moins stricte selon les pays), l’activisme sociopolitique des entreprises souffre d’un manque évident de réglementation.

Bientôt en France ?

On pourrait objecter que ce besoin de réglementation est moins pressant en France qu’aux États-Unis. Il est vrai que la méfiance à l’égard de l’ingérence des acteurs économiques dans les affaires politiques est beaucoup plus marquée en France, comme en témoigne la réglementation très stricte du financement des partis politiques. Par conséquent, les entreprises et leurs dirigeants restent, dans leur grande majorité, réticents à l’idée de prendre position politiquement.

L’activisme des marques est pour l’heure quasi-inexistant dans l’Hexagone, et celui des PDG encore très rare. Ainsi, Vincent Bolloré, homme d’affaires désormais à la tête un empire médiatique marqué très à droite et dont l’influence sur l’opinion publique suscite de vives inquiétudes, n’est pas un « PDG activiste » selon l’acception stricte du terme, puisqu’il continue de taire ses orientations et intentions politiques en public. Toutefois, on observe des signes indiquant que l’activisme patronal pourrait se développer dans les années à venir.

L’entrepreneur Pierre-Édouard Stérin, par exemple, ne cache pas l’idéologie sous-jacente à son projet Périclès, et le ton avec lequel des dirigeants d’entreprise, comme Bernard Arnault, participent aux débats politiques français se fait plus explicite et plus virulent que par le passé. L’avenir nous dira si cette tendance se confirme mais, quoi qu’il en soit, il nous semble important d’amorcer dès à présent une réflexion sur les mesures à prendre afin d’en contenir les risques.

The Conversation

Georg Wernicke a reçu des financements de HEC Paris Foundation.

Aurélien Feix ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’activisme des PDG met-il la démocratie en danger ? – https://theconversation.com/lactivisme-des-pdg-met-il-la-democratie-en-danger-254110

Face à la fonte des glaces de l’Antarctique, le niveau de la mer n’augmente pas au même rythme partout

Source: The Conversation – France (in French) – By Shaina Sadai, Associate in Earth Science, Five College Consortium

Si les mers et les océans fonctionnaient comme une immense baignoire, l’eau s’élèverait partout de la même façon. Ce n’est pas ce qui se passe. La fonte des glaces en Antarctique, influencée par le réchauffement climatique, entraîne une élévation inégale du niveau de la mer, notamment du fait de la gravité et du rôle du manteau terrestre.


Quand les calottes polaires fondent, les effets se répercutent dans le monde entier. La fonte de la glace élève le niveau moyen des mers, modifie les courants océaniques et affecte les températures dans des régions très éloignées des pôles. Mais cette fonte n’influence pas le niveau de la mer et les températures de la même manière partout.

Dans une nouvelle étude, notre équipe de scientifiques a examiné comment la fonte des glaces en Antarctique affecte le climat mondial et le niveau de la mer. Nous avons combiné des modèles informatiques de la calotte glaciaire antarctique, de la Terre et du climat global, incluant les processus atmosphériques et océaniques, afin d’explorer les interactions complexes entre la glace en train de fondre et les autres composantes de la Terre.

Comprendre ce qui arrive à la glace de l’Antarctique est essentiel, car elle contient suffisamment d’eau gelée pour élever le niveau moyen des mers d’environ 58 mètres. Lorsque cette glace fond, cela devient un problème existentiel pour les populations et les écosystèmes des communautés insulaires et littorales.

Changements en Antarctique

L’ampleur de la fonte de la calotte glaciaire antarctique dépendra de l’importance du réchauffement de la planète. Réchauffement qui dépend des futures émissions de gaz à effet de serre provenant notamment des véhicules, des centrales électriques et des industries. Des études suggèrent qu’une grande partie de la calotte glaciaire antarctique pourrait subsister si les pays réduisent leurs émissions de gaz à effet de serre conformément à l’objectif de l’accord de Paris de 2015 visant à limiter le réchauffement planétaire à 1,5 °C par rapport à l’ère préindustrielle. Cependant, si les émissions continuent d’augmenter et que l’atmosphère et les océans se réchauffent beaucoup plus, cela pourrait provoquer une fonte importante et des niveaux marins bien plus élevés.

Nos recherches montrent que les fortes émissions présentent des risques non seulement pour la stabilité de la calotte glaciaire de l’Antarctique occidental, qui contribue déjà à l’élévation du niveau de la mer, mais aussi pour la calotte glaciaire de l’Antarctique oriental, beaucoup plus vaste et plus stable. Elles montrent aussi que les régions du monde connaîtront des niveaux différents de montée des eaux à mesure que l’Antarctique fond.

Comprendre l’évolution du niveau de la mer

Si les mers se comportaient comme l’eau dans une baignoire, alors le niveau de l’océan s’élèverait de la même manière partout. Mais ce n’est pas ce qui se passe. Au contraire, de nombreux endroits enregistrent une élévation du niveau de la mer supérieure à la moyenne mondiale, tandis que les zones proches de la calotte glaciaire peuvent même voir le niveau de la mer baisser. La raison principale tient à la gravité.

Les calottes glaciaires sont énormes, et cette masse exerce une forte attraction gravitationnelle qui attire l’eau océanique environnante vers elles, de manière similaire à la façon dont l’attraction gravitationnelle entre la Terre et la Lune influence les marées.

À mesure que la calotte glaciaire diminue, son attraction gravitationnelle sur l’océan diminue, ce qui entraîne une baisse du niveau de la mer dans les régions proches des banquises et une hausse dans les régions plus éloignées. Mais les variations du niveau de la mer ne dépendent pas uniquement de la distance à la calotte glaciaire en train de fondre. Cette perte de glace modifie également la rotation de la planète. L’axe de rotation est attiré vers cette masse de glace disparue, ce qui redistribue à son tour l’eau autour du globe.

Deux facteurs qui peuvent ralentir la fonte

À mesure que la massive calotte glaciaire fond, le manteau terrestre situé en dessous se soulève. Sous le socle rocheux de l’Antarctique se trouve ce manteau, qui s’écoule lentement, un peu comme du sirop d’érable. Plus la calotte glaciaire fond, moins elle exerce de pression sur la Terre solide. Avec ce poids réduit, le socle rocheux peut se soulever. Cela peut éloigner certaines parties de la calotte glaciaire des eaux océaniques réchauffées, ralentissant ainsi le rythme de la fonte. Ce phénomène est plus rapide dans les régions où le manteau s’écoule plus vite, comme sous la calotte glaciaire de l’Antarctique occidental. Cet effet de rebond pourrait contribuer à préserver la calotte glaciaire – à condition que les émissions mondiales de gaz à effet de serre restent faibles.

Un autre facteur susceptible de ralentir la fonte peut sembler contre-intuitif.

Alors que l’eau de fonte antarctique contribue à l’élévation du niveau de la mer, les modèles montrent qu’elle retarde également le réchauffement induit par les gaz à effet de serre. En effet, l’eau glacée provenant de l’Antarctique réduit la température de surface des océans dans l’hémisphère Sud et le Pacifique tropical, emprisonnant la chaleur dans les profondeurs et ralentissant l’augmentation de la température moyenne globale de l’air.

Mais même si la fonte ralentit, le niveau de la mer continue d’augmenter.

Cartographie de nos résultats sur le niveau de la mer

Nous avons combiné des modèles informatiques simulant ces comportements et d’autres caractéristiques de la calotte glaciaire antarctique, du manteau terrestre et du climat pour comprendre ce qui pourrait arriver au niveau de la mer dans le monde à mesure que les températures globales augmentent et que la glace fond.

Par exemple, dans un scénario modéré où le monde réduit ses émissions de gaz à effet de serre, mais pas suffisamment pour maintenir le réchauffement global en dessous de 2 °C d’ici à 2100, nous avons constaté que l’élévation moyenne du niveau de la mer due à la fonte de la glace antarctique serait d’environ dix centimètres d’ici à 2100. En 2200, elle dépasserait un mètre.

Il faut garder à l’esprit qu’il ne s’agit ici que de l’élévation du niveau de la mer causée par la fonte de l’Antarctique. La calotte glaciaire du Groenland et l’expansion thermique de l’eau de mer due au réchauffement des océans contribueront également à l’élévation du niveau de la mer. Les estimations actuelles suggèrent qu’au total, l’élévation moyenne du niveau de la mer – incluant le Groenland et l’expansion thermique – serait comprise entre 30 centimètres et 60 centimètres d’ici à 2100 dans le même scénario.

Deux cartes de la Terre montrant des niveaux de hausse du niveau de la mer différents
Les modèles indiquent la contribution de l’Antarctique à l’élévation du niveau de la mer en 2200, selon un scénario d’émissions moyen (en haut) et élevé (en bas). L’élévation moyenne mondiale du niveau de la mer est en violet. Les zones où le niveau de la mer dépasse la moyenne régionale apparaissent en bleu foncé.
Sadai et coll., 2025

Nous montrons également comment l’élévation du niveau de la mer due à l’Antarctique varie à travers le monde. Dans le scénario d’émissions modérées, nous avons ainsi constaté que la hausse la plus importante du niveau de la mer provenant uniquement de la fonte des glaces antarctiques, jusqu’à 1,5 m d’ici à 2200, se produit dans les bassins océaniques Indien, Pacifique et Atlantique occidental – des régions éloignées de l’Antarctique.

Ces régions abritent de nombreuses populations vivant dans des zones côtières basses, notamment les habitants des îles des Caraïbes, comme la Jamaïque, et du Pacifique central, comme les îles Marshall, qui subissent déjà des impacts néfastes liés à la montée des mers.

Dans un scénario d’émissions élevées, nous avons constaté que l’élévation moyenne du niveau de la mer due à la fonte de l’Antarctique serait beaucoup plus importante : environ 30 centimètres en 2100 et près de 3 mètres en 2200.

Dans ce scénario, une large partie du bassin Pacifique au nord de l’équateur, incluant la Micronésie et Palau, ainsi que le centre du bassin Atlantique, connaîtrait la plus forte élévation du niveau de la mer, jusqu’à 4,3 m d’ici à 2200, uniquement en raison de l’Antarctique.

Bien que ces chiffres puissent sembler alarmants, les émissions actuelles et les projections récentes indiquent que ce scénario d’émissions très élevées est peu probable. Cet exercice montre néanmoins les conséquences graves de fortes émissions et souligne l’importance de les réduire.

Nos conclusions

Ces impacts ont des répercussions sur la justice climatique, en particulier pour les nations insulaires qui ont peu contribué au changement climatique mais subissent déjà les effets dévastateurs de l’élévation du niveau de la mer.

De nombreux États insulaires perdent déjà des terres à cause de la montée des eaux et ont été à l’avant-garde des efforts mondiaux pour limiter le réchauffement. Protéger ces pays et d’autres zones côtières nécessitera de réduire les émissions de gaz à effet de serre plus rapidement que ce à quoi les nations s’engagent aujourd’hui.

The Conversation

Shaina Sadai a reçu des financements de la National Science Foundation et de la Hitz Family Foundation.

Ambarish Karmalkar a reçu des financements de la National Science Foundation.

ref. Face à la fonte des glaces de l’Antarctique, le niveau de la mer n’augmente pas au même rythme partout – https://theconversation.com/face-a-la-fonte-des-glaces-de-lantarctique-le-niveau-de-la-mer-naugmente-pas-au-meme-rythme-partout-270991

Le président de la République, l’ingénieur de Stellantis et les 19 000 euros

Source: The Conversation – France (in French) – By Elise Penalva-Icher, Professeure des universités en sociologie, Université Paris Dauphine – PSL

Ces dernières semaines, l’ancien PDG de Stellantis, Carlos Tavares, a eu une forte présence médiatique à l’occasion de la promotion de son livre. Une de ses déclarations a fortement fait réagir. Selon lui, le président de la République gagnerait autant qu’un ingénieur de Stellantis, soit 19 000 euros par mois. Cela est faux. Mais au-delà du fact checking, quelle analyse pouvons-nous proposer de cette déclaration et plus largement du rapport des dirigeants aux rémunérations ?


En cet automne 2025, Carlos Tavares, ancien PDG de Stellantis à la réputation de cost killer, est en pleine promotion de son livre autobiographique, Un pilote dans la tempête (Plon). À l’écouter, ces confessions ne relèvent guère d’un exercice d’autocritique, mais plutôt d’une réhabilitation de sa personne et de son action à la tête d’un groupe pourtant aujourd’hui dans la tourmente boursière, et, confronté au scandale des airbags défectueux.

Carlos Tavares souhaite livrer sa vérité, « son éthique » comme il le dit lui-même. Il s’agit d’une belle occasion de comprendre sa rationalité en tant qu’acteur économique. Et disons-le sans suspense, celle de l’ancien PDG appartient à la catégorie de la rationalité en finalité, qui repose sur un calcul coût-bénéfice effectué dans le cadre d’une relation marchande contractuelle.

Dans son discours, on ne trouve pas de valeur ou de sens – hors du marché. Au mieux, tolère-t-il de rester dans un cadre légal, quand il répond aux journalistes que si ses rémunérations choquent, le Parlement n’a qu’à voter une nouvelle loi pour les encadrer. Mais de quoi parle-t-il et pourquoi la question de ses émoluments, comme ceux de ses comparses, déborde sa personne et peut être analysée comme un sujet central dans nos sociétés ?

Un ingénieur payé 19 000 euros. Vraiment ?

Rappelons d’abord les faits. Carlos Tavares a affirmé qu’avec environ 19 000 euros brut par mois, le salaire d’Emmanuel Macron équivalait « à peu près, [au] salaire d’un bon ingénieur de Stellantis avec entre cinq et dix ans d’expérience ».

Est-ce vrai ? Aujourd’hui, les exercices de debunkage de fake news sont bien rodés. Assez rapidement, ce chiffre a été mis en cause par de nombreux articles du Figaro à BFM en passant par la Revue automobile.




À lire aussi :
Les écarts de salaires stimulent-ils vraiment les individus au travail ?


Les syndicats de Stellantis ont également rétabli les faits. Un communiqué du syndicat des cadres CFE-CGC dénonce des propos « totalement erronés », et précise :

« Le salaire moyen d’un ingénieur chez Stellantis, avec cinq à dix ans d’expérience, se situe entre 4 000 et 6 000 euros brut par mois, primes comprises, selon les données internes fiables de l’entreprise. »

Cela peut heurter qu’un PDG méconnaisse autant l’échelle de rémunération de son entreprise, le conduisant à une représentation de la stratification sociale totalement biaisée, surtout quand sa propre rémunération fait débat. Et ce n’est pas un quidam qui le dit, mais un investisseur : Allianz Global Investors a voté contre les 23 millions de rémunérations proposés au vote des actionnaires réunis lors de l’assemblée générale du groupe en avril 2025.

Des rémunérations de plus en plus complexes

On relèvera également que son bonus de départ de 10 millions n’a pas été versé, contrairement à d’autres dispositifs de rémunérations variables. Cela révèle à quel point, aujourd’hui, les rémunérations sont devenues complexes et individualisées, composées d’un salaire fixe, mais aussi de bonus, de participation, d’intéressement… Trop hétérogènes pour être circonscrites uniquement à la contrepartie du contrat de travail, elles débordent de la fiche de paie et témoignent de l’inscription du salarié dans le collectif que constitue son entreprise. Elles sont le signe d’un contrat social.

Et c’est pourquoi ces sommes peuvent choquer, quand elles deviennent si inexactes, comme dans le cas de l’ingénieur Stellantis, ou astronomiques pour celles des PDG. Pas tant pour leur non-véracité, mais surtout parce qu’elles révèlent le désajustement de Carlos Tavares à sa propre entreprise et à son contrat social.

Un entre-soi dangereux

Et Carlos Tavares n’est pas le premier PDG à buter sur la question de ses rémunérations. Avant lui, toujours dans le secteur automobile, Carlos Ghosn avait connu de premiers déboires quand sa rémunération n’avait pas été votée en assemblée générale d’actionnaires lors de la première année d’application de la loi Sapin 2. Heureusement pour lui, à l’époque, ce vote n’avait qu’une valeur consultative.

Rappelons aussi que Patrick Pouyanné, PDG de TotalÉnergies, a vécu un bad buzz lorsqu’il a communiqué à propos de sa rémunération sur les réseaux sociaux, qui en réaction s’étaient enflammés pour critiquer les écarts stratosphériques entre ses émoluments et le salaire moyen dans son entreprise. Il avait alors tenté une défense en se comparant à ses pairs des grands groupes pétroliers mondiaux, révélant être le moins bien rémunéré d’entre eux.

Capture d’écran du compte X de Patrick Pouyanné


Twitter

« In or out »

On relève ici un contraste. L’opinion publique comme la loi, qui oblige aujourd’hui à communiquer des indicateurs d’écarts de salaires, posent les termes de la comparaison à l’intérieur de l’entreprise. Nos PDG, eux, en sortent pour s’inscrire dans une petite élite mondialisée. Ces justifications témoignent d’une position des PDG évoluant partiellement hors de l’entreprise qui pourtant les mandate. Est-ce un signe supplémentaire de la rupture du contrat social ?

Un autre argument apporté par Carlos Tavares pour justifier sa rémunération repose sur les risques encourus par les patrons, un discours dans la filiation de la figure de l’entrepreneur. L’argument peut être questionné, car pourquoi, pendant le Covid, la prise de risque effective des salariés de première ligne a-t-elle été récompensée par une faible prime ? La prise de risque, certes non financier mais qui n’en est pas moins important dans le cas du Covid, n’est pas rémunérée de la même façon selon la position.

LCI 2025.

Si le risque n’est plus l’apanage des entrepreneurs, quelle justification apporter pour faire accepter de tels écarts ? Car sans un consensus sur le sens à donner aux écarts salariaux, ils deviennent des inégalités… et les inégalités peuvent devenir des injustices et des sources de révolte.

Quelle est la situation générale en France ? L’échelle de l’Observatoire des inégalités nous précise que le niveau de vie médian est à 2 147 euros. Le rapport d’Oxfam note que le PDG de Téléperformance gagne 1 484 fois plus que le salaire moyen de son entreprise.

Ces montants offrent un ordre de grandeur et posent la question de comment faire tenir ensemble des salariés dans un collectif où les écarts seraient si importants qu’ils dépasseraient les limites de l’entendement. Cela tient au sens qui manque au discours de notre ancien PDG pour à la fois devenir socialement acceptable, voire responsable, mais surtout emporter l’adhésion des salariés comme de ses actionnaires. Peut-on faire corps avec une échelle de mesure si dilatée ?

The Conversation

Elise Penalva-Icher a reçu des financements du département recherches et études de l’APEC (rapport paru en 2016) et de l’ANR : projet ProVirCap sur les professionnel.les du capitalisme vertueux https://provircap.hypotheses.org/

ref. Le président de la République, l’ingénieur de Stellantis et les 19 000 euros – https://theconversation.com/le-president-de-la-republique-lingenieur-de-stellantis-et-les-19-000-euros-270305

Fabriquer du cartilage humain… à partir de pommes

Source: The Conversation – in French – By Karim Boumédiene, Professeur de biochimie et biologie moléculaire, ingénierie tissulaire, Université de Caen Normandie

Aussi surprenant que cela puisse paraître, on peut se servir de pommes pour fabriquer du cartilage humain en laboratoire. Priscilla Du Preez/Unsplash, CC BY

Certaines pathologies induisent une perte de tissus comme du cartilage. Il y a donc un réel besoin de greffons. Et si la solution était de cultiver ce cartilage en laboratoire, à partir des propres cellules du patient (et en se servant de pommes) ?


Le laboratoire Bioconnect de l’Université de Caen Normandie, que je dirige avec le Pr Catherine Baugé, vient de publier un article dans la revue de référence Journal of Biological Engineering. Dans cette étude, nous avons utilisé des pommes décellularisées comme biomatériau, combinées avec des cellules souches humaines pour reconstruire du cartilage in vitro (c’est-à-dire dans des boîtes de culture).

Cette approche de confection de tissus fait partie d’une discipline appelée l’ingénierie tissulaire. Elle vise à reconstruire des tissus humains en laboratoire dans le but de les utiliser comme des greffons pour combler des pertes tissulaires.

Cela consiste à implanter des cellules du patient dans des biomatériaux et à incuber l’ensemble dans des conditions adéquates pour former les tissus désirés, tels que l’os, le muscle ou le cartilage par exemple.

De nombreuses pathologies ou traumatismes induisent une altération ou perte des tissus nécessitant une reconstruction. Cela concerne des maladies dégénératives, dans lesquelles les tissus finissent par disparaître (arthrose pour la cartilage, ostéoporose pour l’os par exemple). Il y a donc un besoin important de greffons. Cependant, obtenir des tissus sains implantables est un véritable challenge pour les chirurgiens, devant la rareté ou la compatibilité des donneurs.

Afin de s’en affranchir, l’ingénierie tissulaire se révèle être une stratégie efficace. De plus, lorsque c’est possible, les propres cellules du patient sont ensemencées sur le biomatériau pour reconstruire le tissu endommagé, ce qui évite les risques de rejet immunologique.

La pomme est un excellent échafaudage

Si les chercheurs sont capables de multiplier facilement des cellules en laboratoire dans des boîtes de culture, elles ne s’organisent pas spontanément pour former des tissus et il est nécessaire de les combiner à des biomatériaux. Ces derniers sont utilisés pour jouer le rôle de support et d’échafaudage aux cellules, afin de leur permettre de former un tissu sous forme de volume et, ainsi, faciliter la reconstruction tissulaire.

Il est notamment possible d’utiliser directement des tissus ou organes humains après les avoir « décellularisés », c’est-à-dire débarrassés de leurs cellules. La structure résultante peut alors être ensemencée avec d’autres cellules, généralement saines. Cette stratégie a cependant une limite importante puisqu’il faut disposer de suffisamment de tissus au départ. Depuis une dizaine d’années, des tissus végétaux décellularisés peuvent servir de support pour la reconstruction.

Protocole de préparation des tissus cartilagineux à partir de cellules souches et de pommes décellularisées.
Fourni par l’auteur

Plusieurs approches ont déjà été réalisées dans notre laboratoire ainsi que d’autres, avec plusieurs types de biomatériaux, mais ici, c’est une première mondiale de reconstruction de cartilage avec un support végétal.

L’idée a émergé il y a quelques années, à la suite de la parution d’un article scientifique d’une équipe canadienne qui a montré que la pomme décellularisée était compatible avec la culture de cellules de mammifères. Aussitôt, nous avons pensé à l’appliquer pour construire du cartilage dont nous sommes spécialistes. Il y a plusieurs avantages à l’utilisation de tels supports issus du règne végétal : disponibilité quasi illimitée, prix très faible, biocompatibilité déjà validée in vivo, possibilité de sculpter le matériau à volonté pour épouser la forme du tissu désiré.

De multiples idées d’applications

Il s’agit là d’un premier pas dans l’utilisation des tissus provenant des plantes pour la reconstruction de tissus humains, même si cela doit être validé par des expériences supplémentaires, d’abord précliniques sur l’animal puis cliniques sur l’humain, pour évaluer le comportement de ces tissus sur le long terme et le bénéfice pour les patients. Les applications pourraient être nombreuses : réparation du cartilage articulaire (après microtraumatismes ou arthrose), reconstruction du cartilage nasal (après un traumatisme, un cancer), ou même auriculaire.

Ainsi, notre étude représente une ouverture importante dans le domaine de l’ingénierie tissulaire pour confectionner des greffons pour la chirurgie reconstructrice, mais également pour limiter le recours aux animaux d’expérimentation. En effet, les tissus ainsi construits en laboratoire peuvent aussi avantageusement être employés pour modéliser plus efficacement les maladies in vitro et tester des traitements dans des modèles dits « organoïdes », permettant ainsi de réduire voire de remplacer les tests in vivo et, par là même, diminuer le recours à l’utilisation de l’expérimentation animale.

Enfin, compte tenu de la très grande diversité dans le règne végétal, il reste aussi à explorer cet énorme potentiel pour notamment déterminer quelle plante (ou quelle partie de plante) pourrait convenir le mieux à la reconstruction de tel ou tel tissu. D’autres végétaux sont d’ores et déjà en cours d’investigation, comme le céleri par exemple.

The Conversation

Karim Boumédiene a reçu des financements de la Fondation des gueules cassées, de la Région Normandie et de l’Université de Caen Normandie.

ref. Fabriquer du cartilage humain… à partir de pommes – https://theconversation.com/fabriquer-du-cartilage-humain-a-partir-de-pommes-267914

AFM-Téléthon : comment les patients et leur proches ont révolutionné la recherche médicale

Source: The Conversation – in French – By Marie-Georges Fayn, Chercheuse associée, Université de Tours

Le Téléthon 2025 se tiendra les 5 et 6 décembre 2025. Née grâce à la détermination de parents d’enfants atteints de myopathie, l’association a su transformer l’épreuve de la maladie en une force génératrice d’entraide, de progrès scientifique et d’innovation sociale. Retour sur les raisons de ce succès, à la lumière des théories de l’empowerment.


Lorsqu’est créée, en 1958, l’Association française pour la myopathie (AFM), scientifiques et médecins n’ont que très peu de connaissances sur la maladie. Soutenue par une poignée de parents de patients, sa fondatrice Yolaine de Kepper, elle-même mère de quatre enfants atteints de myopathie de Duchenne, n’accepte pas la fatalité.

Elle décide de fonder une structure pour faire connaître (et reconnaître) cette maladie, avec l’ambition de parvenir un jour à guérir les malades, dont la majorité mourait avant d’atteindre l’âge adulte. Les statuts initialement enregistrés au Journal officiel précisaient alors que l’objet de l’AFM était « [le] recensement des myopathes en France et en Belgique, [l’]obtention pour les malades atteints de myopathie des avantages du régime “longue durée” ; [la] création d’un centre spécialisé social et médical ».

Un peu moins de soixante-dix ans plus tard, devenue Association française contre les myopathies puis AFM-Téléthon, cette structure est un actrice incontournable de la recherche biomédicale, dont l’influence et l’expertise s’étendent bien au-delà de son périmètre initial.

L’analyse croisée des rapports institutionnels de l’association ainsi que de publications scientifiques ou issues de la société civile permet de mieux comprendre comment ce succès s’est construit, grâce à l’empowerment collectif.

De la révolte des familles à la naissance d’un mouvement

Sur son site Internet,l’AFM-Téléthon revendique un réseau de 68 délégations s’appuyant sur plus de 850 bénévoles afin d’accompagner quotidiennement les malades et leurs proches.

Le refus de la fatalité, la solidarité, la quête de solutions sont les valeurs fondatrices de ce collectif. En devenant membres de l’AFM, les parents sortent de leur isolement, s’entraident et mutualisent leurs expériences. Au fil du temps les réunions informelles se sont structurées ; l’association dispose aujourd’hui d’importants moyens d’accueil et d’information : groupes de paroles, lignes d’écoute, forums…

Le rapprochement de familles confrontées aux mêmes maux a permis de faire émerger une prise de conscience, une identité partagée, des liens de solidarité, un savoir et un pouvoir collectifs offrant une illustration concrète de l’empowerment communautaire. Ce terme d’empowerment est difficile à traduire en français, car il n’existe pas réellement d’équivalent capable de restituer à la fois sa dimension individuelle et sa dynamique collective, évolutive et transformative (même si des essais ont été tentés, tels qu’« empouvoirement », « pouvoir d’agir » ou « encapacitation », notamment).

Quand les patients deviennent partenaires de la recherche

Au début des années 1980, l’AFM réalise qu’aider ne suffit pas : il faut chercher à guérir. En 1981, elle crée son premier conseil scientifique, posant les bases d’une alliance entre familles, chercheurs et médecins. En 1982, sous la présidence de Bernard Barataud, elle adopte une devise ambitieuse, « Refuser, résister, guérir ».

Mais pour atteindre cet objectif, l’association a besoin d’argent, de beaucoup d’argent. En 1987, inspirée par le Jerry Lewis Show, l’AFM lance le Téléthon avec France 2. Un marathon de trente heures d’émission en direct qui mobilisent tout un pays : 180 millions de francs (soit l’équivalent de 27 millions d’euros) sont collectés dès la première édition. C’est un tournant historique – la société civile devient co-actrice de la recherche médicale.

L’association investit dans des laboratoires et des instituts (voir tableau plus bas) et les découvertes scientifiques majeures s’enchaînent :

Dans son rapport annuel et financier 2024, l’association revendique plus de 40 essais cliniques en cours ou en préparation pour 33 maladies différentes (muscle, peau, cœur, vision, foie…).

Ce contexte a permis à Laurence Tiennot-Herment, présidente de l’AFM, de déclarer lors du Téléthon 2024 :

« Aujourd’hui, nous avons des résultats concrets. C’est une révolution médicale collective. »

L’accompagnement au plus près des familles

Parallèlement au progrès scientifique, l’association poursuit sa mobilisation en faveur du soutien aux malades dans leur vie quotidienne en concevant un maillage au plus près des familles. L’AFM-Téléthon se prévaut de 120 référents parcours de santé qui interviennent non seulement à domicile, mais aussi à l’école et en entreprise, afin d’accompagner chaque étape du parcours de vie : diagnostic, scolarisation, emploi, démarches administratives.

Vecteurs d’empowerment individuel, ces professionnels favorisent l’expression des besoins, la prise d’autonomie et la construction de projets de vie adaptés à chaque situation. Leur accompagnement sur mesure aide les personnes à faire valoir leurs droits, à renforcer leur capacité d’agir et à devenir acteurs de leur parcours.

Ces dispositifs placent les personnes concernées au cœur des décisions qui les affectent. Des groupes d’intérêt par pathologie sont aussi constitués (Myopathies de Duchenne et de Becker, Amyotrophies spinales, Myasthénie, Dystrophie myotonique de Steinert, Dystrophie facio-scapulo-humérale, Maladies neuromusculaires non diagnostiquées, Myopathies inflammatoires, Myopathies des ceintures). Ils réunissent des personnes ayant développé une expertise approfondie de leur maladie. Ensemble, ils mobilisent leur intelligence collective pour co-produire des connaissances et développer les filières de santé ainsi que la recherche.

Mobilisant son énergie et ses ressources autour de deux stratégies complémentaires, l’AFM-Téléthon inscrit donc ses actions dans un empowerment collaboratif d’envergure : un axe scientifique, associant les familles à la production de connaissances fondamentales et au développement de programmes expérimentaux, et un axe social, fondé sur l’accompagnent à l’autonomie avec la co-conception de services (ouverture d’une ligne téléphonique « accueil familles » – 0 800 35 36 37 – accessible 7 jours sur 7 et 24 heures sur 24, création de lieux de répit) et de dispositifs de soutien en proximité (visites à domicile par les référents de parcours santé cités précédemment, cellule d’aide psychologique durant la pandémie).

De la science à la société

L’AFM-Téléthon porte une vision ambitieuse et volontariste de la santé. Ses plaidoyers inspirent les plans nationaux sur les maladies rares et promeuvent une recherche simplifiée, mieux financée et tournée vers l’innovation.

Ainsi, le programme de dépistage néonatal comprend désormais celui de l’amyotrophie spinale infantile (SMA) chez les nouveau-nés. Il s’agit d’une extension nationale du projet Depisma porté par l’AFM-Téléthon (le projet Depisma, projet-pilote de dépistage génétique à la naissance a été déployé par l’AFM-Téléthon dans les régions Nouvelle-Aquitaine et Grand-Est ; lancé en janvier 2023, il a permis de dépister la maladie sur quatre bébés et de la traiter).

Mais son influence dépasse largement le champ sanitaire : ses trente heures d’antenne et les milliers d’événements organisés dans plus de 15 000 communes ne sont pas seulement des temps de collecte : ils constituent un levier de transformation sociale. En offrant une tribune aux malades et à leurs proches, l’association a rendu visibles celles et ceux que la société tenait à distance.

L’association s’inscrit dans une tradition d’action axée sur la solidarité, l’accompagnement des familles et le soutien à la recherche, écartant toute prise de position partisane. Cette orientation stratégique lui permet de concentrer ses ressources sur son obligation de résultat (sauver la vie des enfants).

Par ailleurs, elle met son expertise scientifique et organisationnelle au service d’autres associations, notamment pour le développement de biomarqueurs, la structuration des filières ou la réponse à des appels d’offres. L’exemple de l’AFM-Téléthon illustre la manière dont un acteur majeur peut contribuer à renforcer un empowerment collectif, sans nécessairement investir le registre politique au sens strict comme ont choisi de le faire d’autres mouvements.


L’empowerment des patients. La révolution douce en santé, Presses de l’EHESP, octobre 2025.
DR

Pour approfondir :

The Conversation

Marie-Georges Fayn ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. AFM-Téléthon : comment les patients et leur proches ont révolutionné la recherche médicale – https://theconversation.com/afm-telethon-comment-les-patients-et-leur-proches-ont-revolutionne-la-recherche-medicale-268463

L’« effet Lazare », ou quand certains êtres vivants ressurgissent après des millions d’années

Source: The Conversation – France (in French) – By Violaine Nicolas Colin, Maitre de conférence en systématique et phylogéographie, Muséum national d’histoire naturelle (MNHN)

Les lézards iguanidés ( ici, _G. longicaudatus_) étaient très répandus et diversifiés en Europe durant l’Éocène (entre 56 millions et 33,9 millions d’années). On les pensait totalement disparus du continent après la transition Éocène-Oligocène. Jusqu’à la découverte, en 2012, de spécimens du genre _Geiseltaliellus_ dans le sud de la France. Chris Woodrich, CC BY

Nommé d’après la figure biblique revenue d’entre les morts, l’« effet Lazare » désigne un phénomène bien plus fréquent qu’on ne le pense : la réapparition de certains groupes d’organismes que l’on croyait éteints.


Tout le monde connaît Lazare, ce personnage du Nouveau Testament que Jésus aurait ramené à la vie. C’est de cette image symbolique qu’est né le terme d’« effet Lazare », utilisé aujourd’hui dans différents domaines de la biologie.

En paléontologie et en phylogénie (l’étude des relations évolutives entre les organismes), il désigne un phénomène fascinant : celui de groupes d’organismes – espèces, genres ou familles – qui semblent avoir disparu pendant des millions d’années si l’on se fie à l’ensemble des fossiles découverts à ce jour, avant de réapparaître comme par miracle.

Le concept a été introduit dans les années 1980 par les scientifiques états-uniens Karl Flessa et David Jablonski, puis affiné par la suite. Toutefois, les scientifiques ne sont pas toujours d’accord sur la manière de le définir : certains, comme Jablonski, y voient une simple absence temporaire dans les archives fossiles pendant un intervalle de temps donné, d’autres le réservent aux retours spectaculaires après les grandes crises d’extinction massive.

Pourquoi ces « résurrections » apparentes ?

L’effet Lazare demeure de fait étroitement lié à la qualité du registre fossile, c’est-à-dire à l’ensemble des fossiles découverts à ce jour, qui n’offre qu’une image partielle du passé de la vie. La fossilisation est un processus rare et sélectif : certains organismes se fossilisent mieux (par exemple, ceux dotés de coquilles ou d’os) et certains milieux (comme les fonds marins) favorisent la conservation des restes biologiques. De plus, les roches peuvent être détruites, transformées ou tout simplement jamais explorées. Résultat : de larges pans de l’histoire du vivant nous échappent encore.

L’absence d’un taxon (unité de genre, de famille ou d’espèce) dans le registre fossile pendant des millions d’années peut donc avoir deux explications :

  • une cause « stratigraphique », autrement dit un trou dans les archives. Le taxon a bien survécu, mais nous n’en avons conservé aucune trace ;

  • une cause « biologique » signifiant qu’il s’agit d’un véritable événement évolutif.

Plusieurs scénarios peuvent alors expliquer cette disparition apparente :

→ Le taxon a pu trouver refuge dans des zones isolées, de petite taille ou mal explorées. Après une longue période d’isolement dans ces refuges, le taxon a ensuite envahi de nouveau son territoire originel et est réapparu dans le registre fossile.

→ Il a pu subsister à très faible densité, en dessous du seuil nécessaire pour laisser des traces fossiles. En dessous de ce seuil, la population reste viable, mais nous n’avons tout simplement aucune trace de son existence. Malheureusement, ce seuil varie selon les environnements et les taxons, et il est quasiment impossible à quantifier.

La distinction entre les alternatives stratigraphique et biologique est souvent difficile. L’intensité des fouilles, la qualité de l’identification des fossiles et le niveau taxonomique (espèce, genre, famille…) jouent tous un rôle crucial dans l’interprétation de ces cas. Il faut aussi noter que l’interprétation de l’effet Lazare est une procédure asymétrique, car l’alternative biologique n’est privilégiée que lorsque l’alternative stratigraphique ne peut être documentée. Par conséquent, les techniques analytiques évaluant l’exhaustivité des archives fossiles sont essentielles pour comprendre la signification des taxons Lazare.

Origines de l’effet Lazare mettant en évidence les alternatives stratigraphique et biologique qui soit empêchent la préservation, soit limitent le nombre de restes préservés encore non découverts en raison d’un échec d’échantillonnage. Adapté de Fara (2001).
Fourni par l’auteur

Quand la vie joue à cache-cache : quelques exemples

Une chose reste elle certaine, les exemples de taxons Lazare sont bien moins rares qu’on pourrait le penser.

Les lézards iguanidés, par exemple, étaient très répandus et diversifiés en Europe durant l’Éocène (de -56 millions à -33,9 millions d’années). On pensait qu’ils avaient totalement disparu du continent après la transition Éocène-Oligocène. Pourtant, la découverte, en 2012, de spécimens du genre Geiseltaliellus dans le sud de la France a montré qu’ils avaient survécu quelque temps en faible abondance avant de s’éteindre définitivement, probablement à la fin de l’Oligocène, il y a 23 millions d’années.

Autre cas remarquable : le gastéropode du genre Calyptraphorus. Longtemps considéré comme disparu à la fin de l’Éocène, il a refait surface au Pliocène (de -5,3 millions à -2,6 millions d’années) dans des gisements des Philippines (Asie du Sud-Est), prolongeant son existence fossile d’environ 30 millions d’années ! Cette longévité cachée suggère qu’il aurait survécu discrètement dans des zones refuges du Pacifique tropical.

La redécouverte d’espèces vivantes appartenant à des groupes que l’on pensait éteints constitue une expression rare et spectaculaire de l’effet Lazare. Parmi les exemples les plus emblématiques on peut par exemple citer, le cœlacanthe, véritable icône de l’effet Lazare. Ce poisson, que l’on croyait éteint depuis 66 millions d’années, a été redécouvert vivant en 1938 au large de l’Afrique du Sud (Afrique australe).

Un autre cas remarquable est celui de Laonastes, un petit rongeur découvert en 2005 au Laos, en Asie du Sud-Est, sur les étals d’un marché local de viande sauvage. Au départ, les chercheurs pensaient avoir affaire à une nouvelle famille de rongeurs, qu’ils ont appelée Laonastidæ.

Le kanyou (Laonastes aenigmamus) est un rongeur découvert au Laos dans la province de Khammouane. Décrit en 2005 il est le seul représentant vivant de la famille de Diatomyidæ ; famille que l’on pensait disparue depuis plus de 11 millions d’années
Le kanyou ou khan-you (Laonastes aenigmamus) est un rongeur découvert au Laos, dans la province de Khammouane. Décrit en 2005, il est le seul représentant vivant de la famille des Diatomyidæ ; famille que l’on pensait disparue depuis plus de 11 millions d’années.
Jean-Pierre Hugot, CC BY

Cette classification reposait sur des analyses génétiques basées sur un nombre limité de gènes et sur la comparaison de sa morphologie avec celle d’espèces actuelles. Mais un véritable bouleversement scientifique est survenu lorsque les scientifiques ont intégré des fossiles dans leurs analyses morphologiques. En comparant en détail le crâne, la mandibule, les dents et le squelette de Laonastes avec des rongeurs fossiles et actuels, ils ont découvert qu’il appartenait en réalité à la famille des Diatomyidæ, que l’on croyait éteinte depuis plus de 11 millions d’années.

Ces analyses ont également révélé que les plus proches parents actuels de cette famille sont les goundis Ctenodactylus gundi. Des études génétiques plus poussées sur les espèces actuelles ont ensuite confirmé ce lien de parenté entre Laonastes et les goundis, et révélé que ces deux lignées auraient divergé il y a environ 44 millions d’années. Laonastes représente donc un exemple frappant de taxon Lazare.

Pourquoi ces découvertes sont-elles si importantes ?

Les taxons Lazare sont ainsi bien plus que des curiosités de la nature. Ils offrent aux scientifiques des clés uniques pour comprendre l’évolution du vivant, la résilience des espèces face aux crises et surtout les limites du registre fossile.

En phylogénie, leur réapparition peut modifier notre compréhension des liens de parenté entre les espèces, des dates de divergence et d’extinction ou encore de la vitesse d’évolution morphologique.

En paléontologie, ils rappellent à quel point le registre fossile est biaisé et incomplet, et combien il faut être prudent avant de déclarer une espèce « disparue ».

Enfin, les taxons Lazare montrent que la vie ne disparaît pas toujours là où on le croit. Parfois, elle se retire simplement dans l’ombre pour ressurgir des millions d’années plus tard, comme un témoin silencieux de la longue histoire de l’évolution.

Parce que dans les usages de nomenclature biologique, seuls les noms de rangs générique et infra-générique (genre, espèce, sous-espèce) se composent en italique, tandis que les noms de familles et au-dessus (famille, sous-famille, ordre, etc.) se composent en romain. Ainsi, Laonastidæ a parfois été perçu comme un nom de genre par confusion et mis en italique à tort, alors que Diatomyidæ est un nom de famille correctement laissé en romain.

The Conversation

Violaine Nicolas Colin a reçu des financements de l’ANR.

ref. L’« effet Lazare », ou quand certains êtres vivants ressurgissent après des millions d’années – https://theconversation.com/l-effet-lazare-ou-quand-certains-etres-vivants-ressurgissent-apres-des-millions-dannees-269236

Le bonheur s’achète-t-il en solde ?

Source: The Conversation – France (in French) – By Mickaël Mangot, Docteur en économie, spécialiste d’économie comportementale et d’économie du bonheur, conférencier, chargé de cours, ESSEC

Les difficultés de la vie quotidienne peuvent modérer le bénéfice de la consommation sur notre bonheur. Pack-Shot/Shutterstock

Consommer nous rend-il plus heureux ? Les soldes nous rapprochent du bonheur ou, au contraire, nous en éloigne-t-il ? Selon l’économie du bonheur, toutes les consommations ne se valent pas…

Depuis le début des années 1970, l’économie du bonheur constitue un courant de recherche, au sein de la science économique, qui se propose de décrypter comment les comportements des individus influencent leur niveau de bonheur.

Si la relation entre revenus et bonheur a beaucoup occupé la discipline, de plus en plus de chercheurs s’intéressent désormais à la relation entre consommation et bonheur, sur un plan quantitatif – combien on consomme – comme qualitatif – ce que l’on consomme.

Est-on d’autant plus heureux que l’on consomme ? À l’instar de la relation entre revenus et bonheur, la réponse est clairement affirmative, que ce soit en Europe, aux États-Unis ou en Asie. Mais, comme pour le revenu, la consommation explique à elle seule très peu des différences de bonheur entre individus, entre 5 % et 15 %. Il existe beaucoup de personnes qui sont heureuses tout en consommant peu et, inversement, des individus très dépensiers qui sont insatisfaits de leur vie.

Impact éphémère

Cette absence de relation forte entre niveau de consommation et niveau de bonheur s’explique en grande partie par plusieurs mécanismes psychologiques.

Hormis quelques exceptions – chômage, handicap lourd, maladies chroniques ou dégénératives, etc., les humains s’adaptent aux chocs de vie, positifs ou négatifs.

La consommation, notamment de biens matériels, fait partie de ces événements qui ne laissent plus aucune de trace sur le bonheur à moyen long terme. Une fois l’achat effectué, nos consommations sont vite reléguées à l’arrière-plan de nos vies. Cette règle s’applique autant pour les petits achats – vêtements, déco ou high-tech – que pour les biens durables très onéreux comme la voiture ou le logement.

Les désirs se renouvellent et progressent constamment. Plus le niveau de vie augmente, plus les aspirations s’élèvent.

Cette montée en gamme (ou lifestyle inflation) s’applique à tout : logement, voiture, vêtements, restaurants, loisirs… À 20 ans on rêve d’un McDo et d’une chambre de bonne et à 60 ans d’un restaurant étoilé et d’une maison de maître. Dans nos armoires ou sur nos étagères, les consommations passées sont les vestiges visibles de désirs aujourd’hui dépassés.

Compétition sociale

S’ajoute aussi le mécanisme de la comparaison sociale : on fait l’expérience de son niveau de vie en partie cognitivement, en l’évaluant par rapport à celui des autres. Un niveau de vie élevé n’est pas gage de satisfaction s’il traduit un statut inférieur à celui de ses collègues, de ses voisins et de sa famille.

Ce n’est donc pas seulement notre propre consommation qui est importante pour le bonheur (positivement), mais également celle de notre entourage immédiat (négativement), du moins pour les consommations facilement observables – logement, voiture, vêtements, montres…

La satisfaction de la vie au sein d’un ménage augmente en fonction du rang de ce ménage en termes de consommation observable au sein de la même localité. D’ailleurs, lorsqu’un ménage gagne à la loterie, cela tend à augmenter les consommations observables des ménages dans ses alentours.




À lire aussi :
Soldes : les commerçants sont-ils d’honnêtes manipulateurs ?


L’observation de biens de luxe chez les autres peut être particulièrement nocive pour le bonheur. Une étude a obtenu que plus la proportion de Porsche et de Ferrari est élevée dans une ville ou une région, et plus le niveau de bonheur moyen y était faible.

Privilégier les expériences

De nombreux travaux ont cherché à distinguer différents types de consommation selon leur intensité et selon la durabilité de leur impact sur le bonheur. Ils ont fait émerger une liste de consommations plus propices au bonheur :

Ces consommations ont la particularité de renforcer la connexion aux autres, d’améliorer l’image sociale ou l’image de soi, ou de contribuer à forger une identité.

Il est à noter que la liste n’est pas exactement la même pour tout le monde. Elle est modérée par les valeurs, la personnalité et les difficultés propres à la personne. Les biens matériels influencent plus le bonheur des personnes ayant des revenus modestes ou des valeurs matérialistes. Les valeurs matérialistes expliquent que la possession d’une voiture et sa valeur marchande sont particulièrement impactantes pour le bonheur des… boomers.

Plus la consommation est alignée avec la personnalité, et plus elle a généralement d’effet. Par exemple, les extravertis bénéficient plus que les introvertis des consommations sociales comme les sorties dans les bars et restaurants, et inversement pour les achats de livres.

Pallier les difficultés

Les difficultés du quotidien modèrent l’effet de la consommation sur le bonheur. La voiture est particulièrement importante pour le bonheur chez les personnes qui ont des problèmes de mobilité du fait d’une santé défaillante ou de l’absence d’alternatives. De même, le recours à des services pour gagner du temps est particulièrement efficace pour doper le bonheur des personnes qui en manquent (comme les parents en activité).

Ces dernières observations sont à relier à un autre mécanisme psychologique fondamental : le biais de négativité. Les émotions négatives affectent plus fortement et plus durablement l’évaluation de la vie que les émotions positives. On s’adapte en général moins rapidement aux chocs de vie négatifs qu’aux chocs positifs.

Les domaines de la vie pour lesquels on est insatisfait influencent plus l’évaluation générale de la vie que les domaines apportant satisfaction. Les consommations ont généralement plus d’effet sur le bonheur quand elles permettent de corriger un manque, plutôt que lorsqu’elles ajoutent du positif.

Plaisir de la transaction

Ces découvertes sont, pour certaines, plutôt intuitives. Néanmoins, les consommateurs peinent à en tirer les leçons pratiques du fait d’erreurs systématiques au moment des décisions. Par exemple, ils tendent à sous-estimer la puissance de l’adaptation aux évènements de la vie, notamment positifs, tout comme ils sous-estiment leurs changements de goûts et de priorités dans le temps.

Lors d’un achat, la quête du bonheur entre souvent en conflit avec la recherche d’une rationalité économique. La satisfaction attendue de la consommation est mise en balance avec le plaisir de la transaction, comme l’a montré le Prix Nobel d’économie Richard Thaler. En période de promotions, on se laisse aller à acheter des produits dont on n’a ni besoin ni réellement envie uniquement pour faire une bonne affaire. Le plaisir de la transaction est éphémère ; après coup on oublie vite avec quel niveau de remise l’achat a été réalisé.

Finalement, essayons de renverser la question : être vraiment heureux changerait-il notre façon de consommer ? Quelques études pionnières suggèrent que les personnes heureuses consomment différemment des autres : elles consomment moins (et épargnent plus) tout en ayant une consommation davantage orientée vers les sorties que vers les biens matériels. Ces études ne disent pas, en revanche, si ces personnes déjà très heureuses vont jusqu’à ignorer le Black Friday…

The Conversation

Mickaël Mangot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le bonheur s’achète-t-il en solde ? – https://theconversation.com/le-bonheur-sachete-t-il-en-solde-270576

Une partie du cerveau humain grossit avec l’âge – voici ce que cela signifie pour vous

Source: The Conversation – in French – By Esther Kuehn, Professor of Neuroscience, University of Tübingen

Le vieillissement cérébral est propre à chaque individu et dépend de son mode de vie, notamment de ses expériences sensorielles, de ses habitudes de lecture et des défis cognitifs qu’il relève au quotidien. (Shutterstock)

Je me suis demandé dernièrement si mon cerveau restera en bonne santé quand je vieillirai. Même si je suis professeure dans un département de neurologie, il m’est difficile d’évaluer si mon cerveau, ou celui de quiconque, souffre d’une neurodégénérescence précoce.

Mon étude récente montre toutefois que la taille d’une partie du cerveau augmente avec l’âge plutôt que de dégénérer.

La raison pour laquelle il est si complexe d’évaluer la neurodégénérescence, c’est que mesurer les petites structures de notre cerveau constitue tout un défi.


Cet article fait partie de notre série La Révolution grise. La Conversation vous propose d’analyser sous toutes ses facettes l’impact du vieillissement de l’imposante cohorte des boomers sur notre société, qu’ils transforment depuis leur venue au monde. Manières de se loger, de travailler, de consommer la culture, de s’alimenter, de voyager, de se soigner, de vivre… découvrez avec nous les bouleversements en cours, et à venir.


Les technologies modernes de neuro-imagerie permettent de détecter une tumeur au cerveau ou une lésion épileptique. Ces anomalies, qui mesurent plusieurs millimètres, peuvent être visualisées grâce à l’imagerie par résonance magnétique (IRM), dont la puissance est environ 30 000 à 60 000 fois supérieure à celle du champ magnétique naturel de la Terre. Le problème est que la pensée et la perception humaines fonctionnent à une échelle plus petite encore.

Certaines zones du cerveau augmentent de volume avec l’âge

La pensée et la perception se produisent dans le néocortex. Cette partie périphérique de notre cerveau est composée de six couches. Lorsqu’on ressent un contact sur son corps, c’est la couche IV du cortex sensoriel qui est activée. Cette couche a la largeur d’un grain de sable, soit une taille bien inférieure à celle que les appareils d’IRM des hôpitaux peuvent généralement représenter.

Quand on module ses sensations corporelles, par exemple quand on peut lire ce texte plutôt que d’avoir conscience de son mal de dos, ce sont les couches V et VI du cortex sensoriel qui s’activent. Elles sont encore plus petites que la couche IV.

Pour mener mon étude publiée dans la revue Nature Neuroscience, j’ai eu accès à un appareil d’IRM 7 Tesla qui offre une résolution cinq fois supérieure à celle des appareils standard. Il permet d’obtenir des instantanés de minuscules réseaux cérébraux lors de la perception et de la pensée.

Grâce à cet appareil, mon équipe et moi-même avons pu examiner le cortex sensoriel de jeunes en bonne santé (d’environ 25 ans) et de personnes âgées en bonne santé (d’environ 65 ans) afin de mieux comprendre le vieillissement cérébral. Nous avons constaté que seules les couches V et VI, qui modulent la perception corporelle, présentaient des signes de dégénérescence liée à l’âge.

La couche IV, qui permet de ressentir le toucher, était plus développée chez les personnes âgées en bonne santé. Nous avons aussi mené une étude comparative avec des souris. Nous avons obtenu des résultats similaires chez les souris âgées, qui avaient également une couche IV plus développée que les plus jeunes. Notre étude sur les souris comprenait un troisième groupe de souris très âgées où on a pu observer que cette partie du cerveau pouvait dégénérer à un âge plus avancé.

Selon les théories actuelles, notre cerveau rétrécit avec l’âge. Cependant, les découvertes de mon équipe contredisent en partie ces théories. Il s’agit de la première preuve que certaines zones du cerveau augmentent de volume avec l’âge chez les personnes en bonne santé.

Une femme en blouse blanche tape sur une image médicale d’un cerveau sur un écran d’ordinateur
Il nous reste encore beaucoup à apprendre sur le vieillissement du cerveau.
Gorodenkoff/Shutterstock

Le vieillissement cérébral est propre à chaque individu

Les personnes âgées dont la couche IV est plus épaisse devraient être plus sensibles au toucher et à la douleur, et avoir de la difficulté à moduler ces sensations en raison de la diminution des couches profondes.

Pour mieux comprendre cet effet, nous avons étudié un patient d’âge moyen né sans un bras. Ce dernier avait une couche IV plus petite. Comme son cerveau recevait moins d’impulsions qu’une personne ayant deux bras, la masse de la couche IV s’était moins développée. Les parties du cerveau qui sont davantage utilisées forment plus de synapses, et donc plus de masse.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Plutôt que de dégénérer de manière systématique, le cerveau des personnes âgées semble préserver, au moins en partie, les fonctions qu’il utilise. Le vieillissement cérébral peut être comparé à une machine complexe dans laquelle certaines pièces fréquemment utilisées sont bien huilées, tandis que celles qui le sont moins rouillent. De ce point de vue, le vieillissement cérébral est propre à chaque individu et dépend de son mode de vie, notamment de ses expériences sensorielles, de ses habitudes de lecture et des défis cognitifs qu’il relève au quotidien.

Cela montre également que le cerveau des personnes âgées en bonne santé conserve sa capacité à rester en phase avec son environnement.

Toute une vie d’expériences

Les résultats présentent un autre aspect intéressant. Le schéma des changements cérébraux observés chez les personnes âgées, avec un renforcement de la zone de traitement sensoriel et une réduction des zones responsables de la modulation, possède des similitudes avec des troubles neurodivergents tels que le trouble du spectre de l’autisme ou le trouble déficitaire de l’attention avec hyperactivité.

Ces troubles se caractérisent par une sensibilité sensorielle accrue et une capacité de filtrage restreinte, ce qui entraîne des problèmes de concentration et de flexibilité mentale.

Nos conclusions indiquent-elles que le vieillissement engendre des troubles neurodivergents ? Le cerveau des personnes âgées s’est développé au fil d’une vie d’expériences, tandis que les personnes neurodivergentes naissent avec ces schémas cérébraux. Il est difficile de savoir quels autres effets pourrait avoir la croissance de la masse cérébrale avec l’âge.

Cependant, nos résultats nous fournissent quelques indices sur les raisons pour lesquelles les personnes âgées éprouvent parfois des difficultés à s’adapter à de nouveaux environnements sensoriels. Dans certaines situations, par exemple si elles doivent utiliser un nouvel appareil ou si elles visitent une nouvelle ville, la réduction des capacités de modulation des couches V et VI peut devenir particulièrement manifeste, augmentant ainsi le risque de désorientation ou de confusion.

Cela peut également expliquer pourquoi les capacités à effectuer plusieurs tâches à la fois, comme utiliser un téléphone portable tout en marchant, diminuent avec l’âge. Les informations sensorielles doivent être modulées pour éviter les interférences lors de l’exécution de plusieurs tâches simultanément.

Les couches moyennes et profondes présentaient davantage de myéline, une couche protectrice constituée de graisse et qui est essentielle au fonctionnement et à la communication nerveuse, chez les souris comme chez les humains. Cela indique qu’il pourrait y avoir un mécanisme compensatoire pour la perte de la fonction modulatrice chez les personnes de plus de 65 ans. Cet effet semblait toutefois s’estomper chez les souris très âgées.

Nos résultats démontrent l’influence du mode de vie sur le vieillissement du cerveau.

La Conversation Canada

Esther Kuehn travaille pour l’Institut Hertie de recherche clinique sur le cerveau et le Centre allemand pour les maladies neurodégénératives (DZNE) de Tübingen. Elle bénéficie d’un financement du Conseil européen de la recherche (CER).

ref. Une partie du cerveau humain grossit avec l’âge – voici ce que cela signifie pour vous – https://theconversation.com/une-partie-du-cerveau-humain-grossit-avec-lage-voici-ce-que-cela-signifie-pour-vous-263498