Après Renault, Luca de Meo pourra-t-il mettre le turbo chez Kering ?

Source: The Conversation – France (in French) – By Isabelle Chaboud, Professeur senior d’analyse financière, d’audit et de risk management – Directrice de Programme pour le MSc Fashion Design & Luxury Management- Responsable de la spécialisation MBA "Brand & Luxury Management", Grenoble École de Management (GEM)

L’arrivée de Luca de Meo à la tête de Kering marque une nouvelle étape dans ce groupe de luxe fondé par la famille Pinault. Venu de l’automobile, le nouveau directeur général devra gérer le cash de façon très rationnelle, dans un univers créatif qui ne l’est pas toujours. Quels sont les défis à relever ? Avec quelles chances de succès ?


Le 9 septembre 2025, l’assemblée générale mixte de Kering va-t-elle entériner un tournant majeur dans la gouvernance du groupe ? Parmi les résolutions soumises au vote des actionnaires, les principales concernent Luca de Meo. Les actionnaires seront amenés à se prononcer sur sa nomination comme administrateur du groupe, sa prise de fonction comme directeur général à compter du 15 septembre et sa rémunération XXL.

Si dissocier les fonctions de président et de directeur général s’apparente à de bonnes pratiques en matière de gouvernance, choisir un profil à la fois extérieur à la famille et au secteur témoigne d’un changement radical au sommet de l’empire Kering. Comment ce groupe familial, créé par François Pinault et géré par son fils François-Henri depuis vingt ans, s’est-il développé avant de confier les rênes à un profil extérieur ? Quels sont les défis majeurs qui attendent Luca de Meo ? Et pour quelle rémunération ? Ses pouvoirs seront-ils réels ou seulement cosmétiques ?

La constitution d’un empire familial, le règne du père de 1962 à 2002

L’histoire commence en 1962 quand le Breton François Pinault lance un petit négoce de bois. Entrepreneur visionnaire et audacieux, il réalisera très tôt de multiples acquisitions, notamment à l’international avec la CFAO (Compagnie française de l’Afrique occidentale) et poursuivra une politique de diversification permanente. En 1988, Pinault SA entre en bourse et son fondateur conserve 50 % du capital. Après avoir racheté Conforoma, le Printemps, Prisunic, puis la Redoute et la Fnac, il devient le deuxième groupe européen dans la distribution. Dès 1987, son fils, François-Henri Pinault, entre dans le groupe et prendra successivement plusieurs postes de direction (CFAO, FNAC) avant de devenir Directeur général adjoint de Pinault-Printemps-Redoute (PPR).

International et diversifié, le groupe amorce en 1999 un nouveau virage en investissant dans le luxe où les marges sont beaucoup plus confortables que dans le négoce du bois et la distribution. PPR rachète la maison Yves Saint Laurent et prend 42 % du capital de Gucci. Une guerre l’oppose alors à Bernard Arnault et sera sans doute à l’origine d’une rivalité sans fin. Les acquisitions dans le luxe se poursuivront avec Boucheron (joaillerie), Balenciaga (couture), Bottega Veneta (maroquinerie et couture), Alexander McQueen (couture), qui porteront la part du luxe à 9 % du chiffre d’affaires de PPR en 2002.

Et PPR devint Kering

En octobre 2003, François Pinault confie à son fils, François-Henri, les rênes d’Artémis, la société financière familiale qui détient notamment PPR pour s’adonner à sa passion pour la collection d’art contemporain. François-Henri Pinault cède les activités d’origine dans le bois et les matériaux et celles de distribution, et prend la quasi-totalité du contrôle de Gucci. Il continue à étendre son portefeuille de marques de luxe avec les acquisitions de Brioni (tailleur italien), Qeelin (joailler chinois) et Pomellato (joailler italien).

PPR fait également une incursion dans le lifestyle avec Puma. En 2013, le groupe est rebaptisé Kering. Un choix combinant à la fois l’attachement du père à ses origines, Ker signifiant « maison » en breton, et confirmant sa volonté de positionnement international, Kering se prononçant caring en anglais et signifiant « prendre soin de ». Prendre soin de ses clients, de ses employés… En 2014, François-Henri Pinault étoffe encore le portefeuille d’activités et crée Kering Eyewear afin d’internaliser l’activité lunettes de toutes ses maisons. En 2017, le luxe représente 70 % du chiffre d’affaires du groupe et 90 % du résultat opérationnel. En 2018, le groupe cède Puma pour se concentrer uniquement sur le luxe.




À lire aussi :
Luxe : la consommation des ultra-riches est-elle morale ?


Deuxième groupe du secteur du luxe

Porté par la désirabilité de ses marques, Kering multiplie les ouvertures de boutiques à l’international, sélectionnant méticuleusement les emplacements de premier choix. Entre 2018 et 2022 (hors impact Covid, en 2020), le chiffre d’affaires progresse de 50 %, passant de 13,6 milliards d’euros à 20,4 milliards d’euros après les années Tom Ford, une nouvelle identité de marque voit le jour et Gucci devient la première maison du groupe sous l’impulsion de son directeur artistique ultra-créatif Alessandro Michele. En 2021, Gucci représente 55 % du chiffre d’affaires du groupe et 74 % du résultat opérationnel courant (calculé à partir du document d’enregistrement universel, DEU, 2021).

Ses solides performances contribuent largement à la bonne santé financière du groupe jusqu’en 2021. Le 13 août 2021, le cours de l’action atteint son plus haut niveau à 788,9 €, contre 237,35 € au 8 septembre 2025. À partir de 2022, les clients délaissent les collections trop marquées d’Alessandro Michele, en particulier les consommateurs chinois. Trop dépendant de Gucci, Kering n’arrive pas à compenser les pertes de chiffre d’affaires ni, surtout, celles de sa marge opérationnelle.

Dégradation des résultats entre 2022 et 2024

Ainsi, fin décembre 2022, les revenus de Kering dépassent les 20,3 milliards d’euros (en hausse de 16 % par rapport à 2021), mais reculent sous la barre de 20 milliards d’euros, à 19,6 milliards d’euros, en 2023. La chute est encore plus brutale à fin 2024. Affecté par la baisse des ventes en Asie, le contexte géopolitique et surtout la piètre performance de Gucci, son chiffre d’affaires global chute à 17,1 milliards d’euros alors que celui de Richemont dépasse les 21 milliards d’euros (fin mars 2025). Kering, qui était le numéro deux mondial dans le luxe, derrière LVMH et devant le Groupe Richemont, est relégué à la troisième place dès 2023 et à la quatrième place en 2024, derrière Chanel, qui réalise 17,95 milliards d’euros (18,7 milliards de dollars).

Malgré le lancement de Kering Beauté, le rachat de Creed en 2023, pour se diversifier dans les parfums haut de gamme, et les bonnes performances de Kering Eyewear, seule activité qui progresse encore en 2024, la fréquentation de ses boutiques chute, le taux de transformation est insuffisant. Kering continue pourtant à investir dans l’immobilier, en réalisant des acquisitions dans les villes et les rues les plus emblématiques au monde (Paris, New York, Milan), mais cela ne suffit pas. À tout cela s’ajoute une polémique, voire un scandale autour d’une campagne de communication de Balenciaga qui mettra du temps à s’essouffler, tandis que le nouveau directeur artistique de Gucci n’apporte pas les retombées escomptées. Résultat : la marque florentine se sépare de son directeur artistique Sabato de Sarno. François-Henri Pinault entame une réflexion avec le conseil d’administration pour opérer un changement de gouvernance.

BFM Business, 2025.

Plus inquiétante, la rentabilité se détériore considérablement, comme en témoigne l’analyse des ratios de rentabilité (1). À la fin décembre 2024, bien que son taux de marge brute soit parmi la plus élevée du secteur à 74 % des ventes, sa marge opérationnelle à 13 % fait pâle figure face à Hermès (41 %), LVMH (22 %) ou Richemont (21 %). Encore une fois la dépendance à Gucci pénalise fortement la rentabilité du groupe. Les ventes de son ancien fer de lance sont en recul de 23 % sur l’exercice et son résultat opérationnel courant chute de 51 %. À la fin de l’année 2024, la rentabilité nette (résultat net part du groupe divisé par les capitaux propres du groupe) s’écroule à 7 % alors que ses pairs présentent tous un indicateur supérieur à 13 %. LVMH affiche une rentabilité nette de 15 % (double de celle de Kering) et Hermès de 30 % à fin décembre 2024.

Un endettement et des charges financières qui explosent

Non seulement la rentabilité se dégrade mais l’endettement bondit. Le calcul du taux d’endettement net (ce dernier étant défini par le ratio des dettes financières à court terme et à long terme diminuées de la trésorerie et des capitaux propres part du groupe) montre la forte dépendance de Kering aux financements bancaires et obligataires externes.




À lire aussi :
Bernard Arnault vs François Pinault, quand les rivalités deviennent facteur de réussite


Ce ratio atteint désormais 71 % fin 2024 contre 13,3 % pour LVMH et seulement 4 % pour Richemont, conséquence des acquisitions coûteuses réalisées sur les deux derniers exercices : celle de Creed en 2023 (dépassant les 3,4 milliards d’euros), la prise de participation de 30 % dans Valentino (1,7 milliard d’euros) et les acquisitions immobilières majeures de 2024 à New York (885 millions d’euros) et Milan (1,3 milliard d’euros) pour un total 2,2 milliards d’euros pour ne citer que les principales. Il en résulte également une hausse du coût de l’endettement net, de 108 millions d’euros en 2023 à 320 millions d’euros en 2024 (Note 8 du DEU de Kering 2024).

Luca de Meo face à ses nouveaux défis

Son défi majeur consistera à relancer la désirabilité des marques emblématiques et historiques du groupe Kering pour rétablir la rentabilité, notamment opérationnelle. Si l’automobile et le luxe présentent des caractéristiques similaires en matière d’innovation, d’engagement pour le développement durable, de présence internationale, la créativité si chère à Kering devra pouvoir continuer à s’exprimer. Avant l’arrivée de Luca de Meo, Kering a officialisé de nombreux changements de directeurs artistiques en 2024 et en 2025, à l’instar de Demna,, qui a quitté Balenciaga pour Gucci, et de Pierpaolo Piccioli,, qui reprend Balenciaga après quinze ans à la tête de Valentino. Deux choix très audacieux considérés comme des exemples de Dada Management :

« Cette approche managériale, inspirée du mouvement dada, prône l’absurde et l’irrationnel pour dynamiter les conventions établies et provoquer l’innovation. »

Cette pratique est certainement très éloignée des terrains connus de Luca de Meo. D’autres différences fondamentales avec l’industrie automobile résident dans le cycle court et rapide du secteur de la mode. Les directeurs artistiques devront produire a minima deux collections par an et, si non écoulées, elles seront difficilement vendables l’année suivante. Enfin, la valse des designers stars est devenue monnaie courante au sein de grandes maisons, un phénomène amplifié depuis l’accélération du digital et la sanction impitoyable des réseaux sociaux.

À son arrivée, il devra scruter les réactions du public et analyser les retombées des prochaines fashion week avant de prendre de nouvelles décisions sur les activités couture et mode. Kering compte toutefois sur son nouveau directeur général pour appréhender très rapidement le secteur du luxe en constante mutation et comprendre la culture de ses marques. Il devra avant tout cerner les nouvelles attentes des consommateurs lassés des augmentations de prix successives sans amélioration de la qualité. Des clients qui semblent favoriser l’alliance entre l’artisanat et le luxe et, pour certains, en recherche de créations plus intemporelles.

Dans une perspective de croissance modérée du secteur, estimée à 2 à 4 % par an pour la période 2025-2027 par the State of Fashion Luxury, alors que la demande chinoise ralentit pour les produits de luxe occidentaux et que le contexte géopolitique instable crée de multiples incertitudes, la progression du chiffre d’affaires n’est peut-être plus la priorité. Quelles seront les alternatives ? Renforcer la diversification dans les lunettes (Kering Eyewear) et la beauté et améliorer les marges pour ces activités pourraient être des pistes, notamment pour attirer à nouveau de jeunes clients. Va-t-il trouver la formule pour relancer Gucci tout en permettant aux autres maisons de progresser ? Réussira-t-il à collaborer avec les nouveaux directeurs artistiques des maisons de couture tout en respectant leurs besoins vitaux de liberté ?

BFM Business, 2025.

Près de 867 millions de cessions immobilières en 2024

Luca de Meo devra également réduire l’endettement du groupe et faire face aux remboursements de plus de trois milliards d’euros prévus à court terme. Cela nécessitera des rentrées de trésorerie d’exploitation plus conséquentes (si la désirabilité se concrétise et les ventes redémarrent) voire des cessions, comme l’opération réalisée avec Ardian concernant de l’immobilier de premier plan qui aura rapporté 867 millions d’euros à Kering en 2024.

Si le groupe a choisi ce profil expérimenté qui a effectué toute sa carrière dans l’automobile (Renault, Toyota, Lancia, Fiat, Alfa Romeo, Volkswagen), c’est parce que nommé directeur général de Renault en juillet 2020, il a réussi à redresser le groupe de façon spectaculaire avec son programme « Renaulution », une méthode qui aurait même été décortiquée par Harvard et vue comme un miracle.

Une rémunération exceptionnelle

Alors, pour attirer un profil de ce calibre, Kering va casser sa tirelire. Comme indiqué dans l’avis de convocation à l’assemblée générale mixte du 9 septembre, le groupe appelle les actionnaires à voter une rémunération pour le moins (très) attractive. Il propose d’octroyer à Luca de Meo un salaire fixe de 2 200 000 euros annuels (contre 1 700 000 euros chez Renault, p. 332 du DEU), ce dernier représentant 12,5 % de la rémunération du directeur général. Il sera complété d’une partie variable sous condition de performance (87,5 %). Cette dernière étant elle-même composée à 27,5 % par une variable annuelle et par une rémunération variable long terme en actions de performance.

Pour ce qui est de la partie variable à court terme, le nouveau directeur général touchera au maximum 1 210 000 euros annuels s’il atteint 100 % des objectifs de performance. En sus, Luca de Meo bénéficiera d’une indemnité de prise de fonction pour compenser les actions de performance en cours d’acquisition chez Renault et celles perdues du fait de son départ. Au total ce seront 20 000 000 d’euros qui lui seront versés pour sa prise de fonctions avec 15 000 000 d’euros en numéraires versés au plus tard le 31 décembre 2025 et 5 000 000 d’euros en actions Kering sous condition de présence continue pendant trois ans et d’atteinte des objectifs de performance.

Raviver la désirabilité

Luca de Meo réussira-t-il le miracle de raviver la désirabilité, de réinventer l’expérience client et de ramener la rentabilité du groupe à son plus haut niveau alors que la croissance du secteur ne devrait pas dépasser les 2 à 4 % par an sur la période 2025-2027 et que le contexte géopolitique est très incertain ? En tous cas, Kering semble y croire en lui faisant une offre de bienvenue à hauteur de ses espérances. Reste à savoir également quelle latitude, quelle liberté il aura vraiment. Devra-t-il soumettre de nombreuses opérations à l’autorisation du CA ? François-Henri Pinault, qui a dirigé le groupe pendant vingt ans, lui laissera-t-il être le véritable dirigeant chargé de la gestion, ce que laisse entendre le code AFEP-Medef pour lequel seul le DG est mandataire social exécutif ?


(1) Ratios calculés à partir des états financiers consolidés issus des documents d’enregistrement universel (DEU) de Kering, de LVMH et de Hermès, à fin décembre 2024, et du rapport annuel du Groupe Richemont, à fin mars 2025

The Conversation

Isabelle Chaboud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Après Renault, Luca de Meo pourra-t-il mettre le turbo chez Kering ? – https://theconversation.com/apres-renault-luca-de-meo-pourra-t-il-mettre-le-turbo-chez-kering-264903

Les robots, des collègues de travail comme les autres ?

Source: The Conversation – France in French (2) – By Thierry Colin, Professeur des universités en Sciences de gestion, Université de Lorraine

Le concept de cobot a été inventé par l’industrie automobile. L’objectif : créer des robots capables de travailler aux côtés des humains, sans risque d’insécurité. Gumpanat/Shutterstock

Les robots collaboratifs, ou cobots, ne remplacent pas seulement les humains : ils peuvent travaillent avec eux. Quel est leur impact sur la division du travail ?


Les robots sont omniprésents dans la production industrielle. Leur diffusion a toujours été au cœur d’enjeux humains, sociaux, économiques et en management, entraînant très tôt de nombreux questionnements.

Une nouvelle interrogation émerge aujourd’hui avec l’apparition des cobots. Capables de travailler non seulement à la place, mais aussi avec les humains au sein des ateliers, les robots collaboratifs sont-ils en train de devenir des collègues comme les autres ? Légers, flexibles, relativement accessibles et conviviaux… sont-ils susceptibles de remettre en cause les codes de la division du travail ?

Nos recherches récentes, basées sur des études de cas comprenant des entretiens et des observations en situation, ont permis de repérer quatre types d’usage des cobots : configuration simultanée, alternée, flexible ou coexistence. Elles rentrent dans le cadre du projet Impact « C-Shift » (Cobots in the Service of Human activity at work) qui vise à étudier l’impact de la mise en œuvre de dispositifs collaboratifs intelligents tels que les cobots dans le cadre des défis de l’industrie du futur.

Qu’est-ce qu’un cobot ?

Le terme cobot est créé par la contraction des termes anglais « collaborative » et « robot ». La paternité en est attribuée à des universitaires états-uniennes qui cherchent à la fois à limiter les troubles musculosquelettiques et à améliorer la productivité dans des usines de production automobile – Ford et General Motors.

Un robot collaboratif est un robot qui peut être installé dans le même espace de travail que les opérateurs humains, sans barrière de protection physique. Ils sont équipés de capteurs et de programmes déclenchant un ralentissement du mouvement ou un arrêt complet si un risque de collision est détecté. Ils sont capables de réaliser la plupart des opérations industrielles – visser, percer, poncer, souder.

Les cobots ne sont pas conçus pour des usages prédéfinis. Ils sont caractérisés avant tout par leur flexibilité. Facilement programmables grâce à des interfaces accessibles sur des tablettes, ils sont faciles à déplacer. Ils peuvent aussi bien mettre des produits cosmétiques dans des cartons, que faire du contrôle qualité à l’aide d’une caméra en bout de chaîne de production ou souder des pièces métalliques.

Marché multiplié par quatre d’ici 2030

Les cobots ne sont plus de simples prototypes de laboratoire. Ils sont désormais couramment utilisés dans des usines de toutes tailles et dans divers secteurs – automobile, logistique, santé, agroalimentaire –, bien que leur adoption reste encore loin d’être généralisée. La part des cobots dans les ventes mondiales de robots serait de l’ordre de 3 % et, selon ABI research, le marché des cobots pourrait être multiplié par quatre d’ici 2030.

Courbe
Prévision de croissance du marché mondial des robots collaboratifs (cobots) de 2020 à 2030 en millions de dollars états-uniens. »
Statista et ABI Research, FAL

Les cobots ne visent pas à remplacer les robots traditionnels en raison de plusieurs limitations :

  • Leur charge utile est réduite : leur légèreté et leur petite taille les empêchent de manipuler des objets lourds.

  • Leur vitesse d’exécution est volontairement limitée pour garantir la sécurité des humains qui travaillent autour. Cela freine leur productivité et les rend peu adaptés aux productions à très grande échelle.

  • Installés dans les mêmes espaces que les humains, les cobots soulèvent des problèmes de sécurité lorsqu’ils sont équipés d’outils dangereux – outil coupant ou torche de soudage.

Leur potentiel réside avant tout dans de nouveaux usages et une approche différente de l’automatisation. Ainsi, dans une PME spécialisée dans la tôlerie qui a fait l’objet d’une étude de cas, les soudures sont effectuées par un robot de soudure traditionnel pour les grandes séries récurrentes. Pour les séries de taille moyenne et par des soudeurs pour les petites séries ou des soudures trop complexes, elles sont effectuées par des cobots.

Quatre usages des cobots en usine

Si par définition les cobots ont la possibilité de travailler dans le même espace que des opérateurs humains, leurs usages ne sont pas nécessairement collaboratifs et nos recherches nous ont permis de distinguer quatre configurations.

Projet C-SHIFT, cobots et industrie du futur, de l’Université de Lorraine.
Université de Lorraine, Fourni par l’auteur

Coexistence avec l’humain

À un extrême, les cobots viennent se substituer aux opérateurs pour prendre en charge les gestes les plus pénibles et/ou gagner en productivité. On qualifie cet usage de coexistence, car il n’y a aucune interaction directe avec les humains.

Dans l’industrie automobile, des cobots vissent des pièces sous les véhicules, là où les positions sont particulièrement difficiles pour les opérateurs.




À lire aussi :
Comment rendre les robots plus adaptables aux besoins de leurs collaborateurs humains ?


Configuration simultanée

Dans la configuration simultanée, cobots et opérateurs travaillent ensemble en adaptant mutuellement leurs mouvements, côte à côte ou face à face. Si cette configuration est largement réalisable en laboratoire, elle est assez rare en condition réelle. La raison : le temps nécessaire à sa mise au point et sa certification sécurité obligatoire.

Chez un équipementier, le cobot positionne une colonne de direction pour automobile avec précision, évitant le port de charges et les chocs, et l’opérateur effectue des tâches de vissage sur la pièce.

Configuration alternée

La configuration alternée correspond à une situation où l’opérateur utilise le cobot, mais n’interagit pas directement avec lui. Il le programme pour une série de tâches, et le laisse travailler seul, dans un espace différent. Cette configuration garantit une meilleure sécurité pour l’opérateur humain. Ce dernier optimise la répartition du travail entre ce qu’il confie au cobot et ce qu’il continue de faire lui-même.

Chez un fabricant d’échangeurs thermiques pour la production de gaz industriels, les soudeurs délèguent aux cobots les soudures les plus simples et se concentrent sur des soudures plus complexes ou moins répétitives.

Configuration flexible

Dans la configuration flexible, la répartition du travail entre humains et cobots évolue au cours du temps, en fonction du plan de charge. Une fois la technologie maîtrisée, les cobots peuvent être réaffectés à différentes activités en fonction des exigences du moment. Le même cobot peut être utilisé pendant une période pour une activité de chargement de machines, puis réoutillé, il peut servir pour du ponçage, puis des opérations de peinture, etc.

L’efficacité réside dans la capacité des opérateurs, des techniciens et des ingénieurs à travailler ensemble pour inventer constamment de nouveaux usages. Cette configuration semble particulièrement adaptée à des PME dans lesquelles les séries sont courtes et variables.

Cobots et IA

Les cobots font partie d’un vaste mouvement technologique. Le contexte de l’industrie 5.0 et l’utilisation croissante de l’IA permettront aux cobots d’être encore plus adaptables, voire capables d’improvisation. Ils pourront être intégrés dans des « systèmes cyberphysiques de production », c’est-à-dire des systèmes très intégrés dans lesquels l’informatique contrôle directement les outils de production.

Cette intégration n’est pas évidente à ce stade. Si elle est possible, on peut penser que c’est la capacité à « combler les trous » de l’automatisation traditionnelle qui sera dominante, reléguant la flexibilité et l’aspect collaboratif au second plan. Inversement, le recours à l’intelligence artificielle peut aider au développement de configuration flexible misant sur la collaboration au sein des collectifs de travail.

Si ces évolutions technologiques ouvrent de nombreux possibles, elles laissent ouverte la question des usages en contexte réel. Les tendances futures dépendront des choix qui seront faits en termes de division du travail et de compétences.

Les configurations dites coexistence et activité simultanée ont finalement peu d’implications sur l’évolution des compétences ou de modalités de collaboration entre ingénieurs, techniciens et opérateurs. À l’inverse, le choix des configurations flexible ou activité alternée suppose que les opérateurs développent de nouvelles compétences, notamment en programmation, et que de nouvelles formes de collaboration verticales se développent.

En d’autres termes, les cobots redistribuent moins les cartes en matière de collaboration homme-machine qu’ils n’invitent à revoir les logiques de collaborations entre humains au sein des organisations.

The Conversation

Thierry Colin a bénéficié d’une aide de l’Initiative d’Excellence Lorraine (LUE) au titre du programme France 2030, portant la référence ANR-15-IDEX-04-LUE. Il a aussi bénéficié d’une aide de l’ANACT dans le cadre de son AMI “Prospective pour accompagner la transition des systèmes de travail”

Benoît Grasser a bénéficié d’une aide de l’Initiative d’Excellence Lorraine (LUE) au titre du programme France 2030, portant la référence ANR-15-IDEX-04-LUE. Il a aussi bénéficié d’une aide de l’ANACT dans le cadre de son AMI « Prospective pour accompagner la transition des systèmes de travail ».

ref. Les robots, des collègues de travail comme les autres ? – https://theconversation.com/les-robots-des-collegues-de-travail-comme-les-autres-260231

Qu’est-ce que le kratom, cet antidouleur interdit en France, mais en vente libre aux États-Unis ?

Source: The Conversation – in French – By David Kroll, Professor of Natural Products Pharmacology & Toxicology, University of Colorado Anschutz Medical Campus

Issu d’un arbre originaire d’Asie du Sud-Est, le kratom, réduit en poudre, est traditionnellement consommé pour ses effets stimulants, euphorisants et analgésiques. Cependant, l’utilisation de ce produit, interdit en France, n’est pas toujours sans risque.


David Bregger n’avait jamais entendu parler du kratom avant que son fils Daniel, 33 ans, décède à Denver, en 2021, après avoir consommé ce qu’il pensait être un inoffensif remède naturel contre l’anxiété. Selon M. Bregger, son fils ignorait que ce complément alimentaire d’origine végétale pouvait lui être fatal.

Et pour cause : l’étiquette ne comportait ni liste d’ingrédient ni indication posologique. En outre, les risques liés à une consommation en conjonction avec d’autres substances sédatives (telles que la diphénhydramine, un antihistaminique en vente libre) étaient passés sous silence.

Quatre ans après la mort de Daniel, le projet de loi 25-072 du Sénat du Colorado, connu sous le nom de Daniel Bregger Act, a été adopté. Le texte vise à épargner à d’autres familles le drame vécu par les Bregger, en limitant notamment l’accès au kratom pour les mineurs. Il s’attaque notamment aux pratiques commerciales qualifiées de « trompeuses » en lien avec la vente de produits à base de kratom.

M’intéressant aux sciences pharmaceutiques, je donne depuis plus de trente ans des cours sur les compléments alimentaires à base de plantes telles que le kratom. J’ai publié plusieurs travaux sur ses effets et les controverses qu’il suscite. Voici ce qu’il faut savoir de cette substance.

Derrière le mot « kratom », une multiplicité de produits

Le terme « kratom » recouvre une large gamme de produits issus des feuilles de l’arbre Mitragyna speciosa, originaire d’Asie du Sud-Est. Cette plante tire son appellation latine de la forme de ses feuilles, qui rappellent la mitre épiscopale, la coiffe portée par les évêques et certains autres dignitaires religieux.

Le kratom est produit à partir de feuilles séchées et réduites en poudre, lesquelles peuvent être mâchées ou infusées en thé. Utilisé en Thaïlande par les ouvriers agricoles pour accroître leur endurance et leur productivité, le kratom agit comme un stimulant proche de la caféine. À des doses plus élevées, il procure une sensation de bien-être analogue à celle des opioïdes.

Les effets du kratom sont dus à la présence dans ses feuilles d’une molécule en faible quantité, la mitragynine. Celle-ci stimule partiellement les récepteurs opioïdes du système nerveux central – les mêmes que ceux qui sont activés par des substances comme la morphine ou l’oxycodone. Lorsqu’ils sont suractivés, ces récepteurs peuvent influer sur la respiration, la ralentissant voire la stoppant complètement.

Après ingestion, la mitragynine contenue dans la poudre est transformée en 7-OH (ou 7-hydroxymitragynine) par les enzymes du foie, ce qui explique ses effets de type opioïde. Également synthétisable en laboratoire, la 7-OH peut être utilisée pour accroître la puissance de certains produits à base de kratom. C’est une des raisons de la controverse autour de cette substance.

La 7-OH a attiré l’attention de la Food and Drug Administration (FDA), l’agence états-unienne en charge de la surveillance des denrées alimentaires et des médicaments. Le 29 juillet 2025, l’agence a publié un avertissement indiquant que les produits contenant de la 7-OH sont de puissants opioïdes, susceptibles de provoquer de graves risques pour la santé et même d’entraîner la mort.

Par ailleurs, divers travaux sur le kratom et sur ses composants ont mis en évidence ses effets potentiellement délétères. Des analyses post-mortem effectuées par les centres pour le contrôle et la prévention des maladies et par plusieurs chercheurs universitaires ont montré qu’aux États-Unis, les corps de centaines de personnes décédées contenaient des substances provenant du kratom.

Cependant, il semblerait que s’il est consommé seul, le kratom est cependant rarement mortel. En Floride, l’analyse de 551 décès en lien avec sa consommation a ainsi révélé que les corps de 93,5 % des victimes contenaient également d’autres substances, comme des opioïdes tels que le fentanyl.

Naturel ou synthétique, tout médicament comporte des risques

Parce que le kratom est d’origine végétale, sa commercialisation aux États-Unis se situe dans une zone grise réglementaire. Il est souvent vendu en ligne comme complément alimentaire, généralement au kilo, par des vendeurs situés à l’étranger.

(En France, le kratom et ses composés – mitragynine et 7-hydroxymitragynine – sont inscrits sur la liste des psychotropes ; en conséquence, leur détention et leur achat sont interdits, ndlr.)

En 2016, j’ai rédigé une série d’articles pour le magazine Forbes, alors que la Drug Enforcement Administration (DEA, l’agence états-unienne de lutte contre les drogues) proposait d’inscrire les composants du kratom au tableau 1 du Controlled Substances Act, la classification la plus restrictive à sa disposition. Le tableau 1 est réservé aux substances que la DEA estime dénuées de toute utilité médicale reconnue et qui présentent, par ailleurs, un fort potentiel d’abus, comme l’héroïne ou le LSD.

À la lecture de ces textes, des lecteurs ont réagi en m’envoyant plus de 200 témoignages décrivant leur usage du kratom. Certains les utilisaient comme alternative aux opioïdes, pour lutter contre la douleur, tandis que d’autres expliquaient comment le kratom les avait aidés à sortir d’une dépendance à l’alcool ou aux opioïdes. Ces récits ont également afflué dans les commentaires sollicités par la DEA. Celle-ci a finalement renoncé à classer le kratom sur la liste des substances contrôlées, sans doute sous la pression de l’opinion.

Les témoignages reçus n’étaient cependant pas tous aussi élogieux. Certains mettaient en garde contre un risque majeur : celui de développer une dépendance au kratom lui-même. Le kratom m’est, dès lors, apparu comme une arme à double tranchant – remède pour les uns, il pouvait devenir dangereux pour les autres dans le cadre d’un usage récréatif.

Une enquête nationale auprès d’utilisateurs de kratom a confirmé ce constat (formulé de façon non scientifique) : elle a révélé que plus de la moitié des consommateurs de kratom prenait ce produit pour soulager la douleur, le stress, l’anxiété, ou une combinaison de ces troubles.

Poudre de feuille ou extrait artificiellement concentré

En 2016, après que la DEA a abandonné son projet d’interdire la poudre de feuilles, des revendeurs aux États-Unis ont isolé la mitragynine et l’ont concentrée dans de petits flacons, pour la proposer à leurs clients sous une forme similaire à celle des shots de caféine, vendus dans les stations-service du pays. Ce format permettait aux consommateurs d’absorber davantage de kratom.

Les vendeurs ont, par ailleurs, progressivement réalisé qu’ils pouvaient aussi produire de la 7-OH à partir de la mitragynine et ainsi renforcer la puissance de leurs produits. Une transformation qui en augmente malheureusement aussi la dangerosité.

Les utilisateurs de poudre de kratom déclarent consommer de 3 grammes à 5 grammes de produit par prise, soit l’équivalent d’une cuillère à soupe bien remplie. Ils ingèrent le produit sous forme de gélules ou bien en infusion, plusieurs fois par jour, afin de soulager les douleurs, de contrôler le besoin d’alcool ou les symptômes de sevrage (dûs à une utilisation prolongée d’opioïdes). Comme cette forme de kratom ne contient que 1 % de mitragynine environ, il est rare ce type de consommation entraîne des overdoses.

Ce constat (conjuguée à la pression des consommateurs de poudre de kratom) a conduit la FDA établir une distinction entre les produits à base de kratom, et à proposer de limiter les restrictions prévues à la seule 7-OH, sans interdire la mitragynine ni la poudre de feuilles. La nouvelle loi votée par l’État du Colorado limite quant à elle la concentration des ingrédients de kratom dans les produits commercialisés, et en interdit la vente et la publicité aux moins de 21 ans.

Même David Bregger est un partisan de cette distinction. L’an dernier, durant une manifestation organisée lors d’une conférence de l’American Kratom Association (une association dont l’objet est la protection des droits des citoyens des États-Unis à consommer légalement du kratom), il déclarait sur une chaîne du réseau WPRI :

« Je ne suis pas anti-kratom, je suis favorable à sa régulation. Ce que je souhaite, c’est que les consommateurs puissent uniquement se procurer le produit brut issu de la feuille. »

Ce type d’actions de lobbying a conduit l’American Kratom Association à reconnaître qu’il était légitime d’inscrire la 7-OH au tableau 1, étant donné l’état des connaissances scientifiques sur le sujet.

Des bénéfices malgré l’interdiction

Le débat, local et national, autour de la 7-OH, n’empêche pas les scientifiques de poursuivre les recherches afin de déterminer comment les propriétés du kratom pourraient être mises à profit à des fins médicales.

Les National Institute of Health ont ainsi accordé une subvention de 3,5 millions de dollars, laquelle s’ajoute à d’autres financements visant à déterminer si le kratom pourrait constituer une source potentielle de nouveaux médicaments.

Les travaux des scientifiques ont déjà permis d’identifier de nombreux autres alcaloïdes dans les feuilles de kratom, et dans les produits commerciaux qui en sont dérivés. Ces découvertes révèlent aussi que certaines variétés d’arbres produisent des composés uniques, ce qui pourrait ouvrir la voie à de nouveaux antalgiques. Ils ont aussi découvert que certains composants du kratom, comme la 7-OH, se lient de manière spécifique aux récepteurs opioïdes.

Ces composés semblent agir davantage sur la gestion de la douleur que sur la suppression, potentiellement mortelle, des fonctions respiratoires. Bien entendu, ces observations ne valent que lorsque ces substances sont utilisées seules et non en combinaison avec d’autres sédatifs.

Sur la base des connaissances actuelles, les chercheurs estiment que la mise au point de médicaments basés sur des molécules isolées et purifiées à partir du kratom pourrait non pas aggraver la crise des opioïdes, mais plutôt ouvrir la voie vers de nouveaux traitements contre la dépendance.

Certaines de ses molécules, comme la mitragynine ont de multiples effets, ce qui pourrait permettre de remplacer à la fois les analgésiques existants (telles que la buprénorphine) ou les médicaments utilisés dans le cadre du sevrage aux opioïdes comme la clonidine.

Les recherches scientifiques rigoureuses menées jusqu’ici ont conduit à adopter un point de vue nuancé sur le kratom, ce qui a abouti à la mise en place, aux États-Unis, d’une régulation plus adaptée.

Rien, hélas, ne pourra ramener Daniel Bregger. Toutefois, les efforts conjugués des scientifiques et des législateurs peuvent non seulement ouvrir la voie à de nouveaux traitements, mais aussi éviter que d’autres familles ne soient frappées par de semblables tragédies.

The Conversation

David Kroll ne travaille pas pour, ne conseille pas, ne détient pas d’actions et ne reçoit pas de financement de la part d’une entreprise ou d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune affiliation pertinente au-delà de son poste universitaire.

ref. Qu’est-ce que le kratom, cet antidouleur interdit en France, mais en vente libre aux États-Unis ? – https://theconversation.com/quest-ce-que-le-kratom-cet-antidouleur-interdit-en-france-mais-en-vente-libre-aux-etats-unis-264816

Le yoga peut aider notre corps, mais aussi notre cerveau, à rester jeune et en bonne santé

Source: The Conversation – France in French (3) – By Isabel María Martín Monzón, Profesora Titular Área de Psicobiología. Facultad de Psicología. Universidad de Sevilla, Universidad de Sevilla

Le yoga améliore la posture, renforce les muscles, préserve la santé cardiovasculaire et réduit les douleurs chroniques. En revanche, ses effets sur le cerveau et sur l’esprit sont moins connus. Prostock-studio/Shutterstock

On connaissait déjà les bienfaits de la pratique régulière du yoga pour le corps. On découvre que cette activité physique agit également sur le cerveau. Le yoga pourrait ainsi aider à lutter contre le stress et à préserver les capacités cognitives des seniors.


« L’esprit ne peut exister sans corps ! ».
António Damásio, neuroscientifique

Aujourd’hui, grâce à nos connaissances sur la science et le cerveau, nous pourrions peut-être affirmer quelque chose de similaire concernant le yoga. Même si beaucoup la considèrent comme une simple routine physique ou une mode passagère, cette activité est en fait un outil puissant pour prendre soin de notre esprit.

Les postures élégantes, les étirements doux et la respiration profonde ne sont pas seulement un moyen de détendre le corps ou d’augmenter la souplesse. Ils sont la porte d’entrée vers une transformation plus profonde : celle du cerveau. Cela peut sembler poétique ou exagéré, mais la science commence à le confirmer par des preuves.

Le yoga, comme une gymnastique cérébrale

Nous avons presque tous déjà entendu parler des bienfaits du yoga pour le corps. Il s’agit d’une activité physique qui améliore la posture, renforce les muscles, préserve la santé cardiovasculaire et réduit les douleurs chroniques. Cependant, ses effets sur l’esprit et le cerveau sont moins connus.




À lire aussi :
Le yoga modifie le cerveau et améliore la santé mentale


Des études scientifiques ont démontré que sa pratique régulière augmente la neuroplasticité, c’est-à-dire la capacité du cerveau à se réorganiser et à créer de nouvelles connexions neuronales. Cet effet est dû, en partie, à l’augmentation d’une protéine appelée BDNF (facteur neurotrophique dérivé du cerveau) qui est essentielle à l’apprentissage, à la mémoire et à la réparation neuronale.

Le plus intéressant est le fait que ces bénéfices sont observés en quelques semaines de pratique seulement et chez des personnes de tous âges. Les résultats montrent une amélioration de fonctions cognitives comme l’attention, la mémoire de travail et la vitesse de traitement. Le cerveau, comme le reste du corps, répond à un entraînement régulier.

Contre le stress et ses effets sur le cerveau

Le stress chronique est très nocif pour notre cerveau. Nous vivons dans une société qui glorifie la précipitation, la productivité sans pause et le multitâche. Tout cela active de manière excessive notre axe hypothalamo-hypophyso-surrénalien, ce qui augmente les niveaux de cortisol, l’hormone du stress. À petites doses, le cortisol est utile, mais lorsqu’il est élevé de manière chronique, il endommage l’hippocampe (qui est essentiel à la mémoire), réduit la concentration et affaiblit la régulation émotionnelle.

C’est là que le yoga a beaucoup à dire. Divers essais ont montré que sa pratique régulière réduit de manière significative l’activation de cet axe du stress. Les niveaux de cortisol diminuent, la fréquence cardiaque se stabilise et le système nerveux parasympathique – qui nous aide à nous reposer, à digérer et à nous régénérer – prend le contrôle.

C’est comme passer d’un état d’alerte constante à un état de calme réparateur. Le cerveau, reconnaissant, commence à mieux fonctionner.

La méditation modifie le cerveau

La méditation est un élément essentiel de nombreuses formes de yoga, même si elle n’est pas toujours pratiquée dans les cours de yoga modernes. C’est également l’une des activités qui a le plus d’impact sur le cerveau que nous connaissons.

Des études d’imagerie par résonance magnétique ont montré que les personnes qui méditent fréquemment ont un plus grand volume de substance grise dans des régions clés du cerveau telles que l’hippocampe (mémoire), le cortex préfrontal (prise de décision, attention, empathie) et l’insula (conscience corporelle et émotionnelle).

Ces changements peuvent être observés même après de courtes périodes (à peine huit semaines) de pratique quotidienne. Le plus précieux : aucune expérience préalable ni retraite spirituelle n’est requise. Seule la constance est nécessaire. Comme pour toute compétence, l’important est la régularité.

Un bouclier contre le déclin cognitif et le vieillissement

Avec l’âge, le cerveau perd du volume et de l’efficacité. Certaines fonctions ralentissent, la mémoire faiblit, se concentrer devient plus difficile. Mais ce n’est pas une fatalité. Il existe des moyens de protéger le cerveau contre les effets du temps. Le yoga pourrait en être un.

Plusieurs études ont montré que les personnes âgées qui pratiquent le yoga présentent de meilleures performances cognitives, une meilleure connectivité cérébrale et une réduction de la détérioration structurelle dans des zones clés du cerveau. Même ceux qui commencent à le pratiquer après 60 ans ou 70 ans peuvent constater une amélioration de leur attention, de leur mémoire et de leur bien-être émotionnel.

Ces bénéficies ne se limitent pas au domaine cognitif. La pratique régulière du yoga produit des effets positifs à un niveau holistique. Grâce à divers mécanismes neurobiologiques, elle exerce une action anti-vieillissement : elle réduit le stress oxydatif, améliore la fonction mitochondriale et immunitaire, module l’inflammation chronique et préserve la longueur des télomères (les extrémités des chromosomes, ndlr), marqueurs essentiels du vieillissement cellulaire.

Cela a des implications considérables. Dans un monde qui vieillit rapidement, promouvoir des activités telles que le yoga peut être une stratégie accessible, non pharmacologique et peu coûteuse pour prévenir la démence, rester jeune plus longtemps et améliorer la qualité de vie tout au long de notre existence.

Au-delà du corps

Les gens s’adonnent au yoga pour des raisons très diverses. Certains cherchent à étirer leur dos, d’autres à mieux dormir, d’autres encore veulent simplement trouver un moment de paix dans un monde qui ne s’arrête jamais. Ce qu’ils ne savent peut-être pas, c’est qu’en pratiquant le yoga, ils cultivent un esprit plus clair, un cerveau plus sain et une vie mentale plus riche.

Tout comme la musique transforme ceux qui la pratiquent, le yoga façonne et protège ceux qui s’y adonnent. C’est une façon de revenir à son corps, mais aussi de reconstruire son esprit. De se connecter à soi-même, mais aussi à une vie plus épanouie.

Car, peut-être, comme le dirait Damásio, si le corps donne naissance à l’esprit, alors prendre soin de son corps grâce à des pratiques telles que le yoga, c’est aussi prendre profondément soin de ce que nous sommes.

The Conversation

Isabel María Martín Monzón ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le yoga peut aider notre corps, mais aussi notre cerveau, à rester jeune et en bonne santé – https://theconversation.com/le-yoga-peut-aider-notre-corps-mais-aussi-notre-cerveau-a-rester-jeune-et-en-bonne-sante-258028

De la médecine traditionnelle au traitement du cancer : le fabuleux destin de la pervenche de Madagascar

Source: The Conversation – France in French (3) – By Audrey Oudin, Maître de conférences, Université de Tours

L’histoire de la pervenche de Madagascar, dont sont extraits des anticancéreux majeurs, est une des belles histoires de la pharmacopée. Mais le mode de production actuel peu rentable et coûteux de ces molécules thérapeutiques conduit à des pénuries dont pâtissent les malades. Face à ces enjeux, une équipe de l’Université de Tours développe une « bioproduction » des molécules anticancéreuses indépendamment de la plante… dans des levures de boulanger.


Sous son air de fleur toute simple, la pervenche de Madagascar cache de grands pouvoirs. Originaire de l’île de Madagascar, cette jolie plante vivace aux pétales roses ou blancs, d’abord nommée Vinca rosea puis reclassifiée Catharanthus roseus, n’est pas seulement une vedette ornementale dans nos parcs en France. Elle est à l’origine de médicaments essentiels, notamment en cancérologie.

Une plante de médecine traditionnelle

Si vous visitez quelques pays tropicaux, vous pourrez vite vous retrouver face à cette plante, dans les jardins, sur les trottoirs, à la lisière des forêts, aux abords des plages…

Native de Madagascar (en vert), « C. roseus » a été distribuée dans différentes régions du monde (en violet) en tant que plante ornementale et pour ses vertus médicinales. Source : www.kew.org/plants/madagascar-periwinkle (carte cliquable).

Dans ces régions, C. roseus est une plante médicinale de première importance. Depuis des siècles, fleurs, feuilles ou racines, en infusion, en décoction ou en jus, sont utilisées en médecine traditionnelle pour traiter l’hypertension artérielle, les infections cutanées, les troubles respiratoires, la dengue ou encore le diabète. C’est cette dernière indication qui, dans les années 1950, attire l’attention de deux scientifiques canadiens Robert L. Noble et Charles Beer.

La découverte de deux anticancéreux majeurs

En testant des extraits de la plante sur des rats, ils n’observent aucune modification sur la glycémie (le taux de sucre dans le sang, ndlr) mais constatent une chute brutale des globules blancs. Ils isolent de ces extraits un premier composé : la vinblastine.

Dans le même temps, c’est la course à la découverte de nouvelles molécules actives. Les plantes médicinales sont une cible de choix et sont étudiées en masse. La compagnie pharmaceutique Eli Lilly teste l’activité antitumorale de nombreux extraits dont ceux de C. roseus. L’extrait de pervenche de Madagascar prolonge la vie de souris atteintes de leucémie. Elle isole des feuilles un deuxième composé : la vincristine.

Lors d’un congrès en 1958, la rencontre des équipes canadienne et états-unienne aboutit à une collaboration fructueuse conduisant, quelques années plus tard, à l’approbation par l’US Food Drug Administration (FDA) de l’utilisation de la vinblastine (Velbe) et de la vincristine (Oncovin) comme médicaments anticancéreux.

Une révolution en chimiothérapie

L’élucidation de leur structure chimique montre que ce sont des alcaloïdes retrouvés très majoritairement chez les plantes. Ils sont appelés vinca-alcaloïdes. À partir de ces produits naturels, un premier dérivé semi-synthétique (la vinorelbine, Navelbine) est produit par l’équipe du Pr Pierre Potier de l’Institut de chimie des substances naturelles à Gif-sur-Yvette (Essonne), qui s’intéresse depuis quelques années à leur synthèse. Suivront d’autres dérivés (vinflunine [Javlor], vindésine [Eldisine]) qui enrichissent l’arsenal thérapeutique.

Ces molécules cytotoxiques ciblent une structure dynamique essentielle à la division des cellules tumorales appelée fuseau mitotique et stoppent la prolifération de ces cellules.

Les vinca-alcaloïdes et leurs dérivés sont aujourd’hui utilisés en chimiothérapie pour traiter différentes formes de tumeurs solides, de lymphomes et de leucémies, notamment la leucémie lymphoblastique aiguë, ce qui permet de sauver la vie de nombreux enfants. Dans certains cas, ce sont les seuls traitements existants.

Les molécules, produites par l’industrie pharmaceutique par une méthode mise au point par l’équipe du Pr Potier, impliquent la condensation chimique de deux précurseurs, la vindoline et la catharantine, pour obtenir les vinca-alcaloïdes biologiquement actifs.

Un rendement dérisoire, un coût exorbitant et des pénuries

Malheureusement, la plante produit ces molécules en très faible quantité, l’obtention de 1 g de vincristine nécessitant une tonne de feuilles. La pervenche de Madagascar est donc cultivée à grande échelle, notamment en Inde et utilisée comme matière première.

Ce mode de production, basé sur l’exploitation unique d’une ressource végétale disponible principalement « à l’étranger », explique le coût élevé des traitements (plusieurs dizaines de millions de dollars pour 1 kg de vincristine) et des ruptures d’approvisionnement des vinca-alcaloïdes, comme en 2019 et en 2021, ce qui a conduit à des difficultés pour traiter les patients aux États-Unis et en France, notamment.

Ces tensions ont poussé le gouvernement français à classer la vincristine parmi la liste des médicaments essentiels, dont la production doit être sécurisée et relocalisée sur le territoire national.

Percer les secrets de production de la pervenche de Madagascar

Des approches alternatives doivent être développées. Depuis la fin des années 1970, des équipes de recherche du monde entier, dont notre unité de recherche « Biomolécules et biotechnologies végétales (BBV) » de l’Université de Tours, s’efforcent de décrypter les voies de synthèse des vinca-alcaloïdes et de déterminer quelles sont les enzymes végétales, ces catalyseurs biologiques, qui conduisent à leur production.

50 ans plus tard, toutes les enzymes sont enfin identifiées ainsi que les gènes codant ces enzymes, les deux dernières étapes (parmi plus de 30 nécessaires !) ayant été élucidées en 2018. Nous connaissons désormais le mécanisme de production dans la plante. Mais comment le reproduire ?

La solution : des cellules-usines de levure

Et si la solution venait de la levure de boulanger ? Ce champignon (Saccharomyces cerevisiae), utilisé pour fabriquer notre pain, est sans danger pour l’humain, facile à manipuler et à cultiver.

Les années 2000 ont en effet vu l’émergence de nouvelles technologies permettant la production de molécules naturelles dans des organismes hétérologues microbiens tels que la levure Saccharomyces cerevisiae, avec un premier succès : la production d’artémisinine, médicament originellement extrait de l’armoise annuelle (Artemisia annua) et utilisé pour combattre le paludisme.

Cette stratégie appelée bioproduction permet ainsi de transformer les levures en « cellules-usines » capables de produire des molécules complexes indépendamment de la plante.

En 2018, un consortium international, dont notre équipe fait partie, combinant connaissances de la pervenche de Madagascar et expertises en bioproduction obtient un financement européen (Horizon 2020), (projet MIAMi) pour développer une levure productrice de vinca-alcaloïdes.

Pari réussi : publiés dans la prestigieuse revue Nature en 2022, nos travaux révèlent le succès du transfert de plus de 34 gènes codant les enzymes végétales impliquées dans la synthèse des vinca-alcaloïdes.

Nous disposons désormais de « cellules-usines » de levures produisant les deux précurseurs, vindoline et catharanthine, nécessaires pour la synthèse de la vinblastine. Les recherches actuelles visent désormais à améliorer les rendements et à passer progressivement à l’échelle industrielle.

Source : Université de Tours.

La pervenche de Madagascar, un modèle pour l’avenir

L’histoire ne s’arrête pas là. La pervenche de Madagascar a livré quelques-uns de ses secrets et est désormais une plante phare, modèle sur lequel on peut s’appuyer. Ces avancées ouvrent la porte à la bioproduction d’autres produits naturels rares issus des plantes mais aussi des organismes marins et possédant des activités thérapeutiques.




À lire aussi :
Sardines, maquereaux et autres poissons gras : contre le cancer, l’intérêt des oméga-3 et lipides du milieu marin


C’est le cas de l’étoposide, un autre anticancéreux majeur produit par la pomme de mai (Podophyllum peltatum), sur lequel notre équipe travaille particulièrement afin de relocaliser sa production en région Centre-Val de Loire.

De nouveaux médicaments à inventer

Au-delà de la reproduction de l’existant, cette stratégie ouvre la voie à l’invention de nouvelles molécules par ingénierie des levures qui pourraient ainsi modifier la structure initiale. Cela permettrait de moduler leur activité pharmacologique et d’étendre ainsi les possibilités d’utilisation thérapeutique.

La première pierre est posée avec la production d’alstonine. Cette molécule bioactive, identifiée notamment dans la pervenche de Madagascar et utilisée en médecine traditionnelle au Nigéria pour traiter certaines affections liées à la santé mentale, suscite un grand intérêt scientifique pour son profil psychotique original.

En 2024, notre collaboration avec l’Université technique du Danemark a permis de produire l’alstonine dans la levure, mais aussi une alstonine modifiée, ce qui laisse envisager son utilisation dans de nombreux traitements. Des résultats prometteurs…

The Conversation

Le projet MIAMi a été financé par le programme de recherche et d’innovation Horizon 2020 de l’Union européenne dans le cadre de la convention de subvention n°814645.
Le projet ETOPOCentre visant à sécuriser l’approvisionnement en étoposide a été financé dans le cadre du programme Ambition Recherche Développement (ARD) CVL Biomédicaments (Région Centre Val de Loire).
Les études sur l’alstonine ont été financées dans le cadre du projet MIACYC (ANR-20-CE43-0010).

ref. De la médecine traditionnelle au traitement du cancer : le fabuleux destin de la pervenche de Madagascar – https://theconversation.com/de-la-medecine-traditionnelle-au-traitement-du-cancer-le-fabuleux-destin-de-la-pervenche-de-madagascar-264418

Recherche en science biomédicale : le modèle actuel privilégie la quantité plutôt que l’utilité réelle

Source: The Conversation – in French – By Pierre D. Sarr, Postdoctoral Research Fellow in Cancer Biology, McMaster University

Nous vivons à l’ère d’une recherche biomédicale frénétique. Chaque semaine, des revues prestigieuses annoncent la découverte de nouveaux biomarqueurs pour comprendre la genèse et l’évolution de certaines maladies.

Les publications se multiplient, illustrées par des schémas sophistiqués de réseaux moléculaires complexes et des pistes d’applications prometteuses. Et aux canaux de vulgarisation scientifique de nous annoncer à grands titres, presque à la chaîne, des « avancées majeures » qui, mises bout à bout, devraient avancer notre lutte contre telle ou telle pathologie. Des décennies pourtant peuvent s’écouler avant que ces avancées n’atteignent les patients qui en ont désespérément besoin.

Pourquoi donc ce décalage ? Tant d’efforts de recherche, financés à coups de ressources publiques, ont souvent cette destinée commune d’être confinés dans des tiroirs ou des bases de données numériques, parfois voués à l’oubli, ou sans être immédiatement traduits en pratique clinique.

Un modèle qui privilégie la quantité plutôt que l’utilité réelle

Le principal goulet d’étranglement est structurel. La recherche académique valorise davantage le nombre de publications plutôt que l’utilité concrète des travaux. Le prestige de la revue prime parfois sur l’impact réel des résultats et cette logique exerce une pression sur les chercheurs qui n’ont d’autre choix que de produire, publier pour exister.

Cette productivité académique (qui n’en est pas forcément une) est devenue une fin en soi au détriment de l’impact sur les patients, les politiques sanitaires ou les inégalités d’accès. Ainsi, même les recherches les plus innovantes sont rarement pensées pour être appliquées en clinique. Des résultats prometteurs restent bloqués à l’état préliminaire, faute du suivi nécessaire pour franchir les étapes de validation fonctionnelle, d’essais cliniques ou de développement thérapeutique.

Il faut cependant l’admettre : toute recherche n’a pas vocation à être immédiatement appliquée en pratique. La recherche académique, fondamentale par essence, vise avant tout à créer de la connaissance et peut légitimement s’en tenir à ce rôle, dans un cadre théorique et exploratoire. Ce qui interroge en revanche, c’est que même dans la recherche translationnelle ou appliquée, les incitatifs académiques continuent de privilégier la reconnaissance entre pairs ou l’ascension professionnelle plutôt que l’impact réel sur les patients et les pratiques thérapeutiques.

Un biomarqueur à potentiel diagnostic ou thérapeutique peut ainsi faire l’objet d’un article dans la revue Nature et accroître la notoriété de son découvreur, sans jamais bénéficier des fonds ni partenariats nécessaires pour valider son utilité clinique. Il s’agit là du fameux valley of death : cette zone grise dans laquelle s’échouent tant de découvertes faute de modèle de développement translatif adapté.

Cette productivité quantitative, résumée par le mantra publish or perish, pousse à publier rapidement, souvent à outrance, dans une logique déconnectée de rentabilité académique.

Intérêts et logique de rentabilité

Aux côtés de la recherche académique coexiste une recherche industrielle (biotechnologique et/ou pharmaceutique) qui obéit à un autre objectif de rentabilité : celle du retour sur investissement. L’enjeu n’est pas tant de produire des connaissances que de breveter, sécuriser, et mettre sur le marché.

Cette dynamique peut certes stimuler l’innovation, mais en limite aussi l’accessibilité en excluant de fait les publics vulnérables. Les priorités vont souvent aux pathologies à fort potentiel économique, dont l’épidémiologie est largement répandue dans les pays du Nord.

Ce biais contribue à la persistance de maladies dites orphelines ou négligées, parfois qualifiées de manière réductrice d’exotiques ou de tropicales, non pas parce qu’elles sont rares dans l’absolu, mais parce qu’elles n’intéressent que marginalement les circuits classiques de financement faute de représenter un marché solvable. Ce déséquilibre géographique et économique creuse ainsi un fossé abyssal entre les priorités de la recherche mondiale et les besoins réels des populations concernées.

La pandémie de Covid-19 a démontré qu’il est possible de produire un vaccin en moins d’un an quand il y a un marché planétaire en jeu. En revanche, le paludisme continue de tuer des centaines de milliers de personnes chaque année en Afrique Subsaharienne, un marché visiblement trop peu rentable pour mobiliser une recherche et développement à grande échelle.

La nécessité d’un changement de système

Pour une recherche plus utile et plus équitable, il faudra revoir nos critères d’évaluation et de reconnaissance scientifiques. Ces critères façonnent des carrières, attribuent une notoriété à certains, et en privent d’autres qui le mériteraient tout autant, sinon davantage.

Notre culture de productivité quantitative, qui valorise le prolifisme académique ou l’intérêt mercantile plutôt que la portée réelle, n’est ni neutre ni anodine. Elle alimente une course en avant qui vide la recherche contemporaine de son sens.

La Déclaration de San Francisco sur l’évaluation de la recherche (DORA), dès 2012, a remis en question cette approche en appelant à ne plus confondre qualité scientifique et facteur d’impact — indicateurs souvent surévalués et potentiellement nuisibles à l’intégrité scientifique.

L’évaluation des chercheurs devrait intégrer des critères au-delà du nombre des publications : originalité méthodologique, contribution à la science ouverte et capacité à faire progresser l’équité globale.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Plusieurs institutions ont dans leurs politiques internes adhéré à DORA, mais peu en ont réellement adopté les recommandations. Les financements continuent de bénéficier aux équipes qui publient vite, beaucoup, dans les revues les plus cotées. Le système, en l’état, favorise ceux qui maîtrisent le langage académique traditionnel et qui savent en reproduire les codes, encourageant la compétition plutôt que la collaboration, la précipitation plutôt que la lenteur réflexive.

À l’inverse, ceux qui prennent le temps de co-construire des projets, de rendre leurs résultats utiles et accessibles, ou qui travaillent à l’implémentation clinique d’une découverte — souvent dans des contextes à faibles ressources — sont rarement récompensés. Pire, ils sont parfois perçus comme moins productifs, alors même que leur impact est souvent bien plus transformateur.

Et si on repensait la finalité de la recherche ?

Il est primordial de changer de paradigme afin de réconcilier la recherche avec sa mission première : le progrès commun. Une recherche qui n’est ni appliquée, ni partagée, ni équitablement construite n’a qu’un effet marginal. À l’inverse, une recherche collaborative, pensée avec et pour les communautés, peut véritablement changer des vies.

La recherche biomédicale ne doit plus être un luxe désincarné, produit par quelques-uns pour quelques autres. Elle doit être moins élitiste et s’ouvrir aux personnes historiquement exclues : patients issus de milieux précaires ou souffrant de pathologies rares, chercheurs sans affiliation institutionnelle forte ou formés dans des pays à ressources limitées, tous ceux qui peinent à faire entendre leurs voix ou à publier leurs idées dans les circuits dominants.

Les patients ne peuvent plus attendre que les découvertes scientifiques franchissent lentement les murs des laboratoires, puis ceux des brevets, avant d’atteindre les hôpitaux, souvent trop tard. Il ne suffit plus de produire des connaissances : il faut en garantir l’accessibilité, l’applicabilité, l’équité.

Un autre modèle est possible : celui où excellence scientifique rime avec responsabilité sociétale, où l’impact se mesure non plus en nombre de citations, mais de vies améliorées.

L’excellence scientifique n’a de sens que si elle améliore concrètement la vie de ses destinataires — non plus considérés comme objets d’étude ou tremplins d’évolution professionnelle — mais comme partenaires de recherche à part entière.

La Conversation Canada

Pierre D. Sarr ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Recherche en science biomédicale : le modèle actuel privilégie la quantité plutôt que l’utilité réelle – https://theconversation.com/recherche-en-science-biomedicale-le-modele-actuel-privilegie-la-quantite-plutot-que-lutilite-reelle-262309

« Le suicide politique de François Bayrou est le produit d’un régime politique à bout de souffle »

Source: The Conversation – in French – By Frédéric Sawicki, professeur de science politique, Université Paris 1 Panthéon-Sorbonne

Le premier ministre François Bayrou n’a pas obtenu la confiance des députés (194 voix pour, 364 voix contre) et va remettre sa démission au président de la République Emmanuel Macron. Ce dernier devra choisir un nouveau chef de gouvernement ou avoir recours à une nouvelle dissolution de l’Assemblée nationale. Comment interpréter la chute du gouvernement Bayrou ? Quels scénarios pour une sortie de crise ? Entretien avec le politiste Frédéric Sawicki.


The Conversation : François Bayrou vient de démissionner. Quel bilan tirez-vous de son action et de sa méthode ?

Frédéric Sawicki : Comment comprendre un tel fiasco ? Comment comprendre ce suicide politique qu’est ce vote de confiance choisi par le premier ministre alors qu’il ne dispose pas de majorité ?

En refusant de s’engager depuis sa nomination dans une négociation ayant pu déboucher sur une espèce de contrat de gouvernement, notamment avec le Parti socialiste, François Bayrou s’est privé de toute possibilité de survie politique. C’est là un paradoxe pour ce démocrate-chrétien qui, tout au long de sa carrière politique, n’a cessé d’appeler au dépassement du clivage droite-gauche (rappelons qu’il avait à ce titre refusé de rejoindre l’UMP en 2002 et appelé à voter François Hollande en 2012) et à la recherche de compromis.

Sa gouvernance a en outre été marquée par une succession d’échecs et de maladresses qui n’ont pu que creuser la distance avec la gauche, à commencer par la désastreuse gestion des révélations concernant Bétharram, épisode au cours duquel François Bayrou a peiné à clarifier son rôle mais surtout guère montré de compassion pour les victimes, apparaissant comme un homme d’un autre temps. Auparavant, en janvier, il y a eu l’impasse totale faite sur les enjeux climatiques et environnementaux dans sa déclaration de politique générale suivie par l’utilisation de l’expression « submersion migratoire », deux lourds signaux envoyés à la droite et à l’extrême droite. Si celles-ci pouvaient applaudir des deux mains à l’unisson de la FNSEA l’adoption de la loi Duplomb, le PS et la CFDT ne pouvaient que constater de l’autre côté s’être fait rouler dans la farine après l’échec du « conclave » sur les retraites en juin dernier.

Enfin, après avoir ainsi humilié la gauche, le premier ministre a porté le coup de grâce en annonçant un plan d’économies de 44 milliards supporté pour l’essentiel par les salariés et les retraités, avec cette mesure ubuesque concernant la suppression deux jours fériés qui lui a définitivement aliéné le Rassemblement national.

Au-delà de la personne de François Bayrou, quelles sont les causes structurelles de cet échec ?

F. S. : Il faut relativiser la responsabilité individuelle de François Bayrou, malgré ses bévues.

La première raison de cet échec réside dans le choix du président de la République de ne pas tenir compte du nouveau rapport de forces au sein de l’Assemblée nationale élue en juillet 2024. Celui-ci, rappelons le, aurait dû conduire à la nomination d’un premier ministre du Nouveau front populaire (NFP) quitte à ce que ce gouvernement échoue et que le président nomme alors un autre premier ministre. Au lieu de cela, Emmanuel Macron a choisi de s’appuyer sur le groupe LR et ses 48 députés, jusqu’ici dans l’opposition, en nommant Michel Barnier. En décembre il n’a même plus fait semblant de prendre acte de sa défaite en nommant François Bayrou qui, avec le groupe MoDem (36 députés), fait partie de sa majorité depuis 2017.

Pour réussir, Bayrou ou Barnier étaient condamnés à élargir leurs soutiens au-delà de leurs partis et du bloc central. Si la France était dans une démocratie parlementaire « classique », on en serait sûrement passé par une grande négociation entre les partis prêts à participer au gouvernement. Cette négociation aurait sans doute pris plusieurs semaines mais elle aurait permis une certaine stabilité autour de quelques mesures de compromis. En nommant un premier ministre à sa guise, en interférant dans la composition du gouvernement et en leur laissant le soin de bricoler une stratégie de balancier (un coup à gauche, deux ou trois coups à droite et à l’extrême droite) Emmanuel Macron a condamné celui-ci à l’échec.

On a beaucoup critiqué l’absence de culture du compromis des partis politiques. Est-ce également une raison de cet échec ?

F. S. : En effet, mais c’est moins la culture que nos institutions qui ne poussent pas les acteurs à se montrer responsables. L’élection présidentielle est toujours pensée comme le moment décisif permettant d’engager une nouvelle orientation pour cinq ans. Du coup, accepter de passer des compromis, revenait à risquer de se « griller » pour l’élection présidentielle suivante. C’est ce qui explique par exemple l’attitude de LR en 2022 qui refuse de rejoindre la majorité alors même que le programme d’Emmanuel Macron est largement convergent avec le sien.

L’hyper-présidentialisation empêche le compromis. La liberté laissée au président de nommer le premier ministre sans tenir pleinement compte du résultat du vote et son intrusion dans la politique du gouvernement même désavoué par les urnes illustrent la perversion de nos institutions. Elles garantissent l’irresponsabilité totale d’Emmanuel Macron. Même si des voix commencent à se faire entendre pour appeler à sa démission ou sa destitution, rien ne l’y oblige. Le revers de la médaille de cette irresponsabilité est qu’elle crée des partis tout aussi irresponsables : ces derniers renvoient la balle au président – à lui de se débrouiller pour trouver des réponses et rendez-vous à la prochaine élection présidentielle !

Enfin, le mode d’élection des députés au scrutin majoritaire à deux tours n’incite pas non plus les partis à trouver des compromis. D’un côté la gauche modérée doit s’associer à la gauche radicale pour avoir des députés, de l’autre la droite est concurrencée de plus en plus par l’extrême droite dans de nombreuses circonscriptions.

Quelles solutions permettraient de sortir de cette impasse ?

F. S. : Je plaide pour un scrutin proportionnel qui permettrait de rendre les partis politiques et les parlementaires plus responsables. Notre régime excessivement présidentialisé et le scrutin majoritaire à deux tours non seulement ne permettent pas une bonne représentation de la diversité des idées politiques et des intérêts sociaux mais ils ne permettent plus aujourd’hui de déboucher sur des majorités claires. Il existe des divisions sociologiques, politiques et idéologiques qui fracturent le pays bien au-delà de l’ancien clivage droite-gauche. La bipolarisation n’est pas près de se reproduire, c’est d’ailleurs un constat qui vaut pour de très nombreux pays aujourd’hui.

Aujourd’hui, ces divisions ne sont pas correctement reflétées au sein de l’Assemblée car les Français sont souvent contraints de voter pour éliminer tel ou tel parti. Le scrutin proportionnel incite au contraire à voter pour le programme dont on est le plus proche. Elle empêche qu’un seul parti ne gouverne et amène plus facilement les responsables politiques à négocier des orientations programmatiques.




À lire aussi :
Notre démocratie est-elle minée par l’élection du président de la République au suffrage universel ?


Mais une réforme du scrutin législatif sera-t-elle suffisante ? L’un des enjeux n’est-il pas également de réduire le pouvoir du président de la République ?

F. S. : Effectivement, il existe sans doute d’autres chantiers à entreprendre. Certains considèrent qu’il faut revenir à un mandat unique de sept ans pour le président, d’autres qu’il faudrait lui retirer le pouvoir de nomination du premier ministre en rendant obligatoire le vote de confiance de l’Assemblée nationale, comme c’était le cas pour la troisième et la IVe République. D’autres souhaitent développer les référendums d’initiative partagée ou les référendums d’initiative citoyenne. Tout cela devra être discuté lors de la prochaine élection présidentielle, mais dans l’immédiat, pour remettre la Ve République sur des rails plus démocratiques et sortir de l’impasse actuelle, la proportionnelle me semble être la première réforme à envisager. Le politiste Bastien François propose un référendum sur la proportionnelle puis une dissolution qui permettrait d’élire une nouvelle assemblée. On peut aussi envisager cette réforme comme un élément de négociation pour construire un futur gouvernement entre le centre et la gauche.

Quelles solutions s’offrent à Emmanuel Macron aujourd’hui ?

F. S. : Emmanuel Macron peut désormais dissoudre l’assemblée mais ce choix serait risqué : il ferait perdre des voix à son camp. Par ailleurs, dans un contexte social inflammable – avec le mouvement Bloquons tout – une dissolution peut amplifier le vote de rejet du président.

Seconde hypothèse : Emmanuel Macron poursuit dans la même logique en espérant qu’un premier ministre de son camp fasse passer le budget au 49.3. quitte à dissoudre ensuite. Mais le Rassemblement national ne semble plus prêt à jouer le jeu de la neutralité et les socialistes ne devraient pas être plus cléments. Ce choix reviendrait donc à reculer pour mieux sauter et l’on arriverait très probablement à une nouvelle censure dans quelques semaines et à priver la France de budget.

Troisième hypothèse : Emmanuel Macron donne sa chance à Olivier Faure ou à un premier ministre de gauche. Il peut ainsi penser réussir à lever l’hypothèque socialiste comme on disait sous la Troisième. Il me semble qu’il s’agirait de la seule décision rationnelle pour éviter une dissolution. Les socialistes pourraient faire passer quelques réformes de gauche comme la taxe Zucman, des mesures prenant en compte la pénibilité en matière de retraite, voire des mesures en faveur de l’hôpital et l’éducation, qui sont largement soutenues par les Français. Ce serait sans doute difficile à avaler pour Macron mais ce dernier peut toujours espérer que le Conseil constitutionnel censure la taxe Zucman ou que LFI torpille le PS. Il peut aussi essayer de diviser les socialistes en proposant un ancien du PS comme Bernard Cazeneuve, mais les socialistes semblent aujourd’hui plus unis qu’en décembre dernier et risquent de refuser cette manœuvre.

Si dissolution il y a, le Rassemblement national est-il de plus en plus proche du pouvoir ?

F. S. : On peut penser que les principales victimes d’une dissolution seront les députés du camp présidentiel. La gauche, pour l’instant, semble se maintenir dans les sondages. Le RN également, autour d’un tiers des votes. La question, c’est que vont faire les partis ? Est-ce que LR va définitivement basculer vers une alliance avec le RN ? La gauche partira-t-elle unie (comme en 2022 et en 2024) à ces élections ou divisée ? Est-ce qu’une partie des électeurs, déçus du macronisme, vont se tourner vers les socialistes, finalement jugés plus responsables et raisonnables ? Il est difficile de prédire les rapports de forces actuels, tels que les mesurent les sondages, dans un contexte d’élection majoritaire à deux tours et avec autant d’incertitudes.


Propos recueillis par David Bornstein.

The Conversation

Frédéric Sawicki ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. « Le suicide politique de François Bayrou est le produit d’un régime politique à bout de souffle » – https://theconversation.com/le-suicide-politique-de-francois-bayrou-est-le-produit-dun-regime-politique-a-bout-de-souffle-264797

Télé, radio, presse, réseaux sociaux : quels médias captent vraiment l’attention des Français ?

Source: The Conversation – in French – By Marianne Lumeau, Maître de conférences en économie numérique, de la culture et des médias

Qui arrive encore à capter l’attention des Français ? Jason Leung/Unsplash, CC BY

Qui capte vraiment l’attention des Français quand il s’agit d’information ? En combinant télévision, presse, radio, réseaux sociaux ou agrégateurs, une nouvelle mesure permet d’évaluer avec finesse la place réelle des médias dans notre quotidien. À la clé&, une carte inédite du paysage médiatique, marqué par une forte concentration autour de quelques grands groupes – et une place centrale, souvent oubliée, du service public.


Pour répondre à ces questions, nous avons déployé une nouvelle mesure de consommation des médias : la part d’attention, (initialement introduite par l’économiste Andrea Prat). Contrairement aux mesures traditionnelles d’audience, cet indicateur permet de tenir compte de la multiplicité des sources et des plateformes par lesquelles l’actualité est consommée (TV, radio, presse, médias sociaux, etc.), tout en considérant que certains vont partager leur attention entre plusieurs sources alors que d’autres n’en consultent qu’une seule. Par exemple, une chaîne de télévision qui est la seule source d’information d’une population concentre 100 % de l’attention de cette population. Elle a davantage de pouvoir attentionnel qu’une chaîne qui est consommée en même temps que d’autres sources (une station de radio, un titre de presse et un média social, par exemple). Dans ce cas, si chaque source est consommée à la même fréquence, la part d’attention de la chaîne de télévision sera de 25 %, tout comme celle de la station de radio, celle du titre de presse et celle du média social.

Télé, radio, réseaux sociaux : qui capte vraiment l’attention des Français ?

À partir des données d’une enquête, menée en 2022, obtenues auprès d’un échantillon représentatif de 6 000 Français, les résultats indiquent de faibles écarts entre les sources médiatiques, même si l’attention des Français se concentre principalement sur les chaînes de télévision et les médias sociaux.

TF1 arrive en tête en cumulant 5,9 % de l’attention des Français, suivi par Facebook (4,8 %), France 2 (4,5 %), M6 (4,4 %) et BFMTV (4,1 %). Le premier agrégateur de contenus, Google actualités, arrive en onzième position (2,3 %), la première station de radio (RTL) en vingt-deuxième (1,33 %) et le premier titre de presse (20 minutes) en vingt-troisième (1,31 %).

Un marché des médias dominé par quelques groupes

En revanche, le regroupement des sources par groupe médiatique (par exemple, Facebook, Instagram et WhatsApp appartiennent à Meta) révèle une importante concentration. Les quatre premiers groupes concentrent 47 % de l’attention des Français. Si l’on prend les huit premiers groupes, on arrive à 70 % de l’attention des Français captée.

En moyenne, le groupe public composé principalement de France Télévisions et Radio France est, de loin, celui qui concentre le plus l’attention des consommateurs de médias (19,8 %), suivi par le Groupe Meta (10,1 %) et le Groupe TF1 (9,9 %).

La place centrale de médias publics

Le service public d’information, contrairement à une idée reçue, n’est donc pas réservé à une élite, mais occupe une place centrale dans le menu de consommation médiatique des Français.

Ce résultat peut s’expliquer par la confiance accordée aux médias du service public dans la production d’information (voir l’enquête du Parlement européen) et légitime l’octroi d’un budget suffisant pour y répondre. Cela met également en lumière l’importance de son indépendance vis-à-vis de l’État.

La place croissante des médias sociaux

Notons que le Groupe Meta dispose du pouvoir attentionnel le plus fort auprès des 18-34 ans, avec une part d’attention de l’ordre de 14 %, devant les groupes de médias du service public (11 %) et Alphabet-Google News (8 %).

Même si Meta ne produit pas directement d’information, il met en avant et ordonne les différentes informations auprès de ses usagers. Sans être soumis aux mêmes règles que les médias traditionnels, les médias sociaux disposent donc d’un rôle clé sur la vie démocratique.

Pourquoi cette mesure doit peser dans les décisions sur les fusions médiatiques ?

L’analyse par groupe s’avère particulièrement importante dans un contexte où les groupes de médias contrôlent une part de plus en plus importante de titres de presse, de chaînes de télévision, de stations de radios ou de plateformes d’informations au travers d’opérations de fusions ou d’acquisitions (par exemple, l’OPA de Vivendi sur Lagardère).

De récents rapports sur le secteur des médias recommandent, d’ailleurs, le recours à la part d’attention comme un nouvel outil d’évaluation des opérations de concentration sur le marché des médias d’information par les autorités de la concurrence (Autorité de la concurrence, Commission européenne, Autorité de régulation de la communication audiovisuelle et numérique [ARCOM]). Cet outil est particulièrement adapté pour juger si la nouvelle entité formée à l’issue de la fusion de deux groupes ou de l’acquisition de nouvelles sources par un groupe n’aurait pas un trop grand pouvoir attentionel et si le marché des médias serait trop concentré autour de quelques acteurs dans un contexte où les médias sont au cœur du processus démocratique. La littérature académique reconnaît, en effet, qu’ils peuvent influencer les positions idéologiques des citoyens, les votes et la démocratie et peuvent être idéologiquement biaisés.


Pour approfondir : S. Dejean, M. Lumeau, S. Peltier, « Une analyse de la concentration de l’attention par les groupes médiatiques en France », Revue économique, 76(2), pp. 133 à 177.

The Conversation

Marianne Lumeau a reçu des financements de l’ANR (Projet de recherche Pluralisme de l’Information en Ligne – PIL).

Stéphanie Peltier et Sylvain Dejean ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. Télé, radio, presse, réseaux sociaux : quels médias captent vraiment l’attention des Français ? – https://theconversation.com/tele-radio-presse-reseaux-sociaux-quels-medias-captent-vraiment-lattention-des-francais-262261

L’essor inattendu du judaïsme en Afrique subsaharienne

Source: The Conversation – in French – By Ayode Habib Daniel Dossou Nonvide, Docteur en histoire internationale, Graduate Institute – Institut de hautes études internationales et du développement (IHEID)

Depuis environ trente ans, le judaïsme connaît une croissance remarquable parmi les populations d’Afrique subsaharienne. Ce qui importe le plus aux personnes impliquées dans ce mouvement est la revendication ou la recherche d’une identité juive, définie selon divers critères : culturels, religieux, ethniques ou encore spirituels. Plusieurs facteurs permettent d’éclairer cette émergence.


Les statistiques montrent que l’Afrique, dont plus de 95 % de la population se déclare religieuse, est majoritairement composée de chrétiens (56 %) et de musulmans (34 %), les deux principales religions abrahamiques. La troisième, le judaïsme, y demeure statistiquement marginale.

Tandis que l’islam s’est diffusé sur le continent principalement par le biais du commerce et de la conquête, le christianisme y doit son implantation durable à l’œuvre missionnaire et à la colonisation européenne. En revanche, ni l’histoire religieuse du continent ni sa géopolitique actuelle ne semblent propices à l’émergence du judaïsme ; dès lors, l’engouement croissant pour la judéité peut apparaître comme une surprise.

Quelques précisions contextuelles

Il convient d’abord de souligner que le phénomène de judaïsation en Afrique subsaharienne est en constante évolution, ce qui rend difficile toute estimation démographique précise. Les personnes concernées, souvent qualifiées de « Juifs émergents » – un terme utilisé par plusieurs chercheurs –, demeurent parfois discrètes en raison des pressions sociales et familiales qu’elles subissent, bien qu’elles n’hésitent pas, lorsqu’on les interroge, à affirmer avec fierté leur identité juive.

Il importe également de noter que l’expression « Juifs émergents » n’est pas toujours acceptée, notamment par certains groupes comme les Lembas d’Afrique australe, qui considèrent cette appellation comme un déni de leur judéité ancienne.

À l’inverse, les Juifs éthiopiens, dont l’identité juive a été officiellement reconnue depuis les années 1970, ne sont généralement pas inclus dans cette catégorie de « Juifs émergents ».

Par ailleurs, la reconnaissance même du terme « Juif » pose problème, car la communauté juive dominante – vivant majoritairement en Israël, en Europe et en Amérique du Nord – hésite souvent à reconnaître ces groupes comme membres légitimes du judaïsme. En Afrique subsaharienne, seuls les Juifs sud-africains, qui étaient environ 100 000 en 2012, sont pleinement intégrés dans cette communauté mondiale.

L’absence de définition universelle de l’identité juive contribue à cette incertitude. Chaque courant du judaïsme normatif ou rabbinique – orthodoxe, conservateur, ou réformé – ainsi que l’État d’Israël, applique ses propres critères pour déterminer qui est juif. C’est au niveau de la reconnaissance que se situe la principale ligne de fracture entre le judaïsme traditionnel et les groupes dits émergents.

Une reconnaissance partielle, mais en progression

Les Juifs émergents d’Afrique subsaharienne ont longtemps été ignorés par les autorités israéliennes et par la majorité des membres de la communauté juive dominante. Toutefois, certaines organisations basées aux États-Unis ou en Israël, telles que Kulanu, Be’chol Lashon, Shavei Israel, ainsi que des figures influentes comme le rabbin orthodoxe Shlomo Riskin, se sont montrées enthousiastes à l’idée de tisser des liens avec ces communautés. Ces initiatives, qui concernent également des groupes émergents en Asie, en Océanie et en Amérique latine, permettent à ces populations souvent isolées géographiquement d’accéder à des ressources éducatives, religieuses et sociales.

Elles leur offrent aussi des plates-formes pour faciliter leur conversion halakhique – c’est-à-dire conforme à la Halakha (loi juive) –, condition souvent indispensable pour être reconnu comme Juif par les institutions juives traditionnelles, qui ignorent encore largement leur existence ou les perçoivent comme une curiosité sociologique.

Diversité des courants judaïsants en Afrique subsaharienne

L’identité juive ne signifie pas la même chose pour tous les Juifs émergents. Leurs revendications se répartissent en plusieurs catégories :

Fondements biologiques et ethniques

Certains groupes affirment être les descendants de migrations anciennes hébraïques, israélites ou juives. Ils mobilisent des éléments linguistiques (ressemblances entre leur langue et l’hébreu), culturels (pratiques locales similaires à celles décrites dans la Bible), ainsi que des récits oraux relatant des parcours migratoires depuis le Moyen-Orient ou l’Éthiopie. C’est le cas des Danites de Côte d’Ivoire, des Igbos du Nigeria, de diverses communautés à Madagascar ou encore des Lembas, répartis entre l’Afrique du Sud, le Zimbabwe, le Malawi et le Mozambique.

Adhésion religieuse par conversion

D’autres s’affirment juifs pour des raisons purement religieuses, sans revendiquer de filiation biologique. Leur judéité est le fruit d’un engagement personnel, souvent formalisé par une conversion. On retrouve dans cette catégorie les Abayudayas d’Ouganda, les Juifs de Kasuku au Kenya, certaines communautés de Côte d’Ivoire, ou encore des membres de la communauté Beth Yeshourun au Cameroun.

Approches hybrides

Entre ces deux pôles se situent ceux qui combinent les deux approches, se réclamant à la fois d’une identité israélite ancestrale et d’une foi active dans le judaïsme. Ce cas de figure est fréquent dans la majorité des communautés juives émergentes.

Identité spirituelle ou existentielle

Une quatrième catégorie regroupe des individus qui se déclarent juifs par conviction personnelle, indépendamment de toute ascendance biologique ou démarche de conversion. Ils considèrent leur âme comme intrinsèquement juive, née dans un corps non juif. Pour eux, la judaïsation n’est pas une conversion mais une réconciliation avec leur être profond. Si certains souhaitent se convertir pour être reconnus, d’autres rejettent toute formalité religieuse, se satisfaisant de leur certitude intime. Aucun chiffre précis ne permet d’estimer l’ampleur de ce groupe, en raison du caractère récent et dynamique du phénomène, et de l’absence d’enregistrements officiels. Cependant, plusieurs membres des mouvements juifs émergents en Côte d’Ivoire et au Kenya (dont l’identité ne peut être révélée pour des raisons d’éthique) ont exprimé leur judéité en ces termes lors de recherches de terrain effectuées par l’auteur dans ces deux pays.

La question du judaïsme messianique

Parallèlement aux courants émergents mentionnés, il existe une autre catégorie en expansion : celle des Juifs messianiques, dont le nombre s’élève à plusieurs millions, ce qui en fait le courant le plus répandu sur le continent. Le judaïsme messianique se définit comme « un mouvement fondé sur la Bible, de personnes qui, en tant que Juifs engagés, croient que Yeshua (Jésus) est le Messie juif d’Israël annoncé par la loi et les prophètes ».

Ces croyants refusent que leur foi en Yeshua Hamashiach (forme hébraïque de Jésus-Christ qu’ils privilégient) soit perçue comme incompatible avec leur identité juive. Cependant, les trois principales branches du judaïsme rabbinique – orthodoxe, conservateur et réformé – les considèrent sans ambiguïté comme chrétiens, du fait de leur théologie christologique.

Bien que numériquement majoritaires, les Juifs messianiques africains sont souvent rejetés par les autres Juifs émergents, notamment ceux qui s’inscrivent dans une pratique rabbinique plus classique. Ces derniers voient dans le judaïsme messianique un facteur aggravant la méfiance dont ils font l’objet de la part des communautés juives dominantes.

Juif et noir : Une identité historique en renaissance

La judaïsation en Afrique subsaharienne est un phénomène en pleine croissance. Si elle est devenue plus visible depuis l’alyah des Juifs éthiopiens au début des années 1990, elle ne constitue pas une rupture totale avec l’histoire : elle représente plutôt une résurgence contemporaine d’une réalité ancienne, celle d’une Afrique où, pendant des siècles, la judéité et la négritude n’étaient pas incompatibles, comme l’illustre l’histoire des Juifs de Loango en Afrique centrale, de Tombouctou au Mali, et de la côte sénégambienne. Être noir et juif n’a rien d’inhabituel : ce fut longtemps une réalité vécue avant l’islamisation et la colonisation.

L’émergence actuelle de la judéité s’inscrit dans un contexte plus large de réaffirmation identitaire afrocentrée, de polarisation accrue autour du conflit israélo-palestinien – dans un continent où l’islam est la deuxième religion – et dans des environnements socio-économiques souvent peu propices à une vie d’observance juive normative. À cela s’ajoute la résistance de l’État d’Israël (et de la majorité de la communauté juive du courant dominant) à reconnaître ces communautés. Dans ce contexte, le judaïsme émergent en Afrique illustre le caractère élusif du concept d’identité et, dans le même temps, une preuve que la liberté de foi et de conscience est réelle sur le continent africain, en dépit des défis existants.

The Conversation

Ayode Habib Daniel Dossou Nonvide ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’essor inattendu du judaïsme en Afrique subsaharienne – https://theconversation.com/lessor-inattendu-du-juda-sme-en-afrique-subsaharienne-263464

« Cités éducatives » : alliances locales ou uniformisation nationale ?

Source: The Conversation – in French – By Laurie Genet, Docteure en Sciences de l’éducation et de la formation, CY Cergy Paris Université

Le principe des « cités éducatives », lancé en 2019, est de créer une « grande alliance éducative » au niveau des territoires pour mieux lutter contre les inégalités. Mais à mesure que le label se déploie, l’uniformisation des pratiques ne prend-elle pas le pas sur les enjeux d’adaptation à la réalité du terrain ?


Les « cités éducatives » sont présentées comme une réponse innovante aux inégalités éducatives. Leur ambition ? Créer des « territoires à haute valeur éducative » en mobilisant tous les acteurs locaux – écoles, associations, collectivités, institutions – autour de la réussite des jeunes de 0 à 25 ans, à l’école, mais également avant, après et autour de celle-ci.

Lancé en 2019, le label est déployé à l’échelle de 248 territoires et cible les quartiers prioritaires de la politique de la ville (QPV), majoritairement en éducation prioritaire (renforcée) (REP et REP+), particulièrement marqués par de fortes inégalités sociales, scolaires, économiques et des enjeux sécuritaires.

Une généralisation progressive du label est prévue d’ici 2027 pour les quartiers qui se porteraient volontaires. Mais derrière l’ambition d’une territorialisation, cette logique de déploiement peut-elle répondre à la diversité des réalités de terrain ?

Créer une « grande alliance éducative »

Le principe des cités éducatives est de créer une « grande alliance éducative » locale, pour transformer les territoires et réduire les inégalités. Le label a pour vocation de renforcer les coopérations entre acteurs éducatifs, culturels, sociaux, sportifs, autour de projets communs. Trois axes structurent l’action à l’échelle nationale :

  • renforcer le rôle de l’école ;

  • promouvoir la continuité éducative ;

  • ouvrir le champ des possibles pour les jeunes.

Le cadrage national du label est volontairement large, avec l’ambition de laisser aux professionnels socio-éducatifs locaux la possibilité d’innover en réponse aux problématiques qu’ils rencontrent au quotidien.

Plus spécifiquement, ce label repose sur une gouvernance tripartite – appelée « troïka » – réunissant l’État (via la préfecture), la municipalité et l’éducation nationale. À cela s’ajoute un chef de projet opérationnel (CPO), garant du déploiement local et de l’intermédiation.

Chaque année, les cités éducatives lancent des appels à projets auxquels répondent des professionnels socio-éducatifs aux statuts divers (associations, institutions, entreprises…). Les projets peuvent être diversifiés : soutien scolaire, projets sportifs ou culturels, accompagnement à la parentalité, mentorat, prévention du décrochage…

« Les cités éducatives, parlons-en », vidéo explicative de la Ville de Poitiers (2024).

Ainsi, la territorialisation du label cité éducative se joue d’abord à l’échelle des gouvernances locales, puis se renégocie, dans une forme plus « ancrée » par la suite, à l’échelle des professionnels socio-éducatifs locaux.

Autrement dit, chaque cité éducative devrait donc être unique, façonnée par les besoins et les singularités de son territoire. Mais, à mesure que le dispositif se déploie, une autre logique tend à s’imposer : des projets similaires d’une cité éducative à une autre, des publics cibles uniformisés, la duplication des dispositifs et actions…

Vers une duplication des projets entre cités éducatives ?

Les diagnostics territoriaux réalisés à l’échelle de chacun des territoires labellisés révèlent une grande diversité d’enjeux locaux. Pourtant, les projets retenus et mis en œuvre au sein des cités éducatives se ressemblent fortement d’un territoire à l’autre.

Qu’on regarde une cité éducative d’Île-de-France ou du centre-ouest de la France, on retrouve les mêmes grandes priorités en termes de thématiques – culture, citoyenneté, soutien à la parentalité. Idem pour les publics visés : sur le papier, une attention particulière est portée aux 0-3 ans et aux 16-25 ans. Toutefois, ce sont surtout les enfants de 6 à 16 ans et leurs parents qui concentrent l’essentiel des actions financées. À l’échelle nationale, ces catégories représentent plus de 80 % des publics ciblés, tandis que les 0-3 ans et les jeunes adultes restent largement en marge.

Résultat : une standardisation des thématiques et des publics malgré des contextes locaux très différents.

Deux formes de duplication sont à l’œuvre. D’abord, on observe une duplication par mimétisme : certains projets jugés « innovants » ou « efficaces » circulent d’une cité éducative à l’autre via les réseaux informels – échanges entre chefs de projet opérationnel, rencontres organisées par l’Agence nationale de la cohésion des territoires (ANCT), partages sur les réseaux sociaux…

Des « plans lecture », des ateliers vélo ou natation, des actions de sensibilisation aux écrans ou encore des expansions de dispositifs comme les lieux d’accueil parent-enfant (LEAP ou les « cordées de la réussite » sont ainsi repris d’un territoire à l’autre avec les mêmes modalités, les mêmes objectifs, parfois même le même intitulé.

Vidéo de présentation de la Ville d’Annemasse, en janvier 2025.

À côté de cette dynamique d’essaimage, on observe une deuxième forme de duplication, plus institutionnelle. Des associations gestionnaires de l’éducation populaire, des start-up de l’éducation ou des entreprises sociales proposent des projets « clés en main », déjà rodés à l’échelle nationale.

Par exemple, l’Association de la fondation étudiante pour la ville (Afev) déploie des actions de mentorat et le programme Demo’campus dans une pluralité de cités éducatives. En 2022, la Ligue de l’enseignement déploie des actions au sein de 26 cités éducatives. En 2024, un tiers des cités éducatives soutiennent financièrement le programme Coup de Pouce.

Une territorialisation de l’action éducative en trompe-l’œil ?

Cet essaimage interroge la perspective territorialisée de cette politique publique. Si la rhétorique de la territorialisation est omniprésente, les modalités concrètes de mise en œuvre racontent une autre histoire : celle d’une institutionnalisation des innovations et d’une uniformisation des projets, des priorités et des publics, au mépris ou en ignorance des singularités locales.

Ce paradoxe n’est pas sans conséquences. D’un côté, les professionnels socio-éducatifs locaux s’épuisent à tenter de répondre aux besoins locaux. De l’autre, les dispositifs et projets perdent en efficacité, faute d’être réellement ancrés dans les besoins et les réalités du terrain.

La volonté d’essaimer les « bonnes pratiques » affaiblit ce qui faisait la force supposée du dispositif : sa capacité à faire du sur-mesure. Les cités éducatives risquent ainsi de reproduire les limites des politiques éducatives territorialisées antérieures, où l’innovation locale cède progressivement le pas à une standardisation institutionnelle.

The Conversation

Laurie Genet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. « Cités éducatives » : alliances locales ou uniformisation nationale ? – https://theconversation.com/cites-educatives-alliances-locales-ou-uniformisation-nationale-258613