De la médecine traditionnelle au traitement du cancer : le fabuleux destin de la pervenche de Madagascar

Source: The Conversation – France in French (3) – By Audrey Oudin, Maître de conférences, Université de Tours

L’histoire de la pervenche de Madagascar, dont sont extraits des anticancéreux majeurs, est une des belles histoires de la pharmacopée. Mais le mode de production actuel peu rentable et coûteux de ces molécules thérapeutiques conduit à des pénuries dont pâtissent les malades. Face à ces enjeux, une équipe de l’Université de Tours développe une « bioproduction » des molécules anticancéreuses indépendamment de la plante… dans des levures de boulanger.


Sous son air de fleur toute simple, la pervenche de Madagascar cache de grands pouvoirs. Originaire de l’île de Madagascar, cette jolie plante vivace aux pétales roses ou blancs, d’abord nommée Vinca rosea puis reclassifiée Catharanthus roseus, n’est pas seulement une vedette ornementale dans nos parcs en France. Elle est à l’origine de médicaments essentiels, notamment en cancérologie.

Une plante de médecine traditionnelle

Si vous visitez quelques pays tropicaux, vous pourrez vite vous retrouver face à cette plante, dans les jardins, sur les trottoirs, à la lisière des forêts, aux abords des plages…

Native de Madagascar (en vert), « C. roseus » a été distribuée dans différentes régions du monde (en violet) en tant que plante ornementale et pour ses vertus médicinales. Source : www.kew.org/plants/madagascar-periwinkle (carte cliquable).

Dans ces régions, C. roseus est une plante médicinale de première importance. Depuis des siècles, fleurs, feuilles ou racines, en infusion, en décoction ou en jus, sont utilisées en médecine traditionnelle pour traiter l’hypertension artérielle, les infections cutanées, les troubles respiratoires, la dengue ou encore le diabète. C’est cette dernière indication qui, dans les années 1950, attire l’attention de deux scientifiques canadiens Robert L. Noble et Charles Beer.

La découverte de deux anticancéreux majeurs

En testant des extraits de la plante sur des rats, ils n’observent aucune modification sur la glycémie (le taux de sucre dans le sang, ndlr) mais constatent une chute brutale des globules blancs. Ils isolent de ces extraits un premier composé : la vinblastine.

Dans le même temps, c’est la course à la découverte de nouvelles molécules actives. Les plantes médicinales sont une cible de choix et sont étudiées en masse. La compagnie pharmaceutique Eli Lilly teste l’activité antitumorale de nombreux extraits dont ceux de C. roseus. L’extrait de pervenche de Madagascar prolonge la vie de souris atteintes de leucémie. Elle isole des feuilles un deuxième composé : la vincristine.

Lors d’un congrès en 1958, la rencontre des équipes canadienne et états-unienne aboutit à une collaboration fructueuse conduisant, quelques années plus tard, à l’approbation par l’US Food Drug Administration (FDA) de l’utilisation de la vinblastine (Velbe) et de la vincristine (Oncovin) comme médicaments anticancéreux.

Une révolution en chimiothérapie

L’élucidation de leur structure chimique montre que ce sont des alcaloïdes retrouvés très majoritairement chez les plantes. Ils sont appelés vinca-alcaloïdes. À partir de ces produits naturels, un premier dérivé semi-synthétique (la vinorelbine, Navelbine) est produit par l’équipe du Pr Pierre Potier de l’Institut de chimie des substances naturelles à Gif-sur-Yvette (Essonne), qui s’intéresse depuis quelques années à leur synthèse. Suivront d’autres dérivés (vinflunine [Javlor], vindésine [Eldisine]) qui enrichissent l’arsenal thérapeutique.

Ces molécules cytotoxiques ciblent une structure dynamique essentielle à la division des cellules tumorales appelée fuseau mitotique et stoppent la prolifération de ces cellules.

Les vinca-alcaloïdes et leurs dérivés sont aujourd’hui utilisés en chimiothérapie pour traiter différentes formes de tumeurs solides, de lymphomes et de leucémies, notamment la leucémie lymphoblastique aiguë, ce qui permet de sauver la vie de nombreux enfants. Dans certains cas, ce sont les seuls traitements existants.

Les molécules, produites par l’industrie pharmaceutique par une méthode mise au point par l’équipe du Pr Potier, impliquent la condensation chimique de deux précurseurs, la vindoline et la catharantine, pour obtenir les vinca-alcaloïdes biologiquement actifs.

Un rendement dérisoire, un coût exorbitant et des pénuries

Malheureusement, la plante produit ces molécules en très faible quantité, l’obtention de 1 g de vincristine nécessitant une tonne de feuilles. La pervenche de Madagascar est donc cultivée à grande échelle, notamment en Inde et utilisée comme matière première.

Ce mode de production, basé sur l’exploitation unique d’une ressource végétale disponible principalement « à l’étranger », explique le coût élevé des traitements (plusieurs dizaines de millions de dollars pour 1 kg de vincristine) et des ruptures d’approvisionnement des vinca-alcaloïdes, comme en 2019 et en 2021, ce qui a conduit à des difficultés pour traiter les patients aux États-Unis et en France, notamment.

Ces tensions ont poussé le gouvernement français à classer la vincristine parmi la liste des médicaments essentiels, dont la production doit être sécurisée et relocalisée sur le territoire national.

Percer les secrets de production de la pervenche de Madagascar

Des approches alternatives doivent être développées. Depuis la fin des années 1970, des équipes de recherche du monde entier, dont notre unité de recherche « Biomolécules et biotechnologies végétales (BBV) » de l’Université de Tours, s’efforcent de décrypter les voies de synthèse des vinca-alcaloïdes et de déterminer quelles sont les enzymes végétales, ces catalyseurs biologiques, qui conduisent à leur production.

50 ans plus tard, toutes les enzymes sont enfin identifiées ainsi que les gènes codant ces enzymes, les deux dernières étapes (parmi plus de 30 nécessaires !) ayant été élucidées en 2018. Nous connaissons désormais le mécanisme de production dans la plante. Mais comment le reproduire ?

La solution : des cellules-usines de levure

Et si la solution venait de la levure de boulanger ? Ce champignon (Saccharomyces cerevisiae), utilisé pour fabriquer notre pain, est sans danger pour l’humain, facile à manipuler et à cultiver.

Les années 2000 ont en effet vu l’émergence de nouvelles technologies permettant la production de molécules naturelles dans des organismes hétérologues microbiens tels que la levure Saccharomyces cerevisiae, avec un premier succès : la production d’artémisinine, médicament originellement extrait de l’armoise annuelle (Artemisia annua) et utilisé pour combattre le paludisme.

Cette stratégie appelée bioproduction permet ainsi de transformer les levures en « cellules-usines » capables de produire des molécules complexes indépendamment de la plante.

En 2018, un consortium international, dont notre équipe fait partie, combinant connaissances de la pervenche de Madagascar et expertises en bioproduction obtient un financement européen (Horizon 2020), (projet MIAMi) pour développer une levure productrice de vinca-alcaloïdes.

Pari réussi : publiés dans la prestigieuse revue Nature en 2022, nos travaux révèlent le succès du transfert de plus de 34 gènes codant les enzymes végétales impliquées dans la synthèse des vinca-alcaloïdes.

Nous disposons désormais de « cellules-usines » de levures produisant les deux précurseurs, vindoline et catharanthine, nécessaires pour la synthèse de la vinblastine. Les recherches actuelles visent désormais à améliorer les rendements et à passer progressivement à l’échelle industrielle.

Source : Université de Tours.

La pervenche de Madagascar, un modèle pour l’avenir

L’histoire ne s’arrête pas là. La pervenche de Madagascar a livré quelques-uns de ses secrets et est désormais une plante phare, modèle sur lequel on peut s’appuyer. Ces avancées ouvrent la porte à la bioproduction d’autres produits naturels rares issus des plantes mais aussi des organismes marins et possédant des activités thérapeutiques.




À lire aussi :
Sardines, maquereaux et autres poissons gras : contre le cancer, l’intérêt des oméga-3 et lipides du milieu marin


C’est le cas de l’étoposide, un autre anticancéreux majeur produit par la pomme de mai (Podophyllum peltatum), sur lequel notre équipe travaille particulièrement afin de relocaliser sa production en région Centre-Val de Loire.

De nouveaux médicaments à inventer

Au-delà de la reproduction de l’existant, cette stratégie ouvre la voie à l’invention de nouvelles molécules par ingénierie des levures qui pourraient ainsi modifier la structure initiale. Cela permettrait de moduler leur activité pharmacologique et d’étendre ainsi les possibilités d’utilisation thérapeutique.

La première pierre est posée avec la production d’alstonine. Cette molécule bioactive, identifiée notamment dans la pervenche de Madagascar et utilisée en médecine traditionnelle au Nigéria pour traiter certaines affections liées à la santé mentale, suscite un grand intérêt scientifique pour son profil psychotique original.

En 2024, notre collaboration avec l’Université technique du Danemark a permis de produire l’alstonine dans la levure, mais aussi une alstonine modifiée, ce qui laisse envisager son utilisation dans de nombreux traitements. Des résultats prometteurs…

The Conversation

Le projet MIAMi a été financé par le programme de recherche et d’innovation Horizon 2020 de l’Union européenne dans le cadre de la convention de subvention n°814645.
Le projet ETOPOCentre visant à sécuriser l’approvisionnement en étoposide a été financé dans le cadre du programme Ambition Recherche Développement (ARD) CVL Biomédicaments (Région Centre Val de Loire).
Les études sur l’alstonine ont été financées dans le cadre du projet MIACYC (ANR-20-CE43-0010).

ref. De la médecine traditionnelle au traitement du cancer : le fabuleux destin de la pervenche de Madagascar – https://theconversation.com/de-la-medecine-traditionnelle-au-traitement-du-cancer-le-fabuleux-destin-de-la-pervenche-de-madagascar-264418

Recherche en science biomédicale : le modèle actuel privilégie la quantité plutôt que l’utilité réelle

Source: The Conversation – in French – By Pierre D. Sarr, Postdoctoral Research Fellow in Cancer Biology, McMaster University

Nous vivons à l’ère d’une recherche biomédicale frénétique. Chaque semaine, des revues prestigieuses annoncent la découverte de nouveaux biomarqueurs pour comprendre la genèse et l’évolution de certaines maladies.

Les publications se multiplient, illustrées par des schémas sophistiqués de réseaux moléculaires complexes et des pistes d’applications prometteuses. Et aux canaux de vulgarisation scientifique de nous annoncer à grands titres, presque à la chaîne, des « avancées majeures » qui, mises bout à bout, devraient avancer notre lutte contre telle ou telle pathologie. Des décennies pourtant peuvent s’écouler avant que ces avancées n’atteignent les patients qui en ont désespérément besoin.

Pourquoi donc ce décalage ? Tant d’efforts de recherche, financés à coups de ressources publiques, ont souvent cette destinée commune d’être confinés dans des tiroirs ou des bases de données numériques, parfois voués à l’oubli, ou sans être immédiatement traduits en pratique clinique.

Un modèle qui privilégie la quantité plutôt que l’utilité réelle

Le principal goulet d’étranglement est structurel. La recherche académique valorise davantage le nombre de publications plutôt que l’utilité concrète des travaux. Le prestige de la revue prime parfois sur l’impact réel des résultats et cette logique exerce une pression sur les chercheurs qui n’ont d’autre choix que de produire, publier pour exister.

Cette productivité académique (qui n’en est pas forcément une) est devenue une fin en soi au détriment de l’impact sur les patients, les politiques sanitaires ou les inégalités d’accès. Ainsi, même les recherches les plus innovantes sont rarement pensées pour être appliquées en clinique. Des résultats prometteurs restent bloqués à l’état préliminaire, faute du suivi nécessaire pour franchir les étapes de validation fonctionnelle, d’essais cliniques ou de développement thérapeutique.

Il faut cependant l’admettre : toute recherche n’a pas vocation à être immédiatement appliquée en pratique. La recherche académique, fondamentale par essence, vise avant tout à créer de la connaissance et peut légitimement s’en tenir à ce rôle, dans un cadre théorique et exploratoire. Ce qui interroge en revanche, c’est que même dans la recherche translationnelle ou appliquée, les incitatifs académiques continuent de privilégier la reconnaissance entre pairs ou l’ascension professionnelle plutôt que l’impact réel sur les patients et les pratiques thérapeutiques.

Un biomarqueur à potentiel diagnostic ou thérapeutique peut ainsi faire l’objet d’un article dans la revue Nature et accroître la notoriété de son découvreur, sans jamais bénéficier des fonds ni partenariats nécessaires pour valider son utilité clinique. Il s’agit là du fameux valley of death : cette zone grise dans laquelle s’échouent tant de découvertes faute de modèle de développement translatif adapté.

Cette productivité quantitative, résumée par le mantra publish or perish, pousse à publier rapidement, souvent à outrance, dans une logique déconnectée de rentabilité académique.

Intérêts et logique de rentabilité

Aux côtés de la recherche académique coexiste une recherche industrielle (biotechnologique et/ou pharmaceutique) qui obéit à un autre objectif de rentabilité : celle du retour sur investissement. L’enjeu n’est pas tant de produire des connaissances que de breveter, sécuriser, et mettre sur le marché.

Cette dynamique peut certes stimuler l’innovation, mais en limite aussi l’accessibilité en excluant de fait les publics vulnérables. Les priorités vont souvent aux pathologies à fort potentiel économique, dont l’épidémiologie est largement répandue dans les pays du Nord.

Ce biais contribue à la persistance de maladies dites orphelines ou négligées, parfois qualifiées de manière réductrice d’exotiques ou de tropicales, non pas parce qu’elles sont rares dans l’absolu, mais parce qu’elles n’intéressent que marginalement les circuits classiques de financement faute de représenter un marché solvable. Ce déséquilibre géographique et économique creuse ainsi un fossé abyssal entre les priorités de la recherche mondiale et les besoins réels des populations concernées.

La pandémie de Covid-19 a démontré qu’il est possible de produire un vaccin en moins d’un an quand il y a un marché planétaire en jeu. En revanche, le paludisme continue de tuer des centaines de milliers de personnes chaque année en Afrique Subsaharienne, un marché visiblement trop peu rentable pour mobiliser une recherche et développement à grande échelle.

La nécessité d’un changement de système

Pour une recherche plus utile et plus équitable, il faudra revoir nos critères d’évaluation et de reconnaissance scientifiques. Ces critères façonnent des carrières, attribuent une notoriété à certains, et en privent d’autres qui le mériteraient tout autant, sinon davantage.

Notre culture de productivité quantitative, qui valorise le prolifisme académique ou l’intérêt mercantile plutôt que la portée réelle, n’est ni neutre ni anodine. Elle alimente une course en avant qui vide la recherche contemporaine de son sens.

La Déclaration de San Francisco sur l’évaluation de la recherche (DORA), dès 2012, a remis en question cette approche en appelant à ne plus confondre qualité scientifique et facteur d’impact — indicateurs souvent surévalués et potentiellement nuisibles à l’intégrité scientifique.

L’évaluation des chercheurs devrait intégrer des critères au-delà du nombre des publications : originalité méthodologique, contribution à la science ouverte et capacité à faire progresser l’équité globale.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Plusieurs institutions ont dans leurs politiques internes adhéré à DORA, mais peu en ont réellement adopté les recommandations. Les financements continuent de bénéficier aux équipes qui publient vite, beaucoup, dans les revues les plus cotées. Le système, en l’état, favorise ceux qui maîtrisent le langage académique traditionnel et qui savent en reproduire les codes, encourageant la compétition plutôt que la collaboration, la précipitation plutôt que la lenteur réflexive.

À l’inverse, ceux qui prennent le temps de co-construire des projets, de rendre leurs résultats utiles et accessibles, ou qui travaillent à l’implémentation clinique d’une découverte — souvent dans des contextes à faibles ressources — sont rarement récompensés. Pire, ils sont parfois perçus comme moins productifs, alors même que leur impact est souvent bien plus transformateur.

Et si on repensait la finalité de la recherche ?

Il est primordial de changer de paradigme afin de réconcilier la recherche avec sa mission première : le progrès commun. Une recherche qui n’est ni appliquée, ni partagée, ni équitablement construite n’a qu’un effet marginal. À l’inverse, une recherche collaborative, pensée avec et pour les communautés, peut véritablement changer des vies.

La recherche biomédicale ne doit plus être un luxe désincarné, produit par quelques-uns pour quelques autres. Elle doit être moins élitiste et s’ouvrir aux personnes historiquement exclues : patients issus de milieux précaires ou souffrant de pathologies rares, chercheurs sans affiliation institutionnelle forte ou formés dans des pays à ressources limitées, tous ceux qui peinent à faire entendre leurs voix ou à publier leurs idées dans les circuits dominants.

Les patients ne peuvent plus attendre que les découvertes scientifiques franchissent lentement les murs des laboratoires, puis ceux des brevets, avant d’atteindre les hôpitaux, souvent trop tard. Il ne suffit plus de produire des connaissances : il faut en garantir l’accessibilité, l’applicabilité, l’équité.

Un autre modèle est possible : celui où excellence scientifique rime avec responsabilité sociétale, où l’impact se mesure non plus en nombre de citations, mais de vies améliorées.

L’excellence scientifique n’a de sens que si elle améliore concrètement la vie de ses destinataires — non plus considérés comme objets d’étude ou tremplins d’évolution professionnelle — mais comme partenaires de recherche à part entière.

La Conversation Canada

Pierre D. Sarr ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Recherche en science biomédicale : le modèle actuel privilégie la quantité plutôt que l’utilité réelle – https://theconversation.com/recherche-en-science-biomedicale-le-modele-actuel-privilegie-la-quantite-plutot-que-lutilite-reelle-262309

« Le suicide politique de François Bayrou est le produit d’un régime politique à bout de souffle »

Source: The Conversation – in French – By Frédéric Sawicki, professeur de science politique, Université Paris 1 Panthéon-Sorbonne

Le premier ministre François Bayrou n’a pas obtenu la confiance des députés (194 voix pour, 364 voix contre) et va remettre sa démission au président de la République Emmanuel Macron. Ce dernier devra choisir un nouveau chef de gouvernement ou avoir recours à une nouvelle dissolution de l’Assemblée nationale. Comment interpréter la chute du gouvernement Bayrou ? Quels scénarios pour une sortie de crise ? Entretien avec le politiste Frédéric Sawicki.


The Conversation : François Bayrou vient de démissionner. Quel bilan tirez-vous de son action et de sa méthode ?

Frédéric Sawicki : Comment comprendre un tel fiasco ? Comment comprendre ce suicide politique qu’est ce vote de confiance choisi par le premier ministre alors qu’il ne dispose pas de majorité ?

En refusant de s’engager depuis sa nomination dans une négociation ayant pu déboucher sur une espèce de contrat de gouvernement, notamment avec le Parti socialiste, François Bayrou s’est privé de toute possibilité de survie politique. C’est là un paradoxe pour ce démocrate-chrétien qui, tout au long de sa carrière politique, n’a cessé d’appeler au dépassement du clivage droite-gauche (rappelons qu’il avait à ce titre refusé de rejoindre l’UMP en 2002 et appelé à voter François Hollande en 2012) et à la recherche de compromis.

Sa gouvernance a en outre été marquée par une succession d’échecs et de maladresses qui n’ont pu que creuser la distance avec la gauche, à commencer par la désastreuse gestion des révélations concernant Bétharram, épisode au cours duquel François Bayrou a peiné à clarifier son rôle mais surtout guère montré de compassion pour les victimes, apparaissant comme un homme d’un autre temps. Auparavant, en janvier, il y a eu l’impasse totale faite sur les enjeux climatiques et environnementaux dans sa déclaration de politique générale suivie par l’utilisation de l’expression « submersion migratoire », deux lourds signaux envoyés à la droite et à l’extrême droite. Si celles-ci pouvaient applaudir des deux mains à l’unisson de la FNSEA l’adoption de la loi Duplomb, le PS et la CFDT ne pouvaient que constater de l’autre côté s’être fait rouler dans la farine après l’échec du « conclave » sur les retraites en juin dernier.

Enfin, après avoir ainsi humilié la gauche, le premier ministre a porté le coup de grâce en annonçant un plan d’économies de 44 milliards supporté pour l’essentiel par les salariés et les retraités, avec cette mesure ubuesque concernant la suppression deux jours fériés qui lui a définitivement aliéné le Rassemblement national.

Au-delà de la personne de François Bayrou, quelles sont les causes structurelles de cet échec ?

F. S. : Il faut relativiser la responsabilité individuelle de François Bayrou, malgré ses bévues.

La première raison de cet échec réside dans le choix du président de la République de ne pas tenir compte du nouveau rapport de forces au sein de l’Assemblée nationale élue en juillet 2024. Celui-ci, rappelons le, aurait dû conduire à la nomination d’un premier ministre du Nouveau front populaire (NFP) quitte à ce que ce gouvernement échoue et que le président nomme alors un autre premier ministre. Au lieu de cela, Emmanuel Macron a choisi de s’appuyer sur le groupe LR et ses 48 députés, jusqu’ici dans l’opposition, en nommant Michel Barnier. En décembre il n’a même plus fait semblant de prendre acte de sa défaite en nommant François Bayrou qui, avec le groupe MoDem (36 députés), fait partie de sa majorité depuis 2017.

Pour réussir, Bayrou ou Barnier étaient condamnés à élargir leurs soutiens au-delà de leurs partis et du bloc central. Si la France était dans une démocratie parlementaire « classique », on en serait sûrement passé par une grande négociation entre les partis prêts à participer au gouvernement. Cette négociation aurait sans doute pris plusieurs semaines mais elle aurait permis une certaine stabilité autour de quelques mesures de compromis. En nommant un premier ministre à sa guise, en interférant dans la composition du gouvernement et en leur laissant le soin de bricoler une stratégie de balancier (un coup à gauche, deux ou trois coups à droite et à l’extrême droite) Emmanuel Macron a condamné celui-ci à l’échec.

On a beaucoup critiqué l’absence de culture du compromis des partis politiques. Est-ce également une raison de cet échec ?

F. S. : En effet, mais c’est moins la culture que nos institutions qui ne poussent pas les acteurs à se montrer responsables. L’élection présidentielle est toujours pensée comme le moment décisif permettant d’engager une nouvelle orientation pour cinq ans. Du coup, accepter de passer des compromis, revenait à risquer de se « griller » pour l’élection présidentielle suivante. C’est ce qui explique par exemple l’attitude de LR en 2022 qui refuse de rejoindre la majorité alors même que le programme d’Emmanuel Macron est largement convergent avec le sien.

L’hyper-présidentialisation empêche le compromis. La liberté laissée au président de nommer le premier ministre sans tenir pleinement compte du résultat du vote et son intrusion dans la politique du gouvernement même désavoué par les urnes illustrent la perversion de nos institutions. Elles garantissent l’irresponsabilité totale d’Emmanuel Macron. Même si des voix commencent à se faire entendre pour appeler à sa démission ou sa destitution, rien ne l’y oblige. Le revers de la médaille de cette irresponsabilité est qu’elle crée des partis tout aussi irresponsables : ces derniers renvoient la balle au président – à lui de se débrouiller pour trouver des réponses et rendez-vous à la prochaine élection présidentielle !

Enfin, le mode d’élection des députés au scrutin majoritaire à deux tours n’incite pas non plus les partis à trouver des compromis. D’un côté la gauche modérée doit s’associer à la gauche radicale pour avoir des députés, de l’autre la droite est concurrencée de plus en plus par l’extrême droite dans de nombreuses circonscriptions.

Quelles solutions permettraient de sortir de cette impasse ?

F. S. : Je plaide pour un scrutin proportionnel qui permettrait de rendre les partis politiques et les parlementaires plus responsables. Notre régime excessivement présidentialisé et le scrutin majoritaire à deux tours non seulement ne permettent pas une bonne représentation de la diversité des idées politiques et des intérêts sociaux mais ils ne permettent plus aujourd’hui de déboucher sur des majorités claires. Il existe des divisions sociologiques, politiques et idéologiques qui fracturent le pays bien au-delà de l’ancien clivage droite-gauche. La bipolarisation n’est pas près de se reproduire, c’est d’ailleurs un constat qui vaut pour de très nombreux pays aujourd’hui.

Aujourd’hui, ces divisions ne sont pas correctement reflétées au sein de l’Assemblée car les Français sont souvent contraints de voter pour éliminer tel ou tel parti. Le scrutin proportionnel incite au contraire à voter pour le programme dont on est le plus proche. Elle empêche qu’un seul parti ne gouverne et amène plus facilement les responsables politiques à négocier des orientations programmatiques.




À lire aussi :
Notre démocratie est-elle minée par l’élection du président de la République au suffrage universel ?


Mais une réforme du scrutin législatif sera-t-elle suffisante ? L’un des enjeux n’est-il pas également de réduire le pouvoir du président de la République ?

F. S. : Effectivement, il existe sans doute d’autres chantiers à entreprendre. Certains considèrent qu’il faut revenir à un mandat unique de sept ans pour le président, d’autres qu’il faudrait lui retirer le pouvoir de nomination du premier ministre en rendant obligatoire le vote de confiance de l’Assemblée nationale, comme c’était le cas pour la troisième et la IVe République. D’autres souhaitent développer les référendums d’initiative partagée ou les référendums d’initiative citoyenne. Tout cela devra être discuté lors de la prochaine élection présidentielle, mais dans l’immédiat, pour remettre la Ve République sur des rails plus démocratiques et sortir de l’impasse actuelle, la proportionnelle me semble être la première réforme à envisager. Le politiste Bastien François propose un référendum sur la proportionnelle puis une dissolution qui permettrait d’élire une nouvelle assemblée. On peut aussi envisager cette réforme comme un élément de négociation pour construire un futur gouvernement entre le centre et la gauche.

Quelles solutions s’offrent à Emmanuel Macron aujourd’hui ?

F. S. : Emmanuel Macron peut désormais dissoudre l’assemblée mais ce choix serait risqué : il ferait perdre des voix à son camp. Par ailleurs, dans un contexte social inflammable – avec le mouvement Bloquons tout – une dissolution peut amplifier le vote de rejet du président.

Seconde hypothèse : Emmanuel Macron poursuit dans la même logique en espérant qu’un premier ministre de son camp fasse passer le budget au 49.3. quitte à dissoudre ensuite. Mais le Rassemblement national ne semble plus prêt à jouer le jeu de la neutralité et les socialistes ne devraient pas être plus cléments. Ce choix reviendrait donc à reculer pour mieux sauter et l’on arriverait très probablement à une nouvelle censure dans quelques semaines et à priver la France de budget.

Troisième hypothèse : Emmanuel Macron donne sa chance à Olivier Faure ou à un premier ministre de gauche. Il peut ainsi penser réussir à lever l’hypothèque socialiste comme on disait sous la Troisième. Il me semble qu’il s’agirait de la seule décision rationnelle pour éviter une dissolution. Les socialistes pourraient faire passer quelques réformes de gauche comme la taxe Zucman, des mesures prenant en compte la pénibilité en matière de retraite, voire des mesures en faveur de l’hôpital et l’éducation, qui sont largement soutenues par les Français. Ce serait sans doute difficile à avaler pour Macron mais ce dernier peut toujours espérer que le Conseil constitutionnel censure la taxe Zucman ou que LFI torpille le PS. Il peut aussi essayer de diviser les socialistes en proposant un ancien du PS comme Bernard Cazeneuve, mais les socialistes semblent aujourd’hui plus unis qu’en décembre dernier et risquent de refuser cette manœuvre.

Si dissolution il y a, le Rassemblement national est-il de plus en plus proche du pouvoir ?

F. S. : On peut penser que les principales victimes d’une dissolution seront les députés du camp présidentiel. La gauche, pour l’instant, semble se maintenir dans les sondages. Le RN également, autour d’un tiers des votes. La question, c’est que vont faire les partis ? Est-ce que LR va définitivement basculer vers une alliance avec le RN ? La gauche partira-t-elle unie (comme en 2022 et en 2024) à ces élections ou divisée ? Est-ce qu’une partie des électeurs, déçus du macronisme, vont se tourner vers les socialistes, finalement jugés plus responsables et raisonnables ? Il est difficile de prédire les rapports de forces actuels, tels que les mesurent les sondages, dans un contexte d’élection majoritaire à deux tours et avec autant d’incertitudes.


Propos recueillis par David Bornstein.

The Conversation

Frédéric Sawicki ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. « Le suicide politique de François Bayrou est le produit d’un régime politique à bout de souffle » – https://theconversation.com/le-suicide-politique-de-francois-bayrou-est-le-produit-dun-regime-politique-a-bout-de-souffle-264797

L’essor inattendu du judaïsme en Afrique subsaharienne

Source: The Conversation – in French – By Ayode Habib Daniel Dossou Nonvide, Docteur en histoire internationale, Graduate Institute – Institut de hautes études internationales et du développement (IHEID)

Depuis environ trente ans, le judaïsme connaît une croissance remarquable parmi les populations d’Afrique subsaharienne. Ce qui importe le plus aux personnes impliquées dans ce mouvement est la revendication ou la recherche d’une identité juive, définie selon divers critères : culturels, religieux, ethniques ou encore spirituels. Plusieurs facteurs permettent d’éclairer cette émergence.


Les statistiques montrent que l’Afrique, dont plus de 95 % de la population se déclare religieuse, est majoritairement composée de chrétiens (56 %) et de musulmans (34 %), les deux principales religions abrahamiques. La troisième, le judaïsme, y demeure statistiquement marginale.

Tandis que l’islam s’est diffusé sur le continent principalement par le biais du commerce et de la conquête, le christianisme y doit son implantation durable à l’œuvre missionnaire et à la colonisation européenne. En revanche, ni l’histoire religieuse du continent ni sa géopolitique actuelle ne semblent propices à l’émergence du judaïsme ; dès lors, l’engouement croissant pour la judéité peut apparaître comme une surprise.

Quelques précisions contextuelles

Il convient d’abord de souligner que le phénomène de judaïsation en Afrique subsaharienne est en constante évolution, ce qui rend difficile toute estimation démographique précise. Les personnes concernées, souvent qualifiées de « Juifs émergents » – un terme utilisé par plusieurs chercheurs –, demeurent parfois discrètes en raison des pressions sociales et familiales qu’elles subissent, bien qu’elles n’hésitent pas, lorsqu’on les interroge, à affirmer avec fierté leur identité juive.

Il importe également de noter que l’expression « Juifs émergents » n’est pas toujours acceptée, notamment par certains groupes comme les Lembas d’Afrique australe, qui considèrent cette appellation comme un déni de leur judéité ancienne.

À l’inverse, les Juifs éthiopiens, dont l’identité juive a été officiellement reconnue depuis les années 1970, ne sont généralement pas inclus dans cette catégorie de « Juifs émergents ».

Par ailleurs, la reconnaissance même du terme « Juif » pose problème, car la communauté juive dominante – vivant majoritairement en Israël, en Europe et en Amérique du Nord – hésite souvent à reconnaître ces groupes comme membres légitimes du judaïsme. En Afrique subsaharienne, seuls les Juifs sud-africains, qui étaient environ 100 000 en 2012, sont pleinement intégrés dans cette communauté mondiale.

L’absence de définition universelle de l’identité juive contribue à cette incertitude. Chaque courant du judaïsme normatif ou rabbinique – orthodoxe, conservateur, ou réformé – ainsi que l’État d’Israël, applique ses propres critères pour déterminer qui est juif. C’est au niveau de la reconnaissance que se situe la principale ligne de fracture entre le judaïsme traditionnel et les groupes dits émergents.

Une reconnaissance partielle, mais en progression

Les Juifs émergents d’Afrique subsaharienne ont longtemps été ignorés par les autorités israéliennes et par la majorité des membres de la communauté juive dominante. Toutefois, certaines organisations basées aux États-Unis ou en Israël, telles que Kulanu, Be’chol Lashon, Shavei Israel, ainsi que des figures influentes comme le rabbin orthodoxe Shlomo Riskin, se sont montrées enthousiastes à l’idée de tisser des liens avec ces communautés. Ces initiatives, qui concernent également des groupes émergents en Asie, en Océanie et en Amérique latine, permettent à ces populations souvent isolées géographiquement d’accéder à des ressources éducatives, religieuses et sociales.

Elles leur offrent aussi des plates-formes pour faciliter leur conversion halakhique – c’est-à-dire conforme à la Halakha (loi juive) –, condition souvent indispensable pour être reconnu comme Juif par les institutions juives traditionnelles, qui ignorent encore largement leur existence ou les perçoivent comme une curiosité sociologique.

Diversité des courants judaïsants en Afrique subsaharienne

L’identité juive ne signifie pas la même chose pour tous les Juifs émergents. Leurs revendications se répartissent en plusieurs catégories :

Fondements biologiques et ethniques

Certains groupes affirment être les descendants de migrations anciennes hébraïques, israélites ou juives. Ils mobilisent des éléments linguistiques (ressemblances entre leur langue et l’hébreu), culturels (pratiques locales similaires à celles décrites dans la Bible), ainsi que des récits oraux relatant des parcours migratoires depuis le Moyen-Orient ou l’Éthiopie. C’est le cas des Danites de Côte d’Ivoire, des Igbos du Nigeria, de diverses communautés à Madagascar ou encore des Lembas, répartis entre l’Afrique du Sud, le Zimbabwe, le Malawi et le Mozambique.

Adhésion religieuse par conversion

D’autres s’affirment juifs pour des raisons purement religieuses, sans revendiquer de filiation biologique. Leur judéité est le fruit d’un engagement personnel, souvent formalisé par une conversion. On retrouve dans cette catégorie les Abayudayas d’Ouganda, les Juifs de Kasuku au Kenya, certaines communautés de Côte d’Ivoire, ou encore des membres de la communauté Beth Yeshourun au Cameroun.

Approches hybrides

Entre ces deux pôles se situent ceux qui combinent les deux approches, se réclamant à la fois d’une identité israélite ancestrale et d’une foi active dans le judaïsme. Ce cas de figure est fréquent dans la majorité des communautés juives émergentes.

Identité spirituelle ou existentielle

Une quatrième catégorie regroupe des individus qui se déclarent juifs par conviction personnelle, indépendamment de toute ascendance biologique ou démarche de conversion. Ils considèrent leur âme comme intrinsèquement juive, née dans un corps non juif. Pour eux, la judaïsation n’est pas une conversion mais une réconciliation avec leur être profond. Si certains souhaitent se convertir pour être reconnus, d’autres rejettent toute formalité religieuse, se satisfaisant de leur certitude intime. Aucun chiffre précis ne permet d’estimer l’ampleur de ce groupe, en raison du caractère récent et dynamique du phénomène, et de l’absence d’enregistrements officiels. Cependant, plusieurs membres des mouvements juifs émergents en Côte d’Ivoire et au Kenya (dont l’identité ne peut être révélée pour des raisons d’éthique) ont exprimé leur judéité en ces termes lors de recherches de terrain effectuées par l’auteur dans ces deux pays.

La question du judaïsme messianique

Parallèlement aux courants émergents mentionnés, il existe une autre catégorie en expansion : celle des Juifs messianiques, dont le nombre s’élève à plusieurs millions, ce qui en fait le courant le plus répandu sur le continent. Le judaïsme messianique se définit comme « un mouvement fondé sur la Bible, de personnes qui, en tant que Juifs engagés, croient que Yeshua (Jésus) est le Messie juif d’Israël annoncé par la loi et les prophètes ».

Ces croyants refusent que leur foi en Yeshua Hamashiach (forme hébraïque de Jésus-Christ qu’ils privilégient) soit perçue comme incompatible avec leur identité juive. Cependant, les trois principales branches du judaïsme rabbinique – orthodoxe, conservateur et réformé – les considèrent sans ambiguïté comme chrétiens, du fait de leur théologie christologique.

Bien que numériquement majoritaires, les Juifs messianiques africains sont souvent rejetés par les autres Juifs émergents, notamment ceux qui s’inscrivent dans une pratique rabbinique plus classique. Ces derniers voient dans le judaïsme messianique un facteur aggravant la méfiance dont ils font l’objet de la part des communautés juives dominantes.

Juif et noir : Une identité historique en renaissance

La judaïsation en Afrique subsaharienne est un phénomène en pleine croissance. Si elle est devenue plus visible depuis l’alyah des Juifs éthiopiens au début des années 1990, elle ne constitue pas une rupture totale avec l’histoire : elle représente plutôt une résurgence contemporaine d’une réalité ancienne, celle d’une Afrique où, pendant des siècles, la judéité et la négritude n’étaient pas incompatibles, comme l’illustre l’histoire des Juifs de Loango en Afrique centrale, de Tombouctou au Mali, et de la côte sénégambienne. Être noir et juif n’a rien d’inhabituel : ce fut longtemps une réalité vécue avant l’islamisation et la colonisation.

L’émergence actuelle de la judéité s’inscrit dans un contexte plus large de réaffirmation identitaire afrocentrée, de polarisation accrue autour du conflit israélo-palestinien – dans un continent où l’islam est la deuxième religion – et dans des environnements socio-économiques souvent peu propices à une vie d’observance juive normative. À cela s’ajoute la résistance de l’État d’Israël (et de la majorité de la communauté juive du courant dominant) à reconnaître ces communautés. Dans ce contexte, le judaïsme émergent en Afrique illustre le caractère élusif du concept d’identité et, dans le même temps, une preuve que la liberté de foi et de conscience est réelle sur le continent africain, en dépit des défis existants.

The Conversation

Ayode Habib Daniel Dossou Nonvide ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’essor inattendu du judaïsme en Afrique subsaharienne – https://theconversation.com/lessor-inattendu-du-juda-sme-en-afrique-subsaharienne-263464

« Cités éducatives » : alliances locales ou uniformisation nationale ?

Source: The Conversation – in French – By Laurie Genet, Docteure en Sciences de l’éducation et de la formation, CY Cergy Paris Université

Le principe des « cités éducatives », lancé en 2019, est de créer une « grande alliance éducative » au niveau des territoires pour mieux lutter contre les inégalités. Mais à mesure que le label se déploie, l’uniformisation des pratiques ne prend-elle pas le pas sur les enjeux d’adaptation à la réalité du terrain ?


Les « cités éducatives » sont présentées comme une réponse innovante aux inégalités éducatives. Leur ambition ? Créer des « territoires à haute valeur éducative » en mobilisant tous les acteurs locaux – écoles, associations, collectivités, institutions – autour de la réussite des jeunes de 0 à 25 ans, à l’école, mais également avant, après et autour de celle-ci.

Lancé en 2019, le label est déployé à l’échelle de 248 territoires et cible les quartiers prioritaires de la politique de la ville (QPV), majoritairement en éducation prioritaire (renforcée) (REP et REP+), particulièrement marqués par de fortes inégalités sociales, scolaires, économiques et des enjeux sécuritaires.

Une généralisation progressive du label est prévue d’ici 2027 pour les quartiers qui se porteraient volontaires. Mais derrière l’ambition d’une territorialisation, cette logique de déploiement peut-elle répondre à la diversité des réalités de terrain ?

Créer une « grande alliance éducative »

Le principe des cités éducatives est de créer une « grande alliance éducative » locale, pour transformer les territoires et réduire les inégalités. Le label a pour vocation de renforcer les coopérations entre acteurs éducatifs, culturels, sociaux, sportifs, autour de projets communs. Trois axes structurent l’action à l’échelle nationale :

  • renforcer le rôle de l’école ;

  • promouvoir la continuité éducative ;

  • ouvrir le champ des possibles pour les jeunes.

Le cadrage national du label est volontairement large, avec l’ambition de laisser aux professionnels socio-éducatifs locaux la possibilité d’innover en réponse aux problématiques qu’ils rencontrent au quotidien.

Plus spécifiquement, ce label repose sur une gouvernance tripartite – appelée « troïka » – réunissant l’État (via la préfecture), la municipalité et l’éducation nationale. À cela s’ajoute un chef de projet opérationnel (CPO), garant du déploiement local et de l’intermédiation.

Chaque année, les cités éducatives lancent des appels à projets auxquels répondent des professionnels socio-éducatifs aux statuts divers (associations, institutions, entreprises…). Les projets peuvent être diversifiés : soutien scolaire, projets sportifs ou culturels, accompagnement à la parentalité, mentorat, prévention du décrochage…

« Les cités éducatives, parlons-en », vidéo explicative de la Ville de Poitiers (2024).

Ainsi, la territorialisation du label cité éducative se joue d’abord à l’échelle des gouvernances locales, puis se renégocie, dans une forme plus « ancrée » par la suite, à l’échelle des professionnels socio-éducatifs locaux.

Autrement dit, chaque cité éducative devrait donc être unique, façonnée par les besoins et les singularités de son territoire. Mais, à mesure que le dispositif se déploie, une autre logique tend à s’imposer : des projets similaires d’une cité éducative à une autre, des publics cibles uniformisés, la duplication des dispositifs et actions…

Vers une duplication des projets entre cités éducatives ?

Les diagnostics territoriaux réalisés à l’échelle de chacun des territoires labellisés révèlent une grande diversité d’enjeux locaux. Pourtant, les projets retenus et mis en œuvre au sein des cités éducatives se ressemblent fortement d’un territoire à l’autre.

Qu’on regarde une cité éducative d’Île-de-France ou du centre-ouest de la France, on retrouve les mêmes grandes priorités en termes de thématiques – culture, citoyenneté, soutien à la parentalité. Idem pour les publics visés : sur le papier, une attention particulière est portée aux 0-3 ans et aux 16-25 ans. Toutefois, ce sont surtout les enfants de 6 à 16 ans et leurs parents qui concentrent l’essentiel des actions financées. À l’échelle nationale, ces catégories représentent plus de 80 % des publics ciblés, tandis que les 0-3 ans et les jeunes adultes restent largement en marge.

Résultat : une standardisation des thématiques et des publics malgré des contextes locaux très différents.

Deux formes de duplication sont à l’œuvre. D’abord, on observe une duplication par mimétisme : certains projets jugés « innovants » ou « efficaces » circulent d’une cité éducative à l’autre via les réseaux informels – échanges entre chefs de projet opérationnel, rencontres organisées par l’Agence nationale de la cohésion des territoires (ANCT), partages sur les réseaux sociaux…

Des « plans lecture », des ateliers vélo ou natation, des actions de sensibilisation aux écrans ou encore des expansions de dispositifs comme les lieux d’accueil parent-enfant (LEAP ou les « cordées de la réussite » sont ainsi repris d’un territoire à l’autre avec les mêmes modalités, les mêmes objectifs, parfois même le même intitulé.

Vidéo de présentation de la Ville d’Annemasse, en janvier 2025.

À côté de cette dynamique d’essaimage, on observe une deuxième forme de duplication, plus institutionnelle. Des associations gestionnaires de l’éducation populaire, des start-up de l’éducation ou des entreprises sociales proposent des projets « clés en main », déjà rodés à l’échelle nationale.

Par exemple, l’Association de la fondation étudiante pour la ville (Afev) déploie des actions de mentorat et le programme Demo’campus dans une pluralité de cités éducatives. En 2022, la Ligue de l’enseignement déploie des actions au sein de 26 cités éducatives. En 2024, un tiers des cités éducatives soutiennent financièrement le programme Coup de Pouce.

Une territorialisation de l’action éducative en trompe-l’œil ?

Cet essaimage interroge la perspective territorialisée de cette politique publique. Si la rhétorique de la territorialisation est omniprésente, les modalités concrètes de mise en œuvre racontent une autre histoire : celle d’une institutionnalisation des innovations et d’une uniformisation des projets, des priorités et des publics, au mépris ou en ignorance des singularités locales.

Ce paradoxe n’est pas sans conséquences. D’un côté, les professionnels socio-éducatifs locaux s’épuisent à tenter de répondre aux besoins locaux. De l’autre, les dispositifs et projets perdent en efficacité, faute d’être réellement ancrés dans les besoins et les réalités du terrain.

La volonté d’essaimer les « bonnes pratiques » affaiblit ce qui faisait la force supposée du dispositif : sa capacité à faire du sur-mesure. Les cités éducatives risquent ainsi de reproduire les limites des politiques éducatives territorialisées antérieures, où l’innovation locale cède progressivement le pas à une standardisation institutionnelle.

The Conversation

Laurie Genet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. « Cités éducatives » : alliances locales ou uniformisation nationale ? – https://theconversation.com/cites-educatives-alliances-locales-ou-uniformisation-nationale-258613

Pollution de l’air : les Français prêts à agir, mais réticents à payer…

Source: The Conversation – in French – By Caroline Orset, Professeur en sciences économiques, AgroParisTech – Université Paris-Saclay

En 2022, la concentration moyenne de pollution de l’air aux particules fines s’établissait, en France, à 10 µg/m<sup>3</sup>, soit le double du seuil préconisé par l’Organisation mondiale de la santé. Parilov/Shutterstock

Les Français sont-ils prêts à soutenir et à financer une politique ambitieuse de réduction de la pollution ? Pour le savoir, les économistes disposent d’un indicateur clé : la valeur de la vie statistique. Celle-ci ne vise évidemment pas à mettre un prix sur une vie humaine, mais à mesurer combien une population est prête à investir pour diminuer, même très légèrement, le risque de décès dû à la pollution de l’air.


La pollution de l’air figure aujourd’hui parmi les menaces sanitaires les plus préoccupantes. En France, elle est responsable de plus de 40 000 décès prématurés chaque année selon Santé publique France. Malgré des progrès, les politiques publiques peinent à atteindre les standards internationaux.

L’Organisation mondiale de la santé (OMS) recommande de ne pas dépasser une concentration annuelle de 5 µg/m3 de particules fines (PM2,5). En 2022, la moyenne française s’établissait à 10 µg/m3, soit le double du seuil préconisé.

Dès lors, comment évaluer le bénéfice réel d’une politique de réduction de la pollution ? Plus encore : que nous disent les citoyens eux-mêmes de leur disposition à contribuer financièrement à cet effort collectif ?

Valeur économique des vies sauvées

Pour éclairer ce type de décisions, les économistes ont recours à un indicateur clé : la valeur de la vie statistique (VVS). Il ne s’agit évidemment pas d’attribuer un prix à une vie humaine, mais d’estimer combien une société est disposée à payer pour réduire, même très légèrement, le risque de décès auquel ses membres sont exposés.

Cet outil permet de juger de la pertinence économique d’une politique publique. Concrètement, si le coût d’une mesure, par exemple restreindre la circulation des véhicules diesel en centre-ville, est inférieur à la valeur que la collectivité accorde à la réduction du risque de mortalité, alors cette mesure peut être considérée comme socialement justifiée et acceptable.

De 25 à 100 euros pour un bilan de santé annuel

Dans notre étude, nous avons estimé la valeur de la vie statistique en France dans le contexte spécifique de la pollution atmosphérique. Pour ce faire, nous avons mené en 2019 une enquête auprès d’un échantillon représentatif de 315 adultes répartis dans l’ensemble de la France hexagonal.

Les participants devaient se projeter dans deux scénarios hypothétiques, leur donnant accès à un bilan de santé annuel réduisant leur risque individuel de décès lié à la pollution de l’air. Dans le premier cas, la réduction était fixée à 30 décès pour 100 000 habitants ; dans le second, à 60 décès pour 100 000 habitants. Afin d’éclairer leur choix, ces niveaux de risque étaient présentés à l’aide d’exemples concrets et de repères statistiques.

À partir de là, les répondants devaient dire s’ils accepteraient de payer pour bénéficier d’un tel bilan, à hauteur de 25, 50 ou 100 euros, des montants alignés sur le coût d’une consultation médicale en France en 2019. Ils étaient ensuite invités à indiquer librement le montant maximal qu’ils seraient prêts à payer. Le questionnaire se poursuivait par une série de questions complémentaires destinées à approfondir la compréhension de leur perception du risque, de leur état de santé perçu, de leur aversion au risque, de leurs comportements préventifs ainsi que de leur préoccupation pour les générations futures.

Effet de passager clandestin

Les résultats de l’enquête sont clairs. En moyenne, les répondants se déclarent prêts à payer 47 euros pour une réduction du risque de 30 décès pour 100 000 habitants, et 54 euros pour une réduction de 60 décès pour 100 000. Sur cette base, la valeur de la vie statistique (VVS) peut être estimée entre 85 000 et 158 000 euros.

Ces montants demeurent très en deçà des références actuellement utilisées dans les évaluations socio-économiques françaises, où la valeur de la vie statistique est fixée à 3 millions d’euros. Ils sont encore plus éloignés des estimations retenues aux États-Unis, souvent supérieures à 10 millions de dollars, ou dans certains pays d’Europe du Nord.

Comment expliquer un tel écart ? Plusieurs facteurs entrent en jeu. D’abord, le système de santé français, fondé sur la solidarité, tend à diluer la responsabilité individuelle en matière de prévention sanitaire. Ensuite, une proportion importante des répondants exprime une attente forte vis-à-vis de l’action publique : pour eux, la réduction des risques environnementaux doit relever d’une mission collective, et non d’un effort financier individuel.

Ce comportement illustre ce que l’économiste Mancur Olson a qualifié « d’effet de passager clandestin » : chacun reconnaît l’importance du problème, tout en comptant sur les autres (l’État, les pollueurs ou la collectivité) pour en assumer le coût.

Profils plus enclins à s’engager

Notre étude met en évidence plusieurs profils plus enclins à exprimer une disposition à payer pour améliorer la qualité de l’air. Les jeunes adultes, les personnes aux revenus élevés, ainsi que les habitants d’Île-de-France, plus exposés aux pics de pollution, manifestent une volonté de contribution plus marquée. Ce constat vaut également pour celles et ceux qui adoptent déjà des comportements préventifs, comme la réalisation régulière de bilans de santé.

La prise de conscience des effets différés de la pollution constitue un facteur déterminant. Les individus sensibilisés à ses conséquences à long terme, que ce soit pour eux-mêmes ou pour leurs proches (famille et amis), se montrent nettement plus enclins à soutenir financièrement des politiques de réduction des risques.

À l’inverse, la disposition à payer tend à diminuer avec l’âge, mais également lorsque le niveau de connaissance sur les enjeux sanitaires liés à la pollution est faible, ou qu’une forme de résignation, parfois teintée de fatalisme, s’installe face au risque.

Implications claires des politiques publiques

Ces résultats méritent d’être pleinement pris en compte. Ils ne traduisent en rien un rejet des politiques environnementales. Bien au contraire, ils révèlent que les citoyens sont largement conscients des enjeux sanitaires liés à la pollution de l’air. Mais ils attendent des réponses collectives, équitables et portées par des institutions perçues comme légitimes et efficaces.

Ce constat plaide en faveur de mesures publiques ambitieuses, telles que la taxation des émissions les plus nocives, l’extension des zones à faibles émissions, ou encore l’accompagnement des ménages modestes dans la transition via des subventions ciblées. Une telle orientation permettrait d’allier efficacité environnementale et justice sociale.

Un effort renforcé en matière d’éducation et de sensibilisation s’impose. Mieux informer sur les effets, souvent invisibles mais durables, de la pollution sur la santé contribuerait non seulement à modifier les comportements individuels, mais aussi, par ricochet, à orienter les préférences collectives en faveur de politiques publiques plus exigeantes.

Repenser l’action publique

La question mise en lumière par notre étude renvoie à la capacité des institutions à concilier efficacité environnementale, justice sociale et acceptabilité démocratique.

Elle appelle à repenser les outils d’évaluation économique, en y intégrant non seulement les bénéfices quantifiables, mais aussi les préférences collectives, les perceptions du risque et les aspirations citoyennes. Dans cette perspective, le recours à des dispositifs participatifs, qu’il s’agisse de conventions citoyennes, de panels délibératifs ou de consultations territorialisées, peut contribuer à inscrire l’action publique dans les réalités sociales.

La pollution de l’air reste un fléau silencieux, aux effets durables sur la santé et sur la cohésion sociale. Notre étude plaide pour un renforcement et une réorientation de l’action publique, afin d’aligner plus étroitement dépenses et régulations environnementales avec les attentes sociales et les bénéfices sanitaires perçus.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Pollution de l’air : les Français prêts à agir, mais réticents à payer… – https://theconversation.com/pollution-de-lair-les-francais-prets-a-agir-mais-reticents-a-payer-261405

Télé, radio, presse, réseaux sociaux : quels médias captent vraiment l’attention des Français ?

Source: The Conversation – in French – By Marianne Lumeau, Maître de conférences en économie numérique, de la culture et des médias

Qui arrive encore à capter l’attention des Français&nbsp;? Jason Leung/Unsplash, CC BY

Qui capte vraiment l’attention des Français quand il s’agit d’information ? En combinant télévision, presse, radio, réseaux sociaux ou agrégateurs, une nouvelle mesure permet d’évaluer avec finesse la place réelle des médias dans notre quotidien. À la clé&, une carte inédite du paysage médiatique, marqué par une forte concentration autour de quelques grands groupes – et une place centrale, souvent oubliée, du service public.


Pour répondre à ces questions, nous avons déployé une nouvelle mesure de consommation des médias : la part d’attention, (initialement introduite par l’économiste Andrea Prat). Contrairement aux mesures traditionnelles d’audience, cet indicateur permet de tenir compte de la multiplicité des sources et des plateformes par lesquelles l’actualité est consommée (TV, radio, presse, médias sociaux, etc.), tout en considérant que certains vont partager leur attention entre plusieurs sources alors que d’autres n’en consultent qu’une seule. Par exemple, une chaîne de télévision qui est la seule source d’information d’une population concentre 100 % de l’attention de cette population. Elle a davantage de pouvoir attentionnel qu’une chaîne qui est consommée en même temps que d’autres sources (une station de radio, un titre de presse et un média social, par exemple). Dans ce cas, si chaque source est consommée à la même fréquence, la part d’attention de la chaîne de télévision sera de 25 %, tout comme celle de la station de radio, celle du titre de presse et celle du média social.

Télé, radio, réseaux sociaux : qui capte vraiment l’attention des Français ?

À partir des données d’une enquête, menée en 2022, obtenues auprès d’un échantillon représentatif de 6 000 Français, les résultats indiquent de faibles écarts entre les sources médiatiques, même si l’attention des Français se concentre principalement sur les chaînes de télévision et les médias sociaux.

TF1 arrive en tête en cumulant 5,9 % de l’attention des Français, suivi par Facebook (4,8 %), France 2 (4,5 %), M6 (4,4 %) et BFMTV (4,1 %). Le premier agrégateur de contenus, Google actualités, arrive en onzième position (2,3 %), la première station de radio (RTL) en vingt-deuxième (1,33 %) et le premier titre de presse (20 minutes) en vingt-troisième (1,31 %).

Un marché des médias dominé par quelques groupes

En revanche, le regroupement des sources par groupe médiatique (par exemple, Facebook, Instagram et WhatsApp appartiennent à Meta) révèle une importante concentration. Les quatre premiers groupes concentrent 47 % de l’attention des Français. Si l’on prend les huit premiers groupes, on arrive à 70 % de l’attention des Français captée.

En moyenne, le groupe public composé principalement de France Télévisions et Radio France est, de loin, celui qui concentre le plus l’attention des consommateurs de médias (19,8 %), suivi par le Groupe Meta (10,1 %) et le Groupe TF1 (9,9 %).

La place centrale de médias publics

Le service public d’information, contrairement à une idée reçue, n’est donc pas réservé à une élite, mais occupe une place centrale dans le menu de consommation médiatique des Français.

Ce résultat peut s’expliquer par la confiance accordée aux médias du service public dans la production d’information (voir l’enquête du Parlement européen) et légitime l’octroi d’un budget suffisant pour y répondre. Cela met également en lumière l’importance de son indépendance vis-à-vis de l’État.

La place croissante des médias sociaux

Notons que le Groupe Meta dispose du pouvoir attentionnel le plus fort auprès des 18-34 ans, avec une part d’attention de l’ordre de 14 %, devant les groupes de médias du service public (11 %) et Alphabet-Google News (8 %).

Même si Meta ne produit pas directement d’information, il met en avant et ordonne les différentes informations auprès de ses usagers. Sans être soumis aux mêmes règles que les médias traditionnels, les médias sociaux disposent donc d’un rôle clé sur la vie démocratique.

Pourquoi cette mesure doit peser dans les décisions sur les fusions médiatiques ?

L’analyse par groupe s’avère particulièrement importante dans un contexte où les groupes de médias contrôlent une part de plus en plus importante de titres de presse, de chaînes de télévision, de stations de radios ou de plateformes d’informations au travers d’opérations de fusions ou d’acquisitions (par exemple, l’OPA de Vivendi sur Lagardère).

De récents rapports sur le secteur des médias recommandent, d’ailleurs, le recours à la part d’attention comme un nouvel outil d’évaluation des opérations de concentration sur le marché des médias d’information par les autorités de la concurrence (Autorité de la concurrence, Commission européenne, Autorité de régulation de la communication audiovisuelle et numérique [ARCOM]). Cet outil est particulièrement adapté pour juger si la nouvelle entité formée à l’issue de la fusion de deux groupes ou de l’acquisition de nouvelles sources par un groupe n’aurait pas un trop grand pouvoir attentionel et si le marché des médias serait trop concentré autour de quelques acteurs dans un contexte où les médias sont au cœur du processus démocratique. La littérature académique reconnaît, en effet, qu’ils peuvent influencer les positions idéologiques des citoyens, les votes et la démocratie et peuvent être idéologiquement biaisés.


Pour approfondir : S. Dejean, M. Lumeau, S. Peltier, « Une analyse de la concentration de l’attention par les groupes médiatiques en France », Revue économique, 76(2), pp. 133 à 177.

The Conversation

Marianne Lumeau a reçu des financements de l’ANR (Projet de recherche Pluralisme de l’Information en Ligne – PIL).

Stéphanie Peltier et Sylvain Dejean ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. Télé, radio, presse, réseaux sociaux : quels médias captent vraiment l’attention des Français ? – https://theconversation.com/tele-radio-presse-reseaux-sociaux-quels-medias-captent-vraiment-lattention-des-francais-262261

Inutiles, polluants… faut-il interdire les filtres de cigarettes ?

Source: The Conversation – in French – By Jonathan Livingstone-Banks, Lecturer & Senior Researcher in Evidence-Based Healthcare, University of Oxford

Chaque année, dans le monde, 4&nbsp;500&nbsp;milliards de mégots sont jetés dans la rue et dans la nature. Kristine Rad/Shutterstock

On les croit protecteurs, mais ils ne minimisent en rien les dommages du tabac. Les filtres des cigarettes auraient même potentiellement des effets nocifs pour la santé, en plus, bien sûr, d’être une immense source de pollution.


Les filtres à cigarette ont commencé à inonder le marché dans les années 1950, officiellement pour rendre le tabagisme moins nocif. Face à l’inquiétude croissante du public concernant le cancer du poumon et d’autres maladies liées au tabagisme, l’industrie du tabac a réagi non pas en rendant les cigarettes plus sûres, mais en les faisant paraître plus sûres. Les filtres étaient l’innovation parfaite, non pas pour la santé, mais pour les relations publiques.

Plus de soixante-dix ans plus tard, nous savons en effet que les filtres ne réduisent pas les risques. En réalité, ils peuvent même aggraver certains risques. En adoucissant la fumée et en facilitant son inhalation profonde, les filtres peuvent, de fait, augmenter le risque de cancer du poumon. Au début des années 1950, un type de filtre très populaire contenait même de l’amiante. Malgré cela, la plupart des fumeurs d’aujourd’hui continuent de croire que les filtres rendent les cigarettes plus sûres.

Au-delà des risques pour la santé, les filtres de cigarettes sont aussi une catastrophe pour l’environnement. Ils sont faits d’un plastique appelé « acétate de cellulose ». Ils ne se dégradent pas naturellement, mais se désagrègent en microplastiques qui polluent nos rivières et nos océans.

Et ils sont nombreux. Les mégots de cigarette sont les déchets les plus répandus sur la planète. On estime que 4,5 billions (soit 4 500 milliards) sont jetés chaque année, et environ 800 000 tonnes de ces déchets plastiques se retrouvent dans l’environnement annuellement. Alors que, à travers le monde, de nombreuses législations ont restreint l’utilisation d’autres plastiques à usage unique, tels que les bouteilles, les sacs et les pailles, les filtres de cigarettes ont largement échappé à cette réglementation.

Sous pression, certaines entreprises de tabac commercialisent désormais des filtres dits « biodégradables », fabriqués à partir de nouveaux matériaux. Mais il s’agit là d’une fausse solution. Même ces filtres n’offrent aucun avantage pour la santé et continuent de polluer les écosystèmes. Ils servent les intérêts de l’industrie du tabac, en créant une illusion de responsabilité environnementale tout en entretenant la fausse perception que les filtres eux-mêmes sont inoffensifs ou nécessaires.

Interdire pour dissiper les illusions

Les filtres de cigarettes font ainsi partie des plastiques à usage unique les plus nocifs encore en circulation dans le monde. Et contrairement à de nombreux autres polluants, ils ne remplissent aucune fonction essentielle. Or la Convention-cadre de l’Organisation mondiale de la santé (OMS) pour la lutte antitabac déconseille déjà les mesures qui entretiennent l’idée d’une réduction des risques, et les filtres de cigarettes entrent clairement dans cette catégorie.

L’interdiction des filtres de cigarettes permettrait de dissiper l’illusion de sécurité qu’ils véhiculent. Elle pourrait également réduire la prévalence du tabagisme, car les cigarettes non filtrées sont généralement plus âpres et moins agréables au goût. Une telle mesure, enfin, éliminerait également l’une des sources les plus répandues de pollution plastique, évitant ainsi la production de centaines de milliers de tonnes de déchets plastiques chaque année.

Si nous pouvons interdire les pailles en plastique, comme les pays membres de l’Union européenne l’ont fait en 2021, nous pouvons certainement interdire les filtres de cigarettes. En fait, cela a déjà été fait. Le comté de Santa Cruz (Californie) a voté en faveur de l’interdiction des filtres à cigarette en 2024.

Des personnes ramassent des déchets sur une plage. L’une d’elles tient une poignée de pailles en plastique
Les pailles en plastique sont interdites, alors pourquoi pas les filtres des cigarettes ?
David Pereiras/Shutterstock

Il est grand temps de lui emboîter le pas, alors que la pollution plastique est dans l’esprit de tout le monde, après la tenue, en août dernier, à Genève (Suisse), d’un sommet où les dirigeants mondiaux ont tâché de négocier ce qui pourrait devenir le premier traité juridiquement contraignant des Nations unies traitant de la pollution plastique, de la production à l’élimination. Le projet de traité constitue une occasion rare de s’attaquer aux causes profondes des déchets plastiques à l’échelle mondiale.

Le projet actuel du traité mentionne les filtres de cigarettes. Ils sont évoqués dans l’annexe X, une catégorie qui concerne les restrictions volontaires ou obligatoires, ce qui laisse la possibilité de continuer à les utiliser, y compris les filtres dits « écologiques », et n’impose pas leur élimination totale. Si tous les filtres de cigarettes (et pas seulement ceux en plastique) étaient répertoriés dans l’annexe Y, ils seraient soumis à une interdiction totale et obligatoire.

Les négociations du mois d’août n’ont pas permis d’aboutir à un accord final, et elles se poursuivront à une date ultérieure, ce qui signifie qu’il est encore temps d’agir.

Des groupes de défense de la santé et de l’environnement, notamment l’Organisation mondiale de la santé, Action on Smoking and Health et Stop Tobacco Pollution Alliance, réclament des engagements fermes en matière de filtres de cigarettes. Qu’est-ce qui pourrait être plus ferme qu’une interdiction pure et simple ?

Certes, la prohibition des filtres ne mettra pas fin au tabagisme du jour au lendemain et n’éliminera pas la pollution plastique. Mais ce serait une mesure significative et symbolique pour aligner les objectifs environnementaux et sanitaires. Elle permettrait de retirer du marché un produit nocif et trompeur, de réduire la pollution et de rendre les cigarettes plus honnêtes.

The Conversation

Jonathan Livingstone-Banks a reçu des financements du US National Institutes of Health (NIH), du National Institute for Health and Care Research (NIHR) et du Cancer Research UK (CRUK).

Jamie Hartmann-Boyce a reçu des financements de groupes impliqués dans la lutte contre le tabagisme, notamment Truth Initiative, Cancer Research UK et la Food and Drug Administration américaine.

ref. Inutiles, polluants… faut-il interdire les filtres de cigarettes ? – https://theconversation.com/inutiles-polluants-faut-il-interdire-les-filtres-de-cigarettes-264618

La responsabilité sociale des entreprises, un outil pour court-circuiter les syndicats ?

Source: The Conversation – in French – By Nicolas Poussing, Researcher, Université de Rennes 1 – Université de Rennes

La responsabilité sociale des entreprises est souvent perçue comme un levier pour améliorer les relations de travail, en renforçant le lien direct entre employeurs et salariés. Mais ce dialogue direct ne conduit-il pas à contourner les représentants du personnel et/ou les syndicats, allant jusqu’à affaiblir la place de ces derniers ?


Depuis 2001, la Commission européenne définit la responsabilité sociale des entreprises (RSE) comme un engagement volontaire allant au-delà des obligations légales, destiné à répondre aux attentes des parties prenantes : actionnaires, clients, fournisseurs, ONG, territoires… Mais parmi tous ces acteurs, un consensus émerge pour estimer que les salariés restent la partie prenante la plus centrale, car ils conditionnent directement la crédibilité et l’efficacité des stratégies RSE.

Pour répondre à leurs attentes, les entreprises investissent dans des actions très concrètes : rémunération, santé et sécurité, conditions de travail, qualité des relations professionnelles, négociation collective, respect de la dignité au travail, lutte contre les discriminations, communication interne ou encore droits des salariés. Loin d’une logique descendante et unidirectionnelle de la RSE, ces pratiques encouragent une participation plus active et directe des employés, en les tenant informés, en les consultant et en les impliquant dans la vie de l’entreprise… et capables dès lors de co-construire la RSE.




À lire aussi :
Pourquoi la RSE devient incontournable pour fixer la rémunération des dirigeants


Deux voies pour dialoguer avec les salariés

Dans l’entreprise, le dialogue avec les salariés prend aujourd’hui deux formes. La première, la plus ancienne, passe par leurs représentants élus, un héritage de la révolution industrielle et de l’essor du syndicalisme. La seconde, plus récente, qui se renforce dans le cadre de la RSE, privilégie une relation directe, à base d’enquêtes internes, de boîtes à idées, de groupes de discussion ou encore de réunions avec la direction.

Avec le numérique, ce dialogue s’est élargi grâce aux intranets, messageries et plates-formes collaboratives. Ces dispositifs participatifs traduisent une volonté d’associer davantage les salariés aux décisions qui concernent leur quotidien de travail.

Multiples frictions

Face à la montée des stratégies de responsabilité sociale des entreprises (RSE), les syndicats adoptent une attitude prudente, parfois méfiante. Rappelons le contexte : les interactions directes entre employeurs et salariés progressent alors même que les syndicats voient leur influence reculer. Les représentants des salariés sont de plus en plus affaiblis et, selon l’Organisation de coopération et de développement économiques (OCDE), le taux de syndicalisation diminue dans bon nombre de pays.

Toutefois, leur légitimité demeure forte sur les enjeux sociaux et salariaux, mais beaucoup moins sur les questions environnementales, pourtant centrales dans la RSE. Cette dernière couvre un éventail très large de sujets, qui, traditionnellement, ne sont pas traités par les syndicats. En outre, les syndicats défendent avant tout les salariés au niveau local ou national, quand la RSE invite à élargir la focale aux chaînes mondialisées de fournisseurs ou de sous-traitants.

Les représentants du personnel court-circuités

Un dernier point de friction réside dans le fait que les organisations syndicales redoutent que les engagements volontaires de la RSE ne viennent se substituer aux réglementations contraignantes de l’État. Certaines refusent aussi d’être considérées comme une partie prenante « parmi d’autres », au même niveau que les consommateurs ou les ONG.

Dans ce contexte, la montée en puissance de la RSE pose une question centrale : les représentants du personnel risquent-ils d’être court-circuités ? Face à une RSE qui encourage des échanges plus directs entre employeurs et salariés, les entreprises pourraient être tentées de privilégier ces canaux participatifs, au détriment des instances représentatives traditionnelles. Derrière cette évolution se joue un enjeu démocratique : la place des représentants élus dans le dialogue social est-elle appelée à se réduire ?

Ce que montrent les données

Pour répondre à cette question, une étude basée sur plus de 1 000 entreprises et de leurs représentants du personnel a été menée au Luxembourg. La législation luxembourgeoise impose la représentation des salariés dans les entreprises, et les syndicats continuent d’exercer une influence sur la prise de décision. Les syndicats représentatifs disposent, entre autres, du droit de conclure des conventions collectives à différents niveaux, y compris au niveau de l’entreprise.

Dans les entreprises de plus de 15 salariés, des élections doivent être organisées tous les cinq ans pour désigner une délégation du personnel, ces élections récurrentes constituant également un moyen pour les syndicats d’affirmer leur présence. Selon l’article L. 414-2 du Code du travail, la mission des représentants du personnel est de « sauvegarder et défendre les intérêts des salariés ». Les employeurs ont l’obligation d’informer les représentants du personnel sur divers sujets, notamment les stratégies de l’entreprise, sa situation économique et son évolution prévisible. Les pratiques de dialogue social varient fortement selon les secteurs et les entreprises, comme le reflète le taux de couverture des conventions collectives.

Les résultats montrent que l’adoption d’une stratégie RSE transforme en profondeur les relations sociales. Les entreprises engagées dans la RSE multiplient les échanges directs avec leurs salariés : réunions plus fréquentes, espaces d’expression facilités, possibilité accrue de poser des questions. Dans le même temps, elles entretiennent aussi davantage de contacts avec les représentants du personnel… mais privilégient aussi la consultation plutôt que la négociation.

Un dialogue social à deux vitesses ?

En clair, la RSE favorise à la fois l’intensification des relations directes avec les salariés et certaines formes d’échanges avec leurs représentants, sans pour autant que les unes remplacent les autres. Toutefois, si les relations directes et indirectes ne sont pas en concurrence, la nature de ces interactions diverge et la différence est de taille : participatives avec les salariés, largement unidirectionnelles avec leurs représentants. Ce « dialogue social à deux vitesses » pourrait donc, à terme, affaiblir le rôle des syndicats, relégués en dehors d’une communication bilatérale et de solutions véritablement négociées.

Ministère du travail, 2024.

Ce risque est d’autant plus grand au sein des PME, où la représentation syndicale est relativement moins nombreuse que dans les plus grandes entreprises. Ce type d’entreprises présente également des ressources limitées qui peuvent les conduire à prioriser un type de relation (ici, direct avec leurs salariés). Des effets sectoriels sont également à noter : les entreprises industrielles ont moins de contacts avec les syndicats mais recherchent davantage de solutions négociées que celles du commerce.

Comment expliquer ce dialogue social à deux vitesses ? Doit-on voir ici la marque du scepticisme des représentants du personnel et des syndicats à l’égard de la RSE et une volonté de rester dans leur zone de confort ? En clair, une volonté de ne pas prendre part à des négociations sur des sujets hors de leur périmètre traditionnel. Au contraire, ce résultat est-il l’expression de l’opportunisme des employeurs qui chercheraient volontairement à réduire la voix des syndicats et limiter leurs rôles dans de nouveaux champs stratégiques, notamment environnementaux. Enfin, nous pouvons aussi faire l’hypothèse que les salariés ont moins confiance dans leurs représentants et préfèrent une communication plus directe, sans intermédiaire.

Si nos résultats ne permettent pas de trancher définitivement sur la responsabilité qui est en cause (celle des syndicats et/ou celle des employeurs), ils montrent l’importance de la RSE comme un levier clé du dialogue social à condition qu’il intègre pleinement employeurs, salariés et syndicats pour co-créer les solutions d’avenir. Pour y parvenir, une communication bilatérale avec les syndicats ainsi que des solutions véritablement négociées restent à mettre en place dans les entreprises.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. La responsabilité sociale des entreprises, un outil pour court-circuiter les syndicats ? – https://theconversation.com/la-responsabilite-sociale-des-entreprises-un-outil-pour-court-circuiter-les-syndicats-261390

Les cobots, des collègues de travail comme les autres ?

Source: The Conversation – in French – By Thierry Colin, Professeur des universités en Sciences de gestion, Université de Lorraine

Le concept de cobot a été inventé par l’industrie automobile. L’objectif&nbsp;: créer des robots capables de travailler aux côtés des humains, sans risque d’insécurité. Gumpanat/Shutterstock

Les robots collaboratifs, ou cobots, ne remplacent pas seulement les humains : ils peuvent travaillent avec eux. Quel est leur impact sur la division du travail ?


Les robots sont omniprésents dans la production industrielle. Leur diffusion a toujours été au cœur d’enjeux humains, sociaux, économiques et en management, entraînant très tôt de nombreux questionnements.

Une nouvelle interrogation émerge aujourd’hui avec l’apparition des cobots. Capables de travailler non seulement à la place, mais aussi avec les humains au sein des ateliers, les robots collaboratifs sont-ils en train de devenir des collègues comme les autres ? Légers, flexibles, relativement accessibles et conviviaux… sont-ils susceptibles de remettre en cause les codes de la division du travail ?

Nos recherches récentes, basées sur des études de cas comprenant des entretiens et des observations en situation, ont permis de repérer quatre types d’usage des cobots : configuration simultanée, alternée, flexible ou coexistence. Elles rentrent dans le cadre du projet Impact « C-Shift » (Cobots in the Service of Human activity at work) qui vise à étudier l’impact de la mise en œuvre de dispositifs collaboratifs intelligents tels que les cobots dans le cadre des défis de l’industrie du futur.

Qu’est-ce qu’un cobot ?

Le terme cobot est créé par la contraction des termes anglais « collaborative » et « robot ». La paternité en est attribuée à des universitaires états-uniennes qui cherchent à la fois à limiter les troubles musculosquelettiques et à améliorer la productivité dans des usines de production automobile – Ford et General Motors.

Un robot collaboratif est un robot qui peut être installé dans le même espace de travail que les opérateurs humains, sans barrière de protection physique. Ils sont équipés de capteurs et de programmes déclenchant un ralentissement du mouvement ou un arrêt complet si un risque de collision est détecté. Ils sont capables de réaliser la plupart des opérations industrielles – visser, percer, poncer, souder.

Les cobots ne sont pas conçus pour des usages prédéfinis. Ils sont caractérisés avant tout par leur flexibilité. Facilement programmables grâce à des interfaces accessibles sur des tablettes, ils sont faciles à déplacer. Ils peuvent aussi bien mettre des produits cosmétiques dans des cartons, que faire du contrôle qualité à l’aide d’une caméra en bout de chaîne de production ou souder des pièces métalliques.

Marché multiplié par quatre d’ici 2030

Les cobots ne sont plus de simples prototypes de laboratoire. Ils sont désormais couramment utilisés dans des usines de toutes tailles et dans divers secteurs – automobile, logistique, santé, agroalimentaire –, bien que leur adoption reste encore loin d’être généralisée. La part des cobots dans les ventes mondiales de robots serait de l’ordre de 3 % et, selon ABI research, le marché des cobots pourrait être multiplié par quatre d’ici 2030.

Courbe
Prévision de croissance du marché mondial des robots collaboratifs (cobots) de 2020 à 2030 en millions de dollars états-uniens. »
Statista et ABI Research, FAL

Les cobots ne visent pas à remplacer les robots traditionnels en raison de plusieurs limitations :

  • Leur charge utile est réduite : leur légèreté et leur petite taille les empêchent de manipuler des objets lourds.

  • Leur vitesse d’exécution est volontairement limitée pour garantir la sécurité des humains qui travaillent autour. Cela freine leur productivité et les rend peu adaptés aux productions à très grande échelle.

  • Installés dans les mêmes espaces que les humains, les cobots soulèvent des problèmes de sécurité lorsqu’ils sont équipés d’outils dangereux – outil coupant ou torche de soudage.

Leur potentiel réside avant tout dans de nouveaux usages et une approche différente de l’automatisation. Ainsi, dans une PME spécialisée dans la tôlerie qui a fait l’objet d’une étude de cas, les soudures sont effectuées par un robot de soudure traditionnel pour les grandes séries récurrentes. Pour les séries de taille moyenne et par des soudeurs pour les petites séries ou des soudures trop complexes, elles sont effectuées par des cobots.

Quatre usages des cobots en usine

Si par définition les cobots ont la possibilité de travailler dans le même espace que des opérateurs humains, leurs usages ne sont pas nécessairement collaboratifs et nos recherches nous ont permis de distinguer quatre configurations.

Projet C-SHIFT, cobots et industrie du futur, de l’Université de Lorraine.
Université de Lorraine, Fourni par l’auteur

Coexistence avec l’humain

À un extrême, les cobots viennent se substituer aux opérateurs pour prendre en charge les gestes les plus pénibles et/ou gagner en productivité. On qualifie cet usage de coexistence, car il n’y a aucune interaction directe avec les humains.

Dans l’industrie automobile, des cobots vissent des pièces sous les véhicules, là où les positions sont particulièrement difficiles pour les opérateurs.




À lire aussi :
Comment rendre les robots plus adaptables aux besoins de leurs collaborateurs humains ?


Configuration simultanée

Dans la configuration simultanée, cobots et opérateurs travaillent ensemble en adaptant mutuellement leurs mouvements, côte à côte ou face à face. Si cette configuration est largement réalisable en laboratoire, elle est assez rare en condition réelle. La raison : le temps nécessaire à sa mise au point et sa certification sécurité obligatoire.

Chez un équipementier, le cobot positionne une colonne de direction pour automobile avec précision, évitant le port de charges et les chocs, et l’opérateur effectue des tâches de vissage sur la pièce.

Configuration alternée

La configuration alternée correspond à une situation où l’opérateur utilise le cobot, mais n’interagit pas directement avec lui. Il le programme pour une série de tâches, et le laisse travailler seul, dans un espace différent. Cette configuration garantit une meilleure sécurité pour l’opérateur humain. Ce dernier optimise la répartition du travail entre ce qu’il confie au cobot et ce qu’il continue de faire lui-même.

Chez un fabricant d’échangeurs thermiques pour la production de gaz industriels, les soudeurs délèguent aux cobots les soudures les plus simples et se concentrent sur des soudures plus complexes ou moins répétitives.

Configuration flexible

Dans la configuration flexible, la répartition du travail entre humains et cobots évolue au cours du temps, en fonction du plan de charge. Une fois la technologie maîtrisée, les cobots peuvent être réaffectés à différentes activités en fonction des exigences du moment. Le même cobot peut être utilisé pendant une période pour une activité de chargement de machines, puis réoutillé, il peut servir pour du ponçage, puis des opérations de peinture, etc.

L’efficacité réside dans la capacité des opérateurs, des techniciens et des ingénieurs à travailler ensemble pour inventer constamment de nouveaux usages. Cette configuration semble particulièrement adaptée à des PME dans lesquelles les séries sont courtes et variables.

Cobots et IA

Les cobots font partie d’un vaste mouvement technologique. Le contexte de l’industrie 5.0 et l’utilisation croissante de l’IA permettront aux cobots d’être encore plus adaptables, voire capables d’improvisation. Ils pourront être intégrés dans des « systèmes cyberphysiques de production », c’est-à-dire des systèmes très intégrés dans lesquels l’informatique contrôle directement les outils de production.

Cette intégration n’est pas évidente à ce stade. Si elle est possible, on peut penser que c’est la capacité à « combler les trous » de l’automatisation traditionnelle qui sera dominante, reléguant la flexibilité et l’aspect collaboratif au second plan. Inversement, le recours à l’intelligence artificielle peut aider au développement de configuration flexible misant sur la collaboration au sein des collectifs de travail.

Si ces évolutions technologiques ouvrent de nombreux possibles, elles laissent ouverte la question des usages en contexte réel. Les tendances futures dépendront des choix qui seront faits en termes de division du travail et de compétences.

Les configurations dites coexistence et activité simultanée ont finalement peu d’implications sur l’évolution des compétences ou de modalités de collaboration entre ingénieurs, techniciens et opérateurs. À l’inverse, le choix des configurations flexible ou activité alternée suppose que les opérateurs développent de nouvelles compétences, notamment en programmation, et que de nouvelles formes de collaboration verticales se développent.

En d’autres termes, les cobots redistribuent moins les cartes en matière de collaboration homme-machine qu’ils n’invitent à revoir les logiques de collaborations entre humains au sein des organisations.

The Conversation

Thierry Colin a bénéficié d’une aide de l’Initiative d’Excellence Lorraine (LUE) au titre du programme France 2030, portant la référence ANR-15-IDEX-04-LUE. Il a aussi bénéficié d’une aide de l’ANACT dans le cadre de son AMI “Prospective pour accompagner la transition des systèmes de travail”

Benoît Grasser a bénéficié d’une aide de l’Initiative d’Excellence Lorraine (LUE) au titre du programme France 2030, portant la référence ANR-15-IDEX-04-LUE. Il a aussi bénéficié d’une aide de l’ANACT dans le cadre de son AMI « Prospective pour accompagner la transition des systèmes de travail ».

ref. Les cobots, des collègues de travail comme les autres ? – https://theconversation.com/les-cobots-des-collegues-de-travail-comme-les-autres-260231